© UNICEF/Bashir Ahmed Sujan | En cyklist leverer mad i Uttara-forstaden i Dhaka, Bangladesh. (fil)

Fra bude, der er tvunget til at følge kravene fra onlineplatformens algoritmer, til indholdsmoderatorer, der hver dag konfronteres med pornografi og død, mens de træner systemer med kunstig intelligens (AI), bliver de nye teknologiers indvirkning på arbejdsforholdene mere og mere tydelig.

“Det centrale spørgsmål er ikke, om AI vil transformere arbejdet; det gør det allerede”, siger Sher Verick, ILO-koordinator for digitalisering og AI. “Det centrale spørgsmål er, hvordan vi sikrer, at denne transformation fremmer anstændigt arbejde og social retfærdighed.”

På det første møde i det uafhængige internationale videnskabelige panel om kunstig intelligens, som blev afholdt tirsdag, understregede FN’s generalsekretær António Guterres det nye organs “enorme ansvar” for at “hjælpe med at forme udviklingen af kunstig intelligens til gavn for menneskeheden”.

“Hver for sig kommer I fra forskellige regioner og discipliner og medbringer enestående ekspertise inden for AI og relaterede områder,” sagde FN-chefen. “Tilsammen repræsenterer I noget, som verden aldrig har set før.”

Kunstig intelligens bruges nu i systemer “med reelle konsekvenser for folks velstand”, sagde Bilel Jamoussi, stedfortræder for direktøren for ITU’s kontor for telekommunikationsstandardisering.

Det omfatter ansættelsesbeslutninger og adgang til tjenester. Han understregede vigtigheden af standarder og kompetenceudvikling og bemærkede, at tekniske standarder hjælper med at gøre AI “troværdig”, men at den afgørende faktor fortsat er, hvordan samfund og regeringer vælger at anvende disse teknologier.

En “usynlig” arbejdsstyrke, der holder AI kørende, står bag chatbot-svar, algoritmer på sociale medier og andre automatiserede systemer, som mange mennesker nu tager for givet.

Under webinaret forklarede Ben Richards fra UNI Global Union, at “når vi taler om arbejdere i dataforsyningskæden, taler vi om to hovedgrupper:”

  • indholdsmoderatorer, der holder platformene mere sikre ved at gennemgå skadeligt indhold
  • datamærkere og kommentatorer, der strukturerer virkeligheden, så maskiner kan lære

Han tilføjede, at uanset hvor hans organisation taler med sådanne arbejdere, beskriver de lignende forhold: “Ekstremt pres, konstant overvågning, lave lønninger og psykiske skader”.

Store teknologivirksomheder er ofte afhængige af medarbejdere i lande i det globale syd til indholdsmoderering og dataanmærkning.

Alene i Indien er titusinder af mennesker beskæftiget med den slags arbejde. For mange beboere i landdistrikterne, især kvinder, ser jobannoncer, der tilbyder arbejde hjemmefra, hvor der kun kræves en internetforbindelse, ud til at være en sjælden mulighed for indkomst og uafhængighed.

Men når de bliver ansat, ved de ofte ikke, hvilket materiale de forventes at gennemgå. Mange bliver bedt om at underskrive fortrolighedsaftaler (NDA’er), som forbyder dem at diskutere deres arbejde, selv med familiemedlemmer.

En kvinde fra en landsby i Indien beskrev, at hun så hundredvis af videoer om dagen, herunder scener med seksuel vold, trafikulykker og mennesker, der dør, ifølge en nylig medierapport.

En anden ung kvinde sagde, at hun blev bedt om at gennemgå indhold, der involverede seksuel vold mod børn, og klassificere pornografisk materiale.

Menneskerettighedsforkæmpere har udtrykt bekymring over sådanne arbejdsforhold.

En kvinde bruger sin smartphone og engagerer sig muligvis i indhold på sociale medier, hvilket fremhæver problemer med cybermobning og deepfake-misbrug.

© Unsplash/Finn | AI-teknologier ændrer landskabet for arbejdstagere over hele verden.

Richards fra UNI Global Union bemærkede, at hans organisation er i gang med at opbygge en global alliance af indholdsmoderatorer og fremme protokoller for sikkert arbejde, der er baseret på retten til at organisere sig og deltage i kollektive forhandlinger.

“Vi ønsker, at AI skal øge den menneskelige kapacitet,” sagde han.

Faktisk skal fordelene ved teknologiske fremskridt fordeles retfærdigt, understregede han.

Arbejdere fra alle lande føler også øget stress fra algoritmisk ledelse, hvor softwaresystemer bestemmer arbejdstempo, opgavefordeling og præstationsevaluering. Denne type ledelse kan øge presset på medarbejderne og endda skabe sikkerhedsrisici.

Evelyn Astor, direktør for økonomisk og social politik hos International Trade Union Confederation (ITUC), advarede om, at kunstig intelligens uden passende regulering kan øge de eksisterende risici.

Ifølge fagforeningens overvågning har der allerede været dødsulykker i forbindelse med kurerer, der “jagter umulige leveringsmål fastsat af algoritmer”.

Omkring to tredjedele af chauffører og kurerer i Storbritannien arbejder under angstfyldte forhold på grund af “uretfærdig feedback” og pludselige ændringer i arbejdstiden bestemt af algoritmer, ifølge en undersøgelse fra 2025 offentliggjort af University of Cambridge. Mere end halvdelen af de adspurgte sagde, at de risikerer deres helbred og sikkerhed på arbejdet.

Selvom platformene ikke eksplicit instruerer arbejderne i at overtræde sikkerhedsreglerne, skaber systemet med incitamenter, herunder bøder, hastighedsbaserede bonusser og tildeling af prioritetsrækkefølge, forhold, hvor arbejderne føler sig tvunget til at træffe farlige beslutninger for at bevare deres indkomst.

Lignende bekymringer dukker op i andre lande og sektorer: Automatiserede systemer kan tildele vagter, fastsætte lønniveauer eller endda træffe beslutninger om opsigelser, ofte med minimalt menneskeligt tilsyn og begrænsede muligheder for at klage.

Fagforeningsrepræsentanter på webinaret advarede om, at anvendelse af AI uden passende sikkerhedsforanstaltninger risikerer at forstærke eksisterende problemer, og tilføjede, at algoritmisk styring allerede bidrager til arbejdsintensivering, øget digital overvågning, forudindtaget beslutningstagning og reduceret menneskeligt tilsyn med ansættelsesbeslutninger.

ILO og ITU fremmer initiativer, der har til formål at udforme internationale tilgange til regulering af AI’s indvirkning på arbejdsmarkederne, herunder AI for Good-platformen og Global Coalition for Social Justice.

Denne oversættelse er genereret ved brug af Word Press Multilingual Plugin. Hvis noget er uklart, henvises til den engelske version af artiklen.

Scroll to Top