Vorig jaar hebben Keniaanse rechtbanken drie rechtszaken aangespannen tegen Meta, het moederbedrijf van Facebook, vanwege de onwil om met georganiseerde arbeiders samen te werken.

Werknemers hebben Meta, dat externe bedrijven gebruikte om contentmoderatie in Kenia te vergemakkelijken, voor de rechter gedaagd omdat het er niet in slaagde voldoende loon, training of gezondheidszorg te bieden aan werknemers die regelmatig naar beelden van verkrachting, moord en marteling moeten kijken.

In strijd met de Keniaanse wet hebben onderaannemers van Meta werknemers ontslagen die vorig jaar probeerden zich bij een vakbond aan te sluiten. Toen deze zaken voor de rechter kwamen, sloeg het bedrijf terug en beweerde dat externe bedrijven zoals Sama, een Keniaans AI-bedrijf, verantwoordelijk waren voor de schendingen van de arbeidswetgeving. Keniaanse rechtbanken waren het daar niet mee eens en oordeelden dat zij de macht hadden “om vermeende schendingen van de mensenrechten en fundamentele vrijheden af ​​te dwingen” door Meta en alle bedrijven die het had uitbesteed.

Eind vorig jaar hadden 184 contentmoderators Meta en haar contractanten aangeklaagd, waarbij ze beweerden dat de bedrijven hen hadden ontslagen als directe reactie op hun pogingen om hun werkplekken te verenigen in vakbonden.

De gesprekken tussen Meta, Sama en hun werknemers liepen in oktober vast, ondanks druk van de rechtbanken. Gedurende deze periode zijn de arbeiders acht maanden onbetaald gebleven en konden ze geen eten en huur betalen, ondanks dat ze nog steeds legaal in dienst waren bij Sama en Meta. Velen van hen waren afhankelijk van een online crowdfundingcampagne om te overleven.

Mercy Mutemi, een advocaat die de arbeiders vertegenwoordigt, vertelde verslaggevers dat Meta haar werknemers tot december vorig jaar had laten wachten op een aanbod dat zij omschreef als “een heel klein bedrag dat niet eens kan zorgen voor de geestelijke gezondheid van de indieners.”

De advocaten van de aanklager dienden een motie in om Meta te minachten omdat het een gerechtelijk bevel had overtreden dat het verplichtte de lonen van honderden van zijn contentmoderators te betalen. Maar uiteindelijk kozen de Keniaanse rechtbanken de kant van het technologiebedrijf en verklaarden dat het niet “opzettelijk en minachtend” gerechtelijke bevelen had overtreden.

Volgens Foxglove Legal, een in het Verenigd Koninkrijk gevestigde non-profitorganisatie voor technologierechtspraak, heeft Meta op deze klachten gereageerd door de moderatie discreet uit te besteden aan een ander bedrijf.

Martha Dark, oprichter en directeur van Foxglove, liet zich niet afschrikken toen haar werd gevraagd naar Meta’s pogingen om de wet in Kenia te ondermijnen. “We blijven vertrouwen hebben in onze zaak in het algemeen, aangezien we tot nu toe op elk inhoudelijk punt de overhand hebben gehad”, zei ze Jacobijn. “De belangrijkste uitspraak blijft die van juni: Meta kan zich niet langer verschuilen achter outsourcers om de uitbuiting en het misbruik van haar contentmoderators te excuseren.”

Een zeer vergelijkbaar geval krijgt nu vorm in Spanje, waar Meta’s uitbestedingsplan voor contentmoderatie met juridische beperkingen te maken krijgt. Volgens een rapport in De krantEr zijn rechtszaken aangespannen tegen Meta’s lokale onderaannemer, CCC Barcelona Digital Services.

De aanklager, een zesentwintigjarige Braziliaan, beweert dat ze ‘al vijf jaar psychiatrische behandeling krijgen vanwege blootstelling aan extreme en gewelddadige inhoud op Facebook en Instagram, zoals moorden, zelfmoorden, terrorisme en marteling.’

Afgelopen oktober, terwijl Meta de Keniaanse rechtbanken om verlengingen bleef vragen, zei de in Barcelona gevestigde krant De voorhoede meldde dat ongeveer 20 procent van het personeel van CCC Barcelona Digital Services niet werkte “als gevolg van psychologisch trauma door het beoordelen van giftige inhoud.”

Meta hoopt dat AI-tools deze processen zullen automatiseren, waarbij software in plaats van mensen wordt gebruikt om inhoud te scrubben op waarschuwingssignalen en overtredingen. En hoewel het bedrijf een aantal van deze programma’s heeft uitgerold, heeft het gebruik ervan geleid tot algoritmische overcorrectie, waardoor waardevolle informatie is verdwenen.

Afgelopen december constateerde de onafhankelijke toezichtsraad van Meta dat zij “te veel had gecorrigeerd toen zij de drempel verlaagde voor geautomatiseerde tools om mogelijk regelovertredende inhoud te verwijderen na de aanval op Israël door Hamas op 7 oktober.”

“Hoewel het risico op schadelijke inhoud werd verkleind, werd ook de kans vergroot dat waardevolle, niet-schendende inhoud per ongeluk van zijn platforms werd verwijderd”, aldus het bestuur, daarbij verwijzend naar berichten die “de wereld informeren over menselijk lijden aan beide kanten van het conflict”.

“Ervoor zorgen dat wat online wordt geplaatst niet schadelijk is voor mensen die het zien, is een nachtmerrie van een baan”, schreef Nathan Nkunzi, de voorzitter van het organisatiecomité van de African Content Moderators Union.

Nkunzi werkte als contentmoderator voor Meta in Nairobi toen hij in maart vorig jaar het slachtoffer werd van de massaontslagen bij het bedrijf.

“Het was de taak van mij en mijn collega’s om ervoor te zorgen dat alle door gebruikers gegenereerde inhoud op een platform geen schade toebrengt aan gebruikers. We doorzochten in realtime alle woorden, afbeeldingen, afbeeldingen en video’s terwijl ze op Facebook werden geplaatst, op zoek naar obsceen, illegaal, ongepast of schadelijk materiaal”, legde hij uit:

Het is tijdrovend en zwaar werk, waarbij veel onregelmatige uren nodig zijn. Moderators moeten grondig werken om overtredingen op te sporen die verborgen zijn in subtiele nuances.

We moesten eerst het geweld, het seksueel expliciete materiaal, de pornografie, het bloed en het bloedvergieten zien en dan pas een oordeel vellen over de vraag of het al dan niet zou moeten gebeuren. Wij hadden de verantwoordelijkheid om tussen deze stortvloed van verschrikkingen en u en uw dierbaren te staan.

Nkunzi en zijn collega’s eisen eenvoudigweg rechten die worden aangeboden aan Meta-arbeiders in grotere en lucratievere markten. Het bedrijf heeft in andere regio’s erkend dat de omstandigheden in de contentmoderatiesector erg moeilijk zijn voor werknemers. In 2020 stemde Meta, destijds Facebook, ermee in om 52 miljoen dollar te betalen om werknemers te compenseren voor een posttraumatische stressstoornis die ze tijdens hun werk hadden ontwikkeld, een uitkering die minimaal 1.000 dollar per werknemer bedroeg.

AI is simpelweg nog niet goed genoeg om de taak van contentmoderatie vakkundig uit te voeren. Totdat de technologie zich ontwikkelt, zal Meta waarschijnlijk op menselijke werknemers, vaak slecht betaald en in ontwikkelingslanden, vertrouwen om onze enorme netwerken van communicatie en informatie-uitwisseling te modereren.

De ontwikkelingen in Kenia laten zien dat de uitbuitingspraktijken van de technologie-industrie een halt kunnen worden toegeroepen door een staat die bereid is de wet te handhaven en georganiseerde arbeiders die bereid zijn voor hun rechten te vechten. De regering van William Ruto, die wanhopig probeert aansluiting te vinden bij de technologie-industrie, zou het grootste obstakel kunnen zijn voor werknemers in hun strijd voor waardigheid en adequate compensatie voor hun arbeid. Deze laatste campagne zou de Keniaanse president, die zichzelf heeft gepresenteerd als aan de kant van gewone burgers die zich haasten om in hun levensonderhoud te voorzien, ertoe kunnen dwingen de idealen waar hij campagne voor voerde, waar te maken.





Bron: jacobin.com



Laat een antwoord achter