Moeder Jones; Yui Mok/AP

Bestrijd desinformatie: Meld je aan voor de gratis Moeder Jones Dagelijks nieuwsbrief en volg het nieuws dat ertoe doet.

Het leven van Taiwanna Anderson veranderde voorgoed in december 2021, toen ze haar 10-jarige dochter Nylah bewusteloos aantrof, hangend aan een tasriem in een kast in de slaapkamer.

Nylah was nog maar net een puber en had geen zelfmoordneigingen. Ze was alleen de “Blackout Challenge” tegengekomen in een feed met video’s die voor haar waren samengesteld door het algoritme van TikTok. De uitdaging die circuleerde op de app voor het delen van video’s, moedigde gebruikers aan om zichzelf te wurgen met huishoudelijke artikelen totdat ze bewusteloos raakten. Wanneer ze weer bij bewustzijn kwamen, moesten ze hun videoresultaten uploaden zodat anderen ze konden kopiëren. Na enkele dagen op de intensive care van een ziekenhuis bezweek Nylah aan haar wurgingsletsels. Anderson klaagde TikTok aan vanwege productaansprakelijkheid en nalatigheid die volgens haar tot Nylah’s dood hadden geleid.

Jarenlang, toen eisers probeerden verschillende internetplatforms aan te klagen voor schade die ze online hadden geleden, profiteerden de platforms van wat neerkwam op een ‘get-out-of-jail-free card’: Sectie 230 van de Communications Decency Act, een wet uit 1996 die apps en websites brede immuniteit biedt tegen aansprakelijkheid voor content die door externe gebruikers op hun sites is geplaatst. In 2022 accepteerde een federale districtsrechter de Sectie 230-verdediging van TikTok om een ​​rechtszaak af te wijzen die door Anderson was aangespannen op basis van de beoordeling dat TikTok de blackout-uitdagingsvideo die Nylah zag niet had gemaakt, maar dat een externe gebruiker van TikTok dat wel had gedaan.

“TikTok leest artikel 230 van de Communications Decency Act om nonchalante onverschilligheid toe te staan ​​voor de dood van een tienjarig meisje.”

Maar op dinsdag publiceerde het federale Third Circuit Court of Appeals een oordeel dat de rechtszaak van de moeder nieuw leven inblies, waardoor haar zaak tegen TikTok door kon gaan naar de rechtbank. TikTok heeft misschien niet de video gefilmd die Nylah aanmoedigde om zichzelf op te hangen, maar het platform “maakt keuzes over de content die wordt aanbevolen en gepromoot aan specifieke gebruikers”, schreef rechter Patty Shwartz in het oordeel van het hof van beroep, “en door dit te doen, is het betrokken bij zijn eigen first-party speech.”

“TikTok interpreteert artikel 230 van de Communications Decency Act zodanig dat het onverschilligheid toestaat voor de dood van een tienjarig meisje”, schreef rechter Paul Matey in een gedeeltelijk meegaande mening die zelfs verder wilde gaan dan de andere twee rechters in het panel.

Juridische experts op het gebied van technologische aansprakelijkheid zeggen dat de algehele beslissing van het panel enorme gevolgen kan hebben voor allerlei onlineplatforms die afhankelijk zijn van algoritmes die vergelijkbaar zijn met die van TikTok.

“Mijn beste gok is dat elk platform dat gebruikmaakt van een aanbevelingsalgoritme dat aannemelijk kan worden beschouwd als expressieve activiteit of expressieve spraak, wakker werd in het kantoor van hun bedrijfsjurist en zei: ‘Heilige Moly'”, zegt Leah Plunkett, docent aan de Harvard Law School en auteur van Gedeeldheideen boek over het beschermen van kinderen online. “Als mensen niet wakker zouden worden [Wednesday] denkend dat ze dat zouden moeten zijn.”

Voorstanders van artikel 230 zijn al lang van mening dat een breed aansprakelijkheidsschild noodzakelijk is om het internet te laten bestaan ​​en zich te laten ontwikkelen als maatschappelijk instrument. Als websites verantwoordelijk zouden zijn voor het monitoren van de enorme hoeveelheden content die honderden miljoenen onafhankelijke gebruikers creëren, zouden rechtszaken de schatkist van de platforms leegtrekken en het rechtssysteem overbelasten, zo stellen zij.

“Als er minder gevallen zijn waarin 230 van toepassing is, dan worden platforms blootgesteld aan meer aansprakelijkheid, en dat schaadt uiteindelijk de internetgebruiker”, zegt Sophia Cope, senior advocaat bij de Electronic Frontier Foundation, een non-profitorganisatie voor vrijheid van meningsuiting en innovatie. Een nauwere interpretatie van de immuniteit van artikel 230 zou ervoor zorgen dat platforms “geen content van derden willen hosten, of ernstig beperken wat gebruikers kunnen posten”, zegt Cope, eraan toevoegend dat de verschuiving neer zou komen op platforms die zich bezighouden met “preventieve censuur” om hun winst te beschermen.

Maar critici van de huidige reikwijdte van artikel 23o zeggen dat de wet veel te mild is geïnterpreteerd en dat bedrijven ten minste soms verantwoordelijk moeten zijn voor gevaarlijke content die hun online platforms verspreiden. In zijn monumentale uitspraak van deze week zei het hof van beroep dat wanneer platforms pastoor schadelijke inhoud, dan is het mogelijk dat zij – en niet hun externe gebruikers – zich bezighouden met een vorm van “expressieve activiteit” waarvoor zij kunnen worden aangeklaagd.

“TikTok heeft er bewust voor gekozen om de uitdaging niet in te perken, maar deze juist aan steeds meer kinderen voor te schotelen, van wie velen waarschijnlijk onder invloed waren van de verslavende algoritmen van TikTok”, zegt Carrie Goldberg, een advocaat die betrokken is geweest bij verschillende productaansprakelijkheidszaken tegen technologiebedrijven.

De beslissing van dinsdag wijkt af van eerdere uitspraken van federale rechtbanken over de aansprakelijkheid (of het gebrek daaraan) van onlineplatforms. Dat komt omdat het hof van beroep nieuwe jurisprudentie moest overwegen. In juli deed het Hooggerechtshof een gunstige uitspraak voor techplatforms op verzoek van de handelsgroep NetChoice, waarmee het vermogen van platforms werd versterkt om zich bezig te houden met expressieve activiteiten zoals het cureren van content of het verwijderen van politici als ze dat zouden willen. Het inperken van dat vermogen zou de rechten van platforms op grond van het Eerste Amendement aantasten, zei het Hooggerechtshof in een nauwe uitspraak in die zaak, NetChoice versus Moody.

Sommige experts geloven dat de NetChoice-beslissing weinig te maken heeft met Sectie 230, die oorspronkelijk door het Congres werd aangenomen met de bedoeling om beginnende techplatforms te beschermen tegen rechtszaken voor het modereren van bepaalde content, maar het niet goed genoeg doen. “Er is GEEN CONFLICT tussen moderatie en rangschikking, aangezien (1) de uiting van het platform is en ook (2) geïmmuniseerd door 230,” Daphne Keller van het Cyber ​​Policy Center van Stanford schreef op Twitter. “Het hele punt van 230 was om matiging aan te moedigen en te immuniseren.”

Maar voor voorstanders van het opnieuw aanspannen van een rechtszaak over 230 is het feit dat het eerdere argument van NetChoice van het Hooggerechtshof door het Derde Circuit werd gebruikt om te heroverwegen hoe ruim de bescherming van artikel 230 zou moeten zijn, “heerlijk ironisch”, aldus Goldberg, omdat “NetChoice de meest pro-230 lobbyistenorganisatie is die er is.”

De uitspraak van het hof van beroep van dinsdag is geen garantie dat TikTok aansprakelijk wordt gesteld voor het tonen van de video aan Nylah die leidde tot haar dood. Het betekent echter wel dat zaken die onder de jurisdictie van het Derde Circuit vallen, niet op grond van artikel 230 afgewezen mogen worden voordat de rechtbanken de feiten in eerste aanleg hebben overwogen.

De uitspraak zou een ‘bericht’ moeten sturen naar platforms die gebruikmaken van algoritmen voor het samenstellen van content ‘dat de geldverspilling voorbij is’, zegt Goldberg. Moeder Jones. “Deze techgiganten hebben al veel te lang geld verdiend, omdat ze zich prettig voelen bij het idee dat dode kinderen de prijs zijn voor buitensporige groei.”





Bron: www.motherjones.com



Laat een antwoord achter