Open één social media-platform en je wordt getroffen door een nepvideo; open een andere en je wordt getroffen door onverdraagzaamheid. Open een nieuwsartikel, en je zult zien dat sommige slachtoffers ‘gedood’ zijn, maar andere ‘sterven’. Elk verslag van de gebeurtenissen in Israël en Palestina lijkt op verschillende feiten te berusten. Wat wel duidelijk is, is dat desinformatie, haatzaaiende uitlatingen en feitelijke verdraaiingen welig tieren.
Hoe onderzoeken we wat we in zo’n landschap zien? Ik sprak met experts op het gebied van media, politiek, technologie en communicatie over informatienetwerken rond de Israëlische oorlog in Gaza. Dit interview met computerwetenschapper Megan Squire is het eerste in een vijfdelige serie waarin ook journalist en nieuwsanalist Dina Ibrahim, mediaonderzoeker Tamara Kharroub, communicatie- en beleidswetenschapper Ayse Lokmanoglu en open-source intelligence-pionier Eliot Higgins aanwezig zijn.
Megan Squire wel de adjunct-directeur van het Southern Poverty Law Center voor data-analyse en open-source intelligence (OSINT). Squire, voormalig hoogleraar computerwetenschappen aan de Elon Universiteit in North Carolina, gebruikt nu datawetenschapstools om haat en extremisme online te volgen. Haar eerdere onderzoek onderzocht de monetisering van propaganda, de opkomst van anti-moslimhaat op Facebook en de rol van het gecodeerde berichtenplatform Telegram in sociale bewegingen en politiek extremisme. Als Belfer Fellow bij het Center for Technology and Society van de Anti-Defamation League onderzoekt Squire momenteel de effecten van het deplatformeren van extremistische actoren in online ruimtes.
De problemen die we tegenkomen, zegt Squire, zijn niet nieuw. “In sommige opzichten is het erger geworden. We gaan hier niet zo goed mee om als zou moeten.”
Ik sprak met Squire over hoe sociale mediaplatforms nieuws over Israël en Palestina verspreidden – accuraat, onnauwkeurig en soms gevaarlijk.
Wat is het belang van uw vakgebied met betrekking tot (mis)informatie, vooral als het gaat om Israël en Palestina?
Ik ben momenteel gespecialiseerd in open source-inlichtingen, wat betekent dat ik het internet, meestal openbaar beschikbare bronnen, ga gebruiken als inlichtingen om een of andere vraag te onderzoeken. Bij de SPLC is de vraag wat er aan de hand is met het extremisme in de VS. We gebruiken informatie van verschillende plaatsen [to] helpen die vraag te beantwoorden. In de context van dit conflict worden dezelfde instrumenten die we gebruiken om informatie over haat en extremisme naar boven te halen, uitgebuit om propaganda en desinformatie te produceren.
Soms merken we dat desinformatie over het Israëlisch-Hamas-conflict ook de gemeenschappen die we bestuderen doorkruist, zoals antisemitische inhoud of complottheorieën.
Kunt u iets meer vertellen over die toename van desinformatie?
Open-source intelligence brengt informatie naar boven die algemeen openbaar beschikbaar is. We voeren data-analyses uit om inzicht te krijgen in de patronen die zich voordoen. Met het conflict op dit moment zijn er twee of drie emmers met materialen die we zien – veel van dezelfde soorten die we zouden zien doen [our usual] werken bij de SPLC om te kijken naar haat en extremisme.
Eén daarvan zijn complottheorieën. Alles, van materialen, video’s, berichten en propagandamemes die dingen zeggen als: “De aanval was een inside job van Israël” of “Joe Biden gaf groen licht voor de aanval.” Ze gebruiken veel verschillende formaten, maar het verspreidt zich op sociale media. Het belang van open source-intelligentie is dat we die informatie op sociale media kunnen vinden en zaken kunnen bepalen zoals wie ermee begonnen is, waar het is en hoe het zich verspreidt.
De tweede grote groep die zich op sociale media verspreidt, zijn videobeelden, vooral uit oude bronnen of niet-gerelateerde beelden. Het verkeerd toepassen van beelden van andere evenementen is een zeer specifieke vorm van desinformatie. We hebben tools voor videoanalyse die we gebruiken om bij te houden hoe deze inhoud zich verspreidt. Daarmee samenhangend zou de opkomst van deep-fake-video’s zijn. Er wordt veel onderzoek gedaan naar open source-intelligentie om manieren te vinden waarop we kunnen detecteren of video’s nep zijn, en dat bij de pas kunnen voorkomen.
Om wat voor soort platforms gaat het?
De plaatsen waar we deze hele puinhoop zien ontstaan: er zijn de gebruikelijke verdachten, enkele van de gebruikelijke platforms, zoals Meta/Facebook, X/Twitter, YouTube en Reddit.
Het probleem met die reguliere platforms is dat de meeste op zijn minst een knipoog geven naar een vorm van inhoudsmoderatie. Wij zien een video, jij rapporteert het als nep, zij verwijderen het of markeren het. Sommigen zijn succesvoller dan anderen. X is niet zo succesvol geweest in het tegengaan van desinformatie vanwege de veranderingen op het gebied van inhoudsmoderatie en het blauwe vinkje.
Het echte gevaar echter – en dit is niet de eerste keer dat we dit bij grote gebeurtenissen in de wereld zien – is Telegram, een platform dat enorm populair is buiten de VS, en enorm populair binnen de VS bij extremistische groeperingen. Het is momenteel echt een ground zero voor propaganda, nepvideo’s en al dat soort dingen. De complottheorieën komen allemaal uit Telegram tevoorschijn en verspreiden zich van daaruit naar de andere platforms.
De reden is dat het platform hier speciaal voor is ontworpen. Er is geen effectieve inhoudsmoderatie op Telegram. Ze streven er niet naar om het te doen. En zelfs als ze daartoe gedwongen worden, doen ze het niet goed.
De technische kenmerken van Telegram maken dat ook [it] een toevluchtsoord voor mensen die slechte dingen willen verspreiden. U kunt video’s of bestanden van elk type bestand tot maximaal twee gigabyte delen. Het maakt het echt aantrekkelijk als plek om inhoud te verspreiden. Als je aan X denkt, kun je daar kleine video’s delen, maar je kunt niet zomaar een propagandabibliotheek creëren.
Ze hebben ook mogelijkheden voor voicechat en videostreaming. Het heeft verschillende coderingsniveaus, zodat u gecodeerde privéchats kunt voeren. Het maakt zowel propagandaverspreiding als gecodeerde chats op hetzelfde platform mogelijk. Ze hebben bots waarmee je cryptocurrency voor betalingen kunt geven en ontvangen. Je kunt je voorstellen dat sommige van deze groepen die geen toegang hebben tot traditionele financiering daar dol op zouden zijn – en het is er al, ingebouwd.
Je kunt het allemaal op één platform doen. Het is het perfecte hulpmiddel.
Ter verduidelijking: informatie van Telegram wordt verspreid op andere sociale platforms?
Dit is niet de eerste keer dat dit gebeurt. De eerste keer dat ik daar een foto van maakte met behulp van netwerkanalysesoftware was in 2019, met betrekking tot de schutter in Halle, Duitsland.
De videopropaganda die hij van zijn aanval maakte, begon op Telegram en ik bracht in kaart hoe deze zich verplaatste naar andere Telegram-kanalen en uiteindelijk naar het internet, waar het werd verwijderd. Toen kwam het terug naar Telegram en verspreidde het zich opnieuw. Dit is heel gebruikelijk. Het is bijna een recept op dit moment.
We zien offline een toename van islamofobie en antisemitisme. Hoe speelt webgebaseerde desinformatie daarin een rol?
Dit zijn de jaren ’90 niet meer. We gaan niet het internet op, we surfen niet op internet als een aparte activiteit. Wij werken online. Wij doen onze activiteiten online. Die scheiding is er eigenlijk niet meer. Online retoriek kan schade in de echte wereld veroorzaken.
Dat is iets dat mensen geloven, maar we zijn voortdurend op zoek naar het bewijs in de pudding. Ik probeer altijd naar de cijfers te zoeken.
Hoe kunnen we ervoor zorgen dat dat gebeurt, en zorgen dat er sprake is van causaliteit?
Het is iets waar groepen zoals de mijne erg in geïnteresseerd zijn: we volgen de online schade en de offline schade, en kijken of ze met elkaar verband houden. Houdt een toename van het aantal antisemitische berichten verband met een toename van antisemitische haatmisdrijven of andere soorten activiteiten in de echte wereld die misschien niet zo flagrant gewelddadig zijn, zoals vliegincidenten of vandalisme? Zien we verbanden tussen online memes die mensen aansporen om te doen? [hate crimes]en dan in de echte wereld die dingen daadwerkelijk uitvoeren?
We houden dat voortdurend in de gaten, en we zijn niet de enige groepen. We proberen allemaal voldoende gegevens te verzamelen om er wijs uit te worden en de causaliteit te bewijzen.
Heb je advies voor lezers die door het medialandschap navigeren?
Eén die ik vrij consequent geef: als je je op een platform bevindt waar de dingen heel pittig aanvoelen en er veel scherpe dingen gebeuren, dan zal veel inhoud desinformatief zijn. Het zal potentieel schadelijk zijn. Hoe vrijer het voelt, hoe groter het risico is dat u wordt blootgesteld aan precies die valse informatie die mensen willen vermijden.
De platforms die vroeger relatief goedaardig of veilig leken, of waar je op zijn minst een plek voor jezelf kon vrijmaken (ik kijk naar Twitter, nu X) zou ik mensen op dit moment niet aanraden hun informatie daar noodzakelijkerwijs vandaan te halen. Het is gewoon niet betrouwbaar. Denk echt lang en goed na over waar u uw informatie vandaan haalt.
Deze hele aflevering is aan de gang; het is zo beladen en zo verdrietig en verschrikkelijk. Het trieste deel van hoe het zich online ontvouwt, volgt de patronen die we eerder hebben gezien. Maar het wordt versterkt omdat het geweld zo intens en groots is.
Dit interview is licht bewerkt en ingekort voor de duidelijkheid.
Bron: www.motherjones.com