Het advertentie-algoritme van Facebook richt zich onevenredig op zwarte gebruikers met advertenties voor hogescholen met winstoogmerk, volgens een nieuw artikel van een team van universitaire onderzoekers.

Zoals alle grote sociale mediaplatforms maakt Meta, eigenaar van Facebook en Instagram, niet precies bekend hoe of waarom zijn miljarden gebruikers bepaalde berichten zien en andere niet, inclusief advertenties. Om het black-box-advertentiesysteem van Facebook op de proef te stellen, kochten academici van Princeton en de Universiteit van Zuid-Californië Facebook-advertenties en volgden hun prestaties onder echte Facebook-gebruikers, een methode die volgens hen “bewijs van rassendiscriminatie opleverde in Meta’s algoritmische levering van advertenties”. advertenties voor onderwijsmogelijkheden, die juridische en ethische problemen met zich meebrengen.”

De onderzoekers zeggen dat ze zich richtten op hogescholen met winstoogmerk vanwege hun lange, aantoonbare geschiedenis van het misleiden van toekomstige studenten – vooral gekleurde studenten – met roofzuchtige marketing, terwijl ze matige onderwijsresultaten en verminderde kansen op een baan opleverden in vergelijking met andere hogescholen.

In een reeks testmarketingcampagnes kochten de onderzoekers sets van twee aan elkaar gekoppelde advertenties: een voor een openbare instelling, zoals de Colorado State University, en een andere voor een bedrijf met winstoogmerk, zoals Strayer University. (Noch de door de onderzoekers geadverteerde hogescholen met winstoogmerk, noch de staatsscholen waren bij het project betrokken).

Adverteerders op Facebook kunnen hun campagnes verfijnen met verschillende targetingopties, maar racen hoort daar niet langer bij. Dus vonden de onderzoekers een slimme proxy. Met behulp van kiezersregistratiegegevens uit North Carolina, waarin de rassen van individuele personen zijn opgenomen, bouwden de onderzoekers een steekproefpubliek op dat voor 50 procent uit blanken en voor 50 procent uit zwarten bestond. De zwarte gebruikers kwamen uit de ene regio in North Carolina en de blanke kiezers uit een andere. Met behulp van de ‘aangepaste doelgroepen’-functie van Facebook hebben ze een selectie van specifieke personen geüpload om met advertenties te targeten. Hoewel de advertentieprestatiestatistieken van Facebook niet het ras van de gebruikers zouden onthullen die elke advertentie zagen, lieten de gegevens zien waar elke advertentie werd bekeken. “Elke keer dat onze advertentie in Raleigh wordt vertoond, kunnen we concluderen dat deze aan een zwarte persoon is getoond, en als deze in Charlotte wordt getoond, kunnen we concluderen dat deze aan een blanke persoon is getoond”, legt de krant uit.

Theoretisch zou een onbevooroordeeld algoritme elke advertentie voor elke school aan een gelijk aantal zwart-witte gebruikers weergeven. Het experiment was bedoeld om na te gaan of er een statistisch significante afwijking was in de mate waarin mensen uiteindelijk welke advertenties te zien kregen.

Bij elk paar advertenties vertoonde het bezorgalgoritme van Facebook een bias, ontdekten de onderzoekers. Het algoritme van het bedrijf toonde onevenredig veel advertenties aan zwarte gebruikers voor hogescholen als DeVry en Grand Canyon University, scholen met winstoogmerk die door het ministerie van Onderwijs zijn beboet of aangeklaagd wegens reclamebedrog, terwijl meer blanke gebruikers naar staatsscholen werden gestuurd, concludeerden de academici.

“Het aanpakken van eerlijkheid in advertenties is een uitdaging voor de hele sector en we hebben samengewerkt met burgerrechtengroepen, academici en toezichthouders om de eerlijkheid in ons advertentiesysteem te bevorderen”, vertelde Meta-woordvoerder Daniel Roberts aan The Intercept. “Onze advertentienormen staan ​​adverteerders niet toe advertenties weer te geven die individuen of groepen individuen discrimineren op basis van persoonlijke kenmerken zoals ras. We zijn actief bezig met het bouwen van technologie die is ontworpen om extra vooruitgang te boeken op dit gebied.”

Zelfs in gevallen waarin deze programma’s met winstoogmerk hun daadwerkelijke marketinginspanningen hebben hervormd en ‘streven naar racistisch evenwichtige advertentietargeting’, concludeerde het onderzoeksteam: ‘Meta’s algoritmen zouden een historische raciale scheefheid creëren in aan wie de advertentie wordt getoond, en zouden dit zonder medeweten doen. aan de adverteerders.”

Sinds uit een ProPublica-rapport uit 2016 bleek dat Facebook adverteerders toestond gebruikers expliciet uit te sluiten van advertentiecampagnes op basis van hun ras, is het advertentiesysteem van het bedrijf onderworpen aan meer controle en kritiek. En hoewel Facebook uiteindelijk opties verwijderde waarmee marketeers gebruikers op ras konden targeten, heeft eerder academisch onderzoek aangetoond dat het geheime algoritme dat beslist wie welke advertenties ziet, bevooroordeeld is op basis van ras en geslacht, wat duidt op vooroordelen die inherent zijn aan de systemen van het bedrijf.

Een onderzoekspaper uit 2019 over dit onderwerp toonde aan dat advertenties voor verschillende vacatures algoritmisch werden gesorteerd op basis van ras- en genderstereotypen, waardoor zwarte gebruikers bijvoorbeeld scheef de mogelijkheden van zwarte gebruikers lieten zien om taxi’s te besturen, terwijl vacatures voor een ontwikkelaar van kunstmatige intelligentie scheef waren ten gunste van blanke gebruikers. . Uit een vervolgpaper uit 2021 bleek dat de weergave van Facebook-advertenties de genderonevenwichtigheden op de werkvloer in de praktijk repliceerde, door vrouwenadvertenties te tonen voor bedrijven waar vrouwen al oververtegenwoordigd waren.

Hoewel Facebook vrijwel alle details over de functies van het algoritme voor advertentieweergave achterhoudt, heeft Facebook lang volgehouden dat zijn advertenties alleen worden getoond aan mensen die deze waarschijnlijk relevant vinden. In reactie op het onderzoek uit 2021 dat gendervooroordelen in het algoritme aantoonde, vertelde een woordvoerder van het bedrijf aan The Intercept dat hoewel ze de zorgen van de onderzoekers begrepen, “ons systeem rekening houdt met veel signalen om mensen advertenties te bieden waarin ze het meest geïnteresseerd zullen zijn.”

Aleksandra Korolova, hoogleraar computerwetenschappen en public affairs aan Princeton en co-auteur van het onderzoek uit 2019 en 2021, vertelde The Intercept dat ze het idee verwerpt dat schijnbare algoritmische vooroordelen kunnen worden weggeredeneerd omdat ze alleen maar weerspiegelen wat mensen werkelijk willen. onmogelijk te weerleggen. “Het is onmogelijk om te zeggen of de algoritmen van Meta inderdaad een echte voorkeur van een individu weerspiegelen, of slechts vooroordelen reproduceren in historische gegevens waarop de algoritmen zijn getraind, of optimaliseren voor voorkeuren zoals weerspiegeld in klikken in plaats van voorgenomen acties in de echte wereld.”

De bewijslast om te bewijzen dat de advertentieweergave van Facebook de voorkeuren van de echte wereld weerspiegelt en niet racistische vooroordelen, ligt volgens haar bij Facebook.

Maar Korolova merkte ook op dat zelfs als advertenties met winstoogmerk disproportioneel op zwarte Facebook-gebruikers worden gericht vanwege de daadwerkelijke inschrijvingscijfers, er nog steeds morele en sociale bezwaren tegen een dergelijk systeem bestaan. “De maatschappij heeft geoordeeld dat sommige advertentiecategorieën zo belangrijk zijn dat je historische trends of voorkeuren niet mag laten doordringen in toekomstige acties”, zei ze. Hoewel verschillende gebieden in de Verenigde Staten door de jaren heen overwegend zwart of blank kunnen zijn geweest, is het achterhouden van advertenties voor eigendommen in ‘witte buurten’ aan bijvoorbeeld zwarte kopers illegaal, ondanks historische trends.

Afgezien van de ethische overwegingen rond het onevenredig aanmoedigen van zwarte gebruikers om zich in te schrijven voor hogescholen met winstoogmerk, suggereren de auteurs dat Facebook mogelijk ook wettelijke aansprakelijkheid voor zichzelf creëert. “Onderwijsmogelijkheden genieten wettelijke bescherming die rassendiscriminatie verbiedt en kunnen van toepassing zijn op advertentieplatforms”, waarschuwt de krant.

Korolova zei dat “Meta de afgelopen jaren inspanningen heeft geleverd om de vooringenomenheid in hun advertentiesystemen op het gebied van huisvesting, werkgelegenheid en krediet te verminderen – huisvesting als onderdeel van hun schikking in 2022 met het ministerie van Justitie, en werkgelegenheid en krediet op vrijwillige basis. misschien om rechtszaken te voorkomen die zijn gebaseerd op het werk waaruit discriminatie blijkt bij de levering van arbeidsadvertenties.’

Maar ze voegde eraan toe dat, ondanks jarenlang onderzoek naar ogenschijnlijk diepgewortelde algoritmische vooroordelen in de producten van het bedrijf, “Meta niet rechtstreeks met ons in zee is gegaan en hun inspanningen voor het aanpakken van vooroordelen over advertentieweergave niet lijkt te hebben uitgebreid naar een bredere reeks domeinen die verband houden met het leven. kansen en maatschappelijk belangrijke onderwerpen.”




Bron: theintercept.com



Laat een antwoord achter