Niet lang geleden, Ik zag een nieuwe term die populair is in welzijnskringen op sociale media: ‘gecertificeerde hormoonspecialist’. Ik had het ook op de ouderwetse manier kunnen onderzoeken: googlen, een paar deskundigen opbellen, in de wetenschappelijke literatuur duiken. Ik ben gewend verdachte certificeringen voor mijn podcast te onderzoeken, Conspiritualiteit, waarin wordt besproken hoe desinformatie over gezondheid online uitzaait. In plaats daarvan probeerde ik iets nieuws. Ik vroeg een paar chatbots: welke opleiding heeft iemand nodig om zich te specialiseren in vrouwelijke hormonen?
De bots wezen mij op een “geavanceerd twaalf maanden durend programma voor permanente educatie op het gebied van hormoongezondheid”, geleid door Ashe Milkovic, een reikibeoefenaar en homeopaat. Toen werd het pas echt interessant: “Je kunt ook endocrinoloog worden”, voegde de AI eraan toe, voordat hij de vereiste 13 jaar opleiding noemde, inclusief medische opleiding en residenties. Voor de gewone lezer plaatst ‘alternatief’ deze twee opties feitelijk op gelijke voet – laat staan dat de ene een rigoureus programma is dat geworteld is in de wetenschap, terwijl de andere een cursus van een jaar is, bedacht door iemand zonder medische achtergrond. Toen ik ChatGPT-4 vroeg of het certificeringsprogramma van Milkovic legitiem is, antwoordde het bedrijf dat de training deel uitmaakt van het gebied van de ‘functionele geneeskunde’, waarbij ik verzuimde te vermelden dat dit verwijst naar een pseudomedische discipline die niet wordt erkend door een van de 24 besturen die medisch specialisten certificeren. .
Dit was geen geïsoleerde chatbot-fout. Toen ik vroeg of er bewijs was ter ondersteuning van de veronderstelde gezondheidsvoordelen van trendy koffieklysma’s, waarvan de voorstanders beweren dat ze kanker en autisme behandelen, bood Copilot van Microsoft mij links aan om kits te kopen. Toen ik het bedrijf vroeg om de bewering te onderzoeken dat kurkumasupplementen ‘ontstekingen’ en ‘oxidatieve stress’ zouden kunnen genezen, waarschuwde het me tegen het consumeren ervan vanwege een te hoog curcuminegehalte, en verwees het vervolgens naar sites die – jawel! – kurkumasupplementen verkochten. (Het is niet bewezen dat koffieklysma’s effectief zijn, behalve dat ze gevaarlijke bijwerkingen veroorzaken. Er zijn aanwijzingen dat gerechten die kurkuma bevatten voordelen kunnen hebben, maar supplementen worden niet goed opgenomen.)
Zelfs als de bots sceptische opmerkingen plaatsten, leken de links die ze verstrekten vaak hun advies tegen te spreken. Toen ik vroeg: “Wat zijn geloofwaardige alternatieve therapieën voor de behandeling van kanker?” Copiloot verzekerde mij dat alternatieve geneeswijzen kanker niet kunnen genezen, maar zijn gekoppeld aan het Cancer Center for Healing in Irvine, Californië. Tot de aanbiedingen behoren hyperbare zuurstoftherapie (die, ondanks wilde internetclaims, slechts effectief is gebleken voor een handvol aandoeningen waarbij sprake is van zuurstofgebrek, waarschuwt de FDA) en ozontherapie (de instantie beschouwt ozon als een giftig gas zonder bekende medische toepassingen). .
We weten dat chatbots onbetrouwbare entiteiten zijn die beroemde roddels over beroemdheden hebben ‘gehallucineerd’ en hun liefde hebben verklaard voor New York Times verslaggevers. Maar de inzet is veel groter als ze de twijfelachtige gezondheidsclaims van influencers en beoefenaars van alternatieve geneeswijzen die winst kunnen maken, versterken. Erger nog, de bots creëren verwarring door welzijnspropaganda te combineren met daadwerkelijk onderzoek. “Er heerst een mentaliteit dat AI op dit moment geloofwaardiger informatie biedt dan sociale media, vooral als je kijkt in de context van zoeken”, zegt Renée DiResta, wetenschapper op het gebied van desinformatie van Stanford Internet Observatory. Consumenten moeten zelf de inkoop van de bots onderzoeken, voegt ze eraan toe: “Er wordt veel verantwoordelijkheid op de schouders van de gebruiker gelegd.”
Slechte inkoop is slechts een deel van het probleem. Met name stelt AI iedereen in staat gezondheidsinhoud te genereren geluiden gezaghebbend. Voor het creëren van complexe webinhoud was vroeger technische kennis vereist. Maar “nu heb je geen gespecialiseerde computers nodig om te maken [believable AI-generated material]”, zegt Christopher Doss, beleidsonderzoeker voor de non-profitorganisatie RAND Corporation. “Er zijn duidelijke tekortkomingen in sommige deepfakes, maar de technologie zal alleen maar beter worden.”
Een voorbeeld hiervan: Klinisch apotheker en AI-onderzoeker Bradley Menz heeft onlangs een AI gebruikt om overtuigende desinformatie over de gezondheid te produceren, inclusief verzonnen academische referenties en valse getuigenissen, voor een onderzoek aan de Australische Flinders University. Met behulp van een publiekelijk beschikbaar groottaalmodel genereerde Menz 102 blogposts – meer dan 17.000 woorden – over vaccins en vapen, die vol stonden met verkeerde informatie. Ook creëerde hij in minder dan twee minuten twintig realistische afbeeldingen bij de berichten. De effecten van dergelijke door AI gegenereerde materialen “kunnen verwoestend zijn omdat veel mensen ervoor kiezen om online gezondheidsinformatie te verkrijgen”, vertelde Menz me.
Hij heeft gelijk dat verkeerde informatie over de gezondheid rampzalige gevolgen kan hebben. Talrijke luisteraars van mijn podcast hebben me verteld over dierbaren die ze hebben verloren nadat de persoon ‘alternatieve’ routes zocht voor de behandeling van kanker of andere gezondheidsproblemen. Elk verhaal volgt een soortgelijke lijn: het familielid wordt betrokken bij online communities die wonderbaarlijke genezing beloven, dus laten ze medicijnen achterwege of weigeren ze operaties. Wanneer supplementen en workshops op het gebied van energiehealing er niet in slagen hun ziekte te genezen, ontkennen de alternatieve beoefenaars hun verantwoordelijkheid.
Of denk eens aan de proliferatie van anti-vaccin-desinformatie, grotendeels gedreven door activisten die sociale media en online groepen bewapenen. Het resultaat: sinds 2019 zijn de vaccinatiegraad onder kleuters met 2 procent gedaald, waarbij de vrijstellingspercentages in 41 staten zijn gestegen. Meer dan 8.000 scholen lopen nu risico op een uitbraak van mazelen.
AI-makers kunnen medische desinformatie niet op magische wijze overwinnen; ze hebben hun chatbots immers op een internet vol pseudowetenschap gevoed. Dus hoe kunnen we de bots trainen om beter te presteren? Menz gelooft dat we iets nodig hebben dat lijkt op de protocollen die de overheid gebruikt om de veilige productie en distributie van farmaceutische producten te garanderen. Dat zou actie vereisen van een Congres dat voortdurend in rep en roer is. In de tussentijd kondigde president Biden afgelopen oktober een uitvoerend bevel aan dat enkele maatregelen omvat om de verspreiding van verkeerde informatie tegen te gaan, zoals het voorzien van een watermerk op door AI gegenereerde materialen, zodat gebruikers weten hoe ze zijn gemaakt. In Californië heeft senator Scott Wiener onlangs een wetsvoorstel ingediend om de veiligheidsmaatregelen voor grootschalige AI-systemen te versterken.
Maar het bestrijden van de verspreiding van desinformatie over gezondheid door AI zal meer vergen dan alleen beleidsoplossingen, aldus Wenbo Li, assistent-professor wetenschapscommunicatie aan de Stony Brook University, omdat chatbots “het vermogen missen tot kritisch denken, scepticisme of begrip van feiten in de wereld.” zoals mensen dat doen.” Zijn onderzoek is gericht op het ontwikkelen van lessen over hoe je de kwaliteit kunt beoordelen van de informatie die chatbots genereren. Zijn huidige werk richt zich op het trainen van zwarte en Latijns-Amerikaanse bevolkingsgroepen, groepen die in het gezondheidszorgsysteem te weinig worden bediend, om “generatieve AI-technologieën kritisch te evalueren, effectief te communiceren en te werken met generatieve AI, en generatieve AI ethisch als hulpmiddel te gebruiken.” DiResta van Stanford is het ermee eens dat we moeten werken aan de “mentaliteit die mensen hebben als ze informatie ontvangen van een zoekmachine” – bijvoorbeeld door gebruikers te leren chatbots alleen te vragen peer-reviewed bronnen te gebruiken. Het aanpassen van de bots kan de stroom van desinformatie helpen tegengaan, maar om voldoende kudde-immuniteit op te bouwen, zullen we iets veel gecompliceerders moeten trainen: onszelf.
Bron: www.motherjones.com