Meer dan 1.000 technologieleiders ondertekenen petitie waarin wordt opgeroepen tot pauze van ‘gigantische AI-experimenten’ als reactie op de release van GPT-4.
Miljardair zakenman Elon Musk en een reeks technische leiders riepen woensdag op tot een pauze in de ontwikkeling van krachtige kunstmatige intelligentie (AI)-systemen om tijd te geven om ervoor te zorgen dat ze veilig zijn.
Een open brief, tot nu toe ondertekend door meer dan 1.000 mensen, waaronder Musk en mede-oprichter van Apple, Steve Wozniak, was een reactie op de recente release van GPT-4, een geavanceerdere opvolger van de veelgebruikte AI-chatbot ChatGPT, die de startup OpenAI in San Francisco heeft uitgebracht. hielp een race te ontketenen tussen technologiereuzen Microsoft en Google om soortgelijke applicaties te onthullen.
Het bedrijf zegt dat het nieuwste model veel krachtiger is dan de vorige versie, die werd gebruikt om ChatGPT aan te drijven, een bot die in staat is om stukjes tekst te genereren vanaf de kortste prompts.
“AI-systemen met mens-concurrerende intelligentie kunnen grote risico’s vormen voor de samenleving en de mensheid”, aldus de open brief met de titel “Pause Giant AI Experiments”.
“Krachtige AI-systemen mogen pas worden ontwikkeld als we er zeker van zijn dat hun effecten positief zullen zijn en dat hun risico’s beheersbaar zullen zijn”, zei het.
Musk was een eerste investeerder in OpenAI en zat jarenlang in het bestuur. Zijn autobedrijf Tesla ontwikkelt AI-systemen om onder meer zijn zelfrijdende technologie aan te drijven.
De brief, gehost door het door Musk gefinancierde Future of Life Institute, werd ondertekend door prominente critici en concurrenten van OpenAI, zoals Stability AI-chef Emad Mostaque.
Een aantal regeringen werkt al aan het reguleren van risicovolle AI-tools. Het Verenigd Koninkrijk heeft woensdag een paper uitgebracht waarin het zijn aanpak schetst, die volgens het “hardhandige wetgeving die innovatie zou kunnen belemmeren, zal vermijden”. Wetgevers in de 27 landen tellende Europese Unie hebben onderhandeld over de goedkeuring van ingrijpende AI-regels.
‘Betrouwbaar en loyaal’
De brief citeerde uit een blog geschreven door OpenAI-oprichter Sam Altman, die suggereerde dat “het op een gegeven moment belangrijk kan zijn om een onafhankelijke beoordeling te krijgen voordat we beginnen met het trainen van toekomstige systemen”.
“We zijn het eens. Dat punt is nu’, schreven de auteurs van de open brief.
“Daarom roepen we alle AI-labs op om per direct minimaal zes maanden te pauzeren met het trainen van AI-systemen die krachtiger zijn dan GPT-4.”
Ze riepen regeringen op om in te grijpen en een moratorium in te stellen als bedrijven het niet eens werden.
De zes maanden moeten worden gebruikt om veiligheidsprotocollen en AI-governancesystemen te ontwikkelen en onderzoek te heroriënteren om ervoor te zorgen dat AI-systemen nauwkeuriger, veiliger, “betrouwbaarder en loyaler” zijn.
De brief ging niet in op de gevaren die GPT-4 aan het licht bracht.
Maar onderzoekers, waaronder Gary Marcus van de New York University, die de brief ondertekende, hebben lang beweerd dat chatbots grote leugenaars zijn en het potentieel hebben om superverspreiders van desinformatie te zijn.
Auteur Cory Doctorow heeft de AI-industrie echter vergeleken met een “pump and dump”-schema, met het argument dat zowel het potentieel als de dreiging van AI-systemen massaal overhyped zijn.
Bron: www.aljazeera.com