Open AI deze week stilletjes verwijderde taal die het gebruik van zijn technologie voor militaire doeleinden uitdrukkelijk verbiedt uit zijn gebruiksbeleid, dat probeert te dicteren hoe krachtige en immens populaire tools zoals ChatGPT kunnen worden gebruikt.

Tot 10 januari bevatte de pagina ‘gebruiksbeleid’ van OpenAI een verbod op ‘activiteiten die een hoog risico op fysieke schade met zich meebrengen, waaronder’ specifiek ‘wapenontwikkeling’ en ‘militair en oorlogvoering’. Dat duidelijk geformuleerde verbod op militaire toepassingen zou schijnbaar elk officieel en uiterst lucratief gebruik door het Ministerie van Defensie of enig ander staatsleger uitsluiten. Het nieuwe beleid handhaaft het verbod om “onze dienst niet te gebruiken om uzelf of anderen schade te berokkenen” en geeft “wapens ontwikkelen of gebruiken” als voorbeeld, maar het algemene verbod op het gebruik van “militaire en oorlogsvoering” is verdwenen.

De onaangekondigde redactie maakt deel uit van een grote herschrijving van de beleidspagina, die volgens het bedrijf bedoeld was om het document “duidelijker” en “leesbaarder” te maken, en die vele andere substantiële veranderingen in taal en opmaak omvat.

“We wilden een reeks universele principes creëren die zowel gemakkelijk te onthouden als toe te passen zijn, vooral omdat onze tools nu wereldwijd worden gebruikt door gewone gebruikers die nu ook GPT’s kunnen bouwen”, zei OpenAI-woordvoerder Niko Felix in een e-mail aan The Intercept. “Een principe als ‘Doe anderen geen kwaad’ is breed, maar toch gemakkelijk te begrijpen en relevant in tal van contexten. Daarnaast hebben we specifiek wapens en verwondingen aan anderen genoemd als duidelijke voorbeelden.”

Felix weigerde te zeggen of het vagere verbod op ‘schade’ al het militaire gebruik omvatte en schreef: ‘Elk gebruik van onze technologie, ook door het leger, om’[develop] of [use] wapens, [injure] anderen of [destroy] eigendom, of [engage] bij ongeoorloofde activiteiten die de veiligheid van een dienst of systeem schenden’, is niet toegestaan.”

“OpenAI is zich terdege bewust van de risico’s en schade die kunnen ontstaan ​​als gevolg van het gebruik van hun technologie en diensten in militaire toepassingen”, zegt Heidy Khlaaf, technisch directeur bij het cyberbeveiligingsbedrijf Trail of Bits en een expert op het gebied van machinaal leren en de veiligheid van autonome systemen. , daarbij verwijzend naar een artikel uit 2022 dat ze samen met OpenAI-onderzoekers schreef en waarin specifiek het risico van militair gebruik werd opgemerkt. Khlaaf voegde eraan toe dat het nieuwe beleid de nadruk lijkt te leggen op legaliteit boven veiligheid. “Er is een duidelijk verschil tussen de twee beleidsmaatregelen, aangezien het eerste duidelijk schetst dat de ontwikkeling van wapens, het leger en de oorlogsvoering niet zijn toegestaan, terwijl het laatste de nadruk legt op flexibiliteit en naleving van de wet”, zei ze. “Het ontwikkelen van wapens en het uitvoeren van activiteiten die verband houden met militaire en oorlogsvoering is in verschillende mate legaal. De potentiële implicaties voor de veiligheid van AI zijn aanzienlijk. Gezien de bekende gevallen van vooroordelen en hallucinaties die aanwezig zijn in Large Language Models (LLM’s), en hun algehele gebrek aan nauwkeurigheid, kan het gebruik ervan binnen militaire oorlogsvoering alleen maar leiden tot onnauwkeurige en bevooroordeelde operaties die waarschijnlijk de schade en het aantal burgerslachtoffers zullen verergeren.”

De reële gevolgen van het beleid zijn onduidelijk. Vorig jaar meldde The Intercept dat OpenAI niet bereid was te zeggen of het zijn eigen duidelijke ‘militaire en oorlogsvoering’-verbod zou handhaven, ondanks de toenemende belangstelling van het Pentagon en de Amerikaanse inlichtingengemeenschap.

“Gezien het gebruik van AI-systemen bij het aanvallen van burgers in Gaza, is het een opmerkelijk moment om de beslissing te nemen om de woorden ‘militair en oorlogsvoering’ te verwijderen uit het beleid voor toegestaan ​​gebruik van OpenAI”, zegt Sarah Myers West, directeur van AI Now. Instituut en voormalig AI-beleidsanalist bij de Federal Trade Commission. “De taal die in het beleid staat blijft vaag en roept vragen op over hoe OpenAI de handhaving wil benaderen.”

Hoewel niets dat OpenAI vandaag de dag biedt op plausibele wijze kan worden gebruikt om iemand direct te doden, militair of anderszins (ChatGPT kan geen drone manoeuvreren of een raket afvuren), houdt elk leger zich bezig met het doden, of op zijn minst met het behouden van de capaciteit om te doden. Er zijn een aantal aan moord gerelateerde taken die een LLM als ChatGPT zou kunnen uitbreiden, zoals het schrijven van code of het verwerken van inkooporders. Een overzicht van op maat gemaakte ChatGPT-aangedreven bots aangeboden door OpenAI suggereert dat Amerikaans militair personeel de technologie al gebruikt om het papierwerk te versnellen. De National Geospatial-Intelligence Agency, die de Amerikaanse gevechtsinspanningen rechtstreeks ondersteunt, heeft openlijk gespeculeerd over het gebruik van ChatGPT om zijn menselijke analisten te helpen. Zelfs als OpenAI-tools door delen van een militaire macht zouden worden ingezet voor doeleinden die niet direct gewelddadig zijn, zouden ze nog steeds een instelling helpen waarvan het hoofddoel dodelijkheid is.

Deskundigen die de beleidswijzigingen op verzoek van The Intercept hebben beoordeeld, zeggen dat OpenAI stilletjes zijn standpunt tegen het zakendoen met legers lijkt te verzwakken. “Ik kan me voorstellen dat de verschuiving van ‘militair en oorlogsvoering’ naar ‘wapens’ ruimte openlaat voor OpenAI om operationele infrastructuren te ondersteunen, zolang de toepassing niet direct betrekking heeft op de ontwikkeling van wapens in eng gedefinieerde zin”, zegt Lucy Suchman, emeritus hoogleraar. van antropologie van wetenschap en technologie aan de Lancaster University. “Natuurlijk denk ik dat het idee dat je kunt bijdragen aan oorlogsplatforms terwijl je beweert niet betrokken te zijn bij de ontwikkeling of het gebruik van wapens oneerlijk zou zijn, door het wapen te verwijderen uit het sociotechnische systeem – inclusief de commando- en controle-infrastructuur – waarvan het deel uitmaakt. .” Suchman, een wetenschapper op het gebied van kunstmatige intelligentie sinds de jaren zeventig en lid van het International Committee for Robot Arms Control, voegde hieraan toe: “Het lijkt aannemelijk dat het nieuwe beleidsdocument de kwestie van militaire contracten en oorlogsvoering ontwijkt door zich specifiek op wapens te concentreren.”

Suchman en Myers West wezen allebei op de nauwe samenwerking van OpenAI met Microsoft, een grote defensie-aannemer, die tot nu toe 13 miljard dollar in de LLM-maker heeft geïnvesteerd en de softwaretools van het bedrijf doorverkoopt.

De veranderingen komen omdat legers over de hele wereld graag machinale leertechnieken willen toepassen om voordeel te behalen; het Pentagon onderzoekt nog steeds voorzichtig hoe het ChatGPT of andere grote-taalmodellen zou kunnen gebruiken, een soort softwaretool die snel en behendig geavanceerde tekstuitvoer kan genereren. LLM’s zijn getraind in gigantische hoeveelheden boeken, artikelen en andere webgegevens om menselijke reacties op gebruikersvragen te benaderen. Hoewel de resultaten van een LLM als ChatGPT vaak buitengewoon overtuigend zijn, zijn ze geoptimaliseerd voor coherentie in plaats van een stevige greep op de werkelijkheid en lijden ze vaak aan zogenaamde hallucinaties die nauwkeurigheid en feitelijkheid tot een probleem maken. Toch maakt het vermogen van LLM’s om snel tekst op te nemen en snel analyses uit te voeren – of op zijn minst het simulacrum van analyse – hen een natuurlijke match voor het met data beladen ministerie van Defensie.

Hoewel sommigen binnen het Amerikaanse militaire leiderschap hun bezorgdheid hebben geuit over de neiging van LLM’s om flagrante feitelijke fouten of andere verdraaiingen in te voegen, evenals over de veiligheidsrisico’s die gepaard kunnen gaan met het gebruik van ChatGPT om geheime of anderszins gevoelige gegevens te analyseren, blijft het Pentagon over het algemeen gretig gebruik maken van kunstmatige intelligentie instrumenten. In een toespraak in november stelde plaatsvervangend minister van Defensie Kathleen Hicks dat AI “een belangrijk onderdeel is van de alomvattende, op oorlogsjagers gerichte benadering van innovatie die minister [Lloyd] Austin en ik rijden al vanaf dag 1”, hoewel ze waarschuwde dat de meeste huidige aanbiedingen “technisch gezien nog niet volwassen genoeg zijn om te voldoen aan onze ethische AI-principes.”

Vorig jaar vertelde Kimberly Sablon, de hoofddirecteur van het Pentagon voor betrouwbare AI en autonomie, op een conferentie in Hawaï: “[t]hier is veel goeds te vinden in termen van hoe we grote taalmodellen kunnen gebruiken, zoals [ChatGPT] om kritieke functies op de hele afdeling te verstoren.”




Bron: theintercept.com



Laat een antwoord achter