'Ik heb ze eruit gegooid als honden.' Dat is de uitdrukking die Donald Trump, met de elegantie die we van hem kennen, gebruikte om zijn krachtmeting met het Amerikaanse bedrijf Anthropic samen te vatten. Hij zal nog even moeten wachten voordat hij kan opscheppen: in een eerste uitspraak op 27 maart heeft de rechter de verbanning van de kunstmatige intelligentie (AI)-gigant opgeschort, waardoor de tools ervan nog steeds door overheidsinstanties kunnen worden gebruikt, in tegenstelling tot wat de president wil. Maar de krachtmeting is nog niet voorbij en we moeten ons realiseren wat er op het spel staat: het gebruik van AI door de Verenigde Staten ten dienste van een terreurregime.
Achtergrond
Anthropic, opgericht door voormalige medewerkers van Open AI – het bedrijf dat de beroemde chatbot ChatGPT heeft ontwikkeld – is een van de belangrijkste uitdagers op het gebied van large language models (LLM's). Hun model, Claude, had medio 2025 30 miljoen gebruikers bereikt. In haar communicatie legt men de nadruk op betrouwbaarheid en veiligheid en introduceert men het concept van 'constitutionele AI', dat wil zeggen AI die is getraind om te handelen met inachtneming van grondteksten zoals de Universele Verklaring van de Rechten van de Mens. Een aanpak die verstandig en redelijk wil zijn, maar die haar er niet van heeft weerhouden om in november 2024 de officiële leverancier van AI-software voor het Amerikaanse ministerie van Defensie te worden.
Het Pentagon maakt met name gebruik van Claude, in het kader van een partnerschap waarbij ook het omstreden big data-bedrijf Palantir betrokken is, eigendom van de extreemrechtse miljardair Peter Thiel. Palantir levert de tools om grote hoeveelheden data te verzamelen en te verwerken, en Anthropic maakt het mogelijk die te benutten om actieplannen op te stellen. In het kader van de oorlog in het Midden-Oosten hebben die tools het zoeken naar doelen geautomatiseerd, wat het uitzonderlijke tempo van de aanvallen verklaart. De Wall Street Journal onthulde ook dat Claude in januari was gebruikt om de ontvoering van Nicolás Maduro te plannen.
Eind 2025 start het Pentagon onderhandelingen om de voorwaarden van die contracten te herzien. De reden: de beperkingen op het gebruik, die minister van Buitenlandse Zaken Pete Hegseth wil afschaffen ten gunste van de formule 'elk legitiem gebruik'. Anthropic toont zich dan open voor discussie, maar stelt twee rode lijnen: massasurveillance van Amerikaanse burgers en volledig autonome wapens. Hoewel het Pentagon beweert dat die toepassingen sowieso verboden zijn door de Amerikaanse wet (wat zeer betwistbaar is), neemt het aanstoot, stelt een ultimatum en verbreekt vervolgens de samenwerking met het bedrijf.
Op 4 maart ontvangt Anthropic een brief waarin het bedrijf wordt geïnformeerd over de straf die Donald Trump voor het bedrijf heeft gekozen: het zal voortaan worden beschouwd als een 'risico voor de toeleveringsketen' (supply chain risk), een status die gewoonlijk is voorbehouden aan bedrijven uit vijandige of onbetrouwbare landen, waardoor het voor elke overheid verboden is om gebruik te maken van de diensten van het bedrijf. En het is die beslissing die drie weken later door de rechter werd opgeschort – een welkome redding voor een bedrijf dat nu in ongenade is gevallen en door de Amerikaanse president wordt bestempeld als 'radicaal-links en woke'.
Afrekeningen en vriendjespolitiek
Ondertussen wreef de concurrentie zich in de handen. Met een weloverwogen cynisme publiceerden OpenAI en Google aan het begin van de gerechtelijke procedure een amicus curiae, een extern advies bedoeld om de rechter te informeren: daarin nemen ze het op voor hun rivaal en bevestigen ze de legitimiteit van de door Anthropic naar voren gebrachte bezwaren. Tegelijkertijd onderhandelde OpenAI over een contract om de nog warme stoel over te nemen; en hoewel het bedrijf beweert de twee rode lijnen van Anthropic te hebben bevestigd en die door de Amerikaanse overheid te hebben laten accepteren, lijkt de daadwerkelijk gesloten overeenkomst nogal soepel.
In een intern bericht aan zijn medewerkers beschuldigt de CEO van Anthropic, Dario Amodei, die van OpenAI, Sam Altman (die overigens zijn voormalige baas is), ervan zich schuldig te hebben gemaakt aan pure schijnvertoning om zijn opportunisme te verbergen. Even later mengt de sinistere Elon Musk zich in de strijd met zijn bedrijf XAI, dat een andere overeenkomst sluit met het Pentagon, waarvan de voorwaarden die keer duidelijk geen enkele beperking meer bevatten.
Is Anthropic dan een 'radicaal-links woke' bedrijf, dat zich inzet voor het verzet tegen het Trumpiaanse fascisme? De kans daarop is klein. Overal waar hem een microfoon wordt aangereikt, bevestigt Dario Amodei zijn gehechtheid aan de 'nationale veiligheid', en maakt hij zich zorgen dat het Amerikaanse leger door deze zaak aan effectiviteit inboet (stel je voor dat het leger dagenlang geen enkele school zou kunnen bombarderen). Zijn bezwaren tegen massasurveillance lijken alleen betrekking te hebben op Amerikaanse burgers; en wat volledig autonome wapens betreft, is zijn enige argument dat AI nog niet betrouwbaar genoeg zou zijn, waarmee hij duidelijk suggereert dat dat morgen wel het geval zou kunnen zijn. In werkelijkheid is het stellen van grenzen aan die riskante toepassingen vooral een manier om zich te beschermen tegen mogelijke schandalen, die de beurskoers van Anthropic zouden kunnen doen kelderen, in een AI-markt die nog steeds zeer speculatief is.
Vanuit het perspectief van de regering-Trump gaat het bij deze operatie vooral om het belonen van loyaliteit en het bestraffen van ontrouw. We kennen de soms stormachtige maar altijd zeer reële relatie tussen Elon Musk en Donald Trump. Wat minder bekend is, is dat Sam Altman, de CEO van OpenAI, ook tot de donateurs van de Republikein behoorde; en Anthropic heeft op zijn beurt de fout gemaakt Kamala Harris te steunen. In het eerder genoemde interne bericht beweerde Dario Amodei dat dat de belangrijkste reden was waarom het Pentagon zich zo onbuigzaam opstelde in de onderhandelingen – waarmee hij suggereerde dat hij zelf bereid zou zijn geweest tot veel concessies.
AI bij de politie, AI bij het leger: de urgentie om op de rem te trappen
Het onderwerp is echter ernstig en verdient het dat onze sociale beweging zich ermee bezighoudt, zonder dat Trump en Amodei de voorwaarden van het debat bepalen. De opkomst van AI opent nieuwe mogelijkheden voor massasurveillance, waarvan extreemrechts nu al een dogma heeft gemaakt. Palantir, de voormalige partner van Anthropic in de samenwerking met het Pentagon, heeft zich de afgelopen maanden ook onderscheiden door de hulp die het heeft geboden aan de Amerikaanse immigratiedienst ICE: het is de software van dat bedrijf die is gebruikt om migranten te identificeren en op te sporen, met de bekende gevolgen. Amnesty International heeft ook aangetoond dat de AI van Palantir werd gebruikt om activisten van de solidariteitsbeweging met Palestina te identificeren.
In de amicus curiae van OpenAI en Google leggen de twee multinationals zelf uit dat hun technologieën het potentieel hebben om de aard van het toezicht dat een staat kan uitoefenen volledig te veranderen: 'In 2018 waren er ongeveer 70 miljoen bewakingscamera’s in gebruik in de Verenigde Staten, verspreid over luchthavens, metrostations, parkeergarages, voor winkels en op straathoeken. Elke smartphone verzendt continu locatiegegevens naar providers en tientallen apps. Creditcards en betaalkaarten genereren een tijdgestempeld overzicht van bijna alle commerciële transacties die Amerikanen doen. […] Wat nog ontbreekt, is de AI-laag die dat uitgestrekte en gefragmenteerde datalandschap omzet in een uniform realtime surveillancesysteem.' Hoe kunnen activisten voor sociale verandering hiermee omgaan?
Verzet tegen de inzet van die instrumenten is uiteraard het begin van het antwoord. In de Europese Unie verbiedt de in maart 2024 aangenomen AI Act staten al om bepaalde van de meest sinistere vormen van AI te gebruiken, zoals realtime gezichtsherkenning of software die beweert te voorspellen hoe groot de kans is dat iemand misdrijven pleegt – twee waarborgen die in de Verenigde Staten niet bestaan. Maar hoewel die bepalingen verworvenheden zijn die verdedigd moeten worden, zijn hun beperkingen duidelijk: er is in werkelijkheid geen enkele manier om ervoor te zorgen dat die technologieën in het geheim van de inlichtingendiensten werkelijk nooit worden gebruikt. De AI Act staat overigens het gebruik van gezichtsherkenning toe voor specifieke gevallen (het opsporen van vermiste kinderen, mensenhandel, terrorisme), wat betekent dat de politie over die instrumenten beschikt – en ze in feite kan gebruiken zoals ze wil, zolang ze dat maar niet al te opvallend doet.
De beste manier om staatsrepressie op basis van gezichtsherkenning te voorkomen, is nog steeds om geen camera’s op straat te hebben. En dat is ongetwijfeld de redenering die we voortaan moeten volgen om dat 'uniforme surveillancesysteem' tegen te gaan, dat zelfs Google en Open AI de stuipen op het lijf jaagt: alle middelen waarmee staten – of bedrijven – gegevens verzamelen, stap voor stap bestrijden, van beperkingen op versleutelde berichtendiensten tot de systematische invoering van kaartbetalingen.
Op weg naar een internationaal verdrag tegen killer robots?
Wat bewapening betreft, is dit geen gunstig moment om innovaties in deze sector met enthousiasme te verwelkomen. In dit stadium lijken volledig autonome, door AI aangestuurde wapens nog alleen te worden gebruikt in zeer specifieke gevallen, meestal defensief en zonder menselijke slachtoffers (bijvoorbeeld het onderscheppen van een raket). Toch laat de Anthropic-zaak zien dat killer robots niet langer tot de sciencefiction behoren.
Het is een lastige opgave om de huidige situatie te karakteriseren, omdat autonome wapens moeilijk te omschrijven zijn. Veel wapens die al worden ingezet, met name de drones die op grote schaal worden gebruikt in de oorlog in Oekraïne, beschikken over een aanzienlijke mate van autonomie. Officieel hanteren de strijdkrachten van de grootmachten, waaronder die van de Verenigde Staten, allemaal de doctrine van 'de mens in de beslissingsketen'. Maar die uitdrukking is voor interpretatie vatbaar: wat is de rol van de mens in kwestie? Een doelwit vaststellen? Het doelwit valideren dat het systeem voorstelt? Toezicht houden op het systeem en de controle overnemen als het fouten maakt? Het systeem activeren en het de strijd laten aangaan zonder specifiek doelwit? En natuurlijk zijn beweringen van die aard in de praktijk niet altijd verifieerbaar. In 2021 stelde een VN-rapport vast dat een Turkse drone in Libië volledig autonoom het vuur had geopend.
Deze ontwikkelingen roepen op verschillende niveaus zorgen op. Het eerste niveau heeft vooral te maken met een fantasie: die van machines met een eigen wil, die aan de controle van hun ontwerpers ontsnappen. Dat apocalyptische beeld, dat rijkelijk wordt gevoed door sciencefiction, maar ook door dubbelzinnige woordkeuzes ('moordrobots' of zelfs de term ‘autonoom’), maakt het mogelijk om het debat af te leiden en de bevolking tegen lage kosten gerust te stellen – zoals de Franse minister van Defensie zei: 'Terminator zal niet op de Champs-Élysées paraderen'. In werkelijkheid heeft geen enkel leger er belang bij een wapensysteem te ontwikkelen dat zijn eigen doelstellingen vaststelt, los van de strategieën en tactieken van de staat: de autonomie waarover sprake is, bestaat altijd uit het volgen van een vooraf geschreven programma, met duidelijk omschreven doelstellingen, terwijl tegelijkertijd een zekere mate van aanpassingsvermogen aan veranderende omstandigheden wordt ingebouwd.
De meest algemeen aanvaarde rode lijn is het vermogen van een wapensysteem om zelf een doelwit te kiezen – dat is waar Anthropic weigert aan bij te dragen, met een technisch argument: de huidige AI's zijn (nog) niet in staat om een dergelijke keuze op betrouwbare wijze te maken. Kortom, het risico om per ongeluk burgers te doden is te groot. Dat is een tweede, zeer legitieme zorg; het is immers om die reden dat antipersoonsmijnen, die als een eerste vorm van autonome wapens kunnen worden beschouwd, in 1997 bij een internationaal verdrag zijn verboden (ondertekend door 161 staten, maar niet door de Verenigde Staten, Rusland en China). Maar dat soort argumenten kunnen ook een valstrik zijn, omdat ze de weg vrijmaken voor de inzet van die technologieën zodra ze krachtig genoeg zijn geworden om evenveel of minder fouten te maken dan menselijke soldaten, wat morgen heel goed mogelijk zou kunnen zijn.
Onze afwijzing van die systemen moet een derde niveau mobiliseren: de automatisering van oorlogsvoering, of het nu gaat om autonome wapens of om de toepassing van AI op inlichtingenwerk, geeft staten simpelweg te veel macht. De verschuiving, aan het einde van de twintigste eeuw, van dienstplichtige legers naar beroepslegers, was al een reusachtige stap in de richting van de concentratie van de macht om te doden: waar de eerste, die nauw verbonden waren met de bevolking, vaak het toneel waren van protesten en muiterijen die soms moeilijk te onderdrukken waren, zijn de tweede veel gedisciplineerder geworden – en veel beter in staat om zonder blikken of blozen wreedheden te begaan.
Verre van het beeld van de robot die zich tegen zijn schepper keert, zijn militaire AI's juist gevaarlijk omdat ze de ultieme gedisciplineerde soldaat zijn. Daar komt nog bij dat de ontwikkeling van die technologieën tot hun volledige potentieel, wat gigantische middelen vereist, waarschijnlijk slechts voor enkele grootmachten toegankelijk zal zijn: zo ontstaat een wereld waarin die steeds makkelijker de beslissing kunnen nemen om volledig asymmetrische conflicten te ontketenen, waarbij landen worden verwoest met zeer weinig menselijke slachtoffers.
De mensheid beschikt al over internationale verdragen die het gebruik van nucleaire, chemische en bacteriologische wapens beperken. Die zijn bij lange na onvoldoende, en het doel moet blijven de totale ontmanteling van de arsenalen op die drie gebieden, maar ze hebben de verdienste dat ze bestaan, en we kunnen redelijkerwijs aannemen dat ze enkele rampen hebben helpen voorkomen.
Enkele jaren geleden is de VN onderhandelingen gestart over een soortgelijk verdrag inzake autonome dodelijke wapensystemen, naar aanleiding van standpunten van talrijke landen (met name uit het Zuiden), een brede coalitie van ngo's, een groot deel van de AI-onderzoeksgemeenschap, de secretaris-generaal van de VN en zelfs de katholieke kerk. Die hebben tot niets geleid. En de lijst van landen die het proces hebben geblokkeerd, zal niemand verbazen: voornamelijk het Verenigd Koninkrijk, Australië, India, de Verenigde Staten, Rusland en Israël.
In een tijd waarin de imperialistische mogendheden hun dominantie met bloed en leed willen herbevestigen, is het afremmen van de wedloop naar de meest nachtmerrieachtige wapentechnologieën een politieke prioriteit. En daarvoor kun je beter niet rekenen op particuliere multinationals.
Léonard Brice is een activist van Gauche Anticapitaliste, onze zusterorganisatie in Franstalig België. Hij werkt als onderzoeker in de theoretische informatica aan een Oostenrijks onderzoeksinstituut, waar hij zich specialiseert in formele methoden voor programmaverificatie.
Dit artikel stond op Gauche Anticapitaliste. Nederlandse vertaling redactie Grenzeloos.
Reactie toevoegen