I lengre tid har det ulmet en konflikt mellom Trump-administrasjonen, representert ved krigsminister Pete Hegseth, og KI -selskapet Anthropic. Kravet fra myndighetene er at selskapet må fjerne såkalte «guardrails» eller sikkerhetsmekanismer fra sin KI-modell Claude.
Anthropic-sjef Dario Amodei har offentlig avvist kravene, og fikk frist til fredag ettermiddag amerikansk tid. Da fristen gikk ut fredag, beordret Donald Trump at alle deler av myndighetsapparatet sluttet å benytte selskapets tjenester.
KI-selskapet ble karaktisert som som “radical left”, “woke” og “out-of-control” i en post på Truth - den amerikanske presidentens personlige propagandaplattform. Han truer også med å straffeforfølge selskapet.
Frykter misbruk
Konflikten forteller mye om den potensielle makten som ligger i kunstig intelligens, og det enorme presset knyttet til å utnytte potensialet i teknologien - både til sivile og militære formål.
Claude er per i dag den eneste KI-modellen godkjent for bruk i USAs mest sensitive forsvars- og etterretningsoperasjoner. De er allerede en nøkkelteknologi for krigsoperasjoner og nasjonal sikkerhet.
I en uttalelse på Antrophics nettsider redegjør Amodei grundig hvorfor kravene fra Trump-administrasjonen ikke var akseptable. Det er særlig to konkrete bruksområder selskapet ikke ønsker å muliggjøre gjennom sin teknologi (vår oversettelse):
“Masseovervåkning innenlands. Vi støtter bruk av kunstig intelligens til lovlige utenlandske etterretnings- og kontraetterretningsoppdrag. Men å bruke disse systemene til omfattende innenlandsk masseovervåkning er uforenlig med demokratiske verdier. KI-drevet masseovervåkning innebærer alvorlige og nye risikoer for våre grunnleggende friheter. I den grad slik overvåkning i dag er lovlig, er det kun fordi lovverket ennå ikke har tatt igjen de raskt voksende kapasitetene til kunstig intelligens. For eksempel kan myndighetene etter gjeldende lov kjøpe detaljerte opplysninger om amerikaneres bevegelser, nettleserhistorikk og forbindelser fra åpne kilder uten å innhente rettskjennelse – en praksis etterretningsmiljøet selv har erkjent reiser personvernbekymringer, og som har møtt tverrpolitisk motstand i Kongressen. Kraftig KI gjør det mulig å samle disse spredte, hver for seg tilsynelatende harmløse dataene til et helhetlig bilde av en persons liv – automatisk og i enorm skala.
Fullt autonome våpen. Delvis autonome våpen, slik som de som brukes i dag i Ukraina, er avgjørende for forsvaret av demokratiet. Selv fullt autonome våpen (de som helt fjerner mennesker fra beslutningssløyfen og automatiserer valg og angrep på mål) kan vise seg å være kritiske for vår nasjonale sikkerhet. Men dagens mest avanserte KI-systemer er rett og slett ikke pålitelige nok til å drive fullt autonome våpen. Vi vil ikke bevisst levere et produkt som setter amerikanske soldater og sivile i fare. Vi har tilbudt å samarbeide direkte med Forsvarsdepartementet om forskning og utvikling for å forbedre påliteligheten til disse systemene, men dette tilbudet har ikke blitt akseptert. I tillegg kan fullt autonome våpen, uten tilstrekkelig tilsyn, ikke forventes å utøve den kritiske dømmekraften som våre høyt utdannede og profesjonelle soldater viser hver dag. De må tas i bruk med nødvendige sikkerhetsmekanismer, og disse finnes ikke i dag.”
Industrien er bekymret
Vi lever i en tid der teknologisk utvikling går raskere enn lovgivernes evne til å regulere bruken av de nye verktøyene. Paradoksalt nok er det selskapene som nå legger inn bremsekraft i sine egne produkter.
Det er tydelig at den amerikanske KI-industrien nå er bekymret over mangelen kontrollmekanismer, særlig i en tid der demokratiet og sivile rettigheter er under angrep.
Over 500 nåværende og tidligere ansatte fra andre store KI-selskaper som OpenAI og Google har signert et opprop til støtte for Anthropic, der de ber selskapene om stå sammen mot militær bruk av teknologien uten klare etiske rammer.
Oppropet advarer mot en strategi som kan skape splid i industrien og oppfordrer til solidaritet og ansvarlig bruk av KI. Samtidig har kritikere, inkludert pensjonerte militære ledere og analytikere, uttrykt bekymring for at det kan være farlig å slippe KI-systemer løs i militære operasjoner uten strenge begrensninger, særlig når det gjelder autonome våpen og personvern.