Expert: ”Om AI styrt kärnvapen hade vi redan varit döda”

Publicerad 2023-05-12

Amerikanska forskare har föreslagit att AI-teknik självständigt ska få avfyra kärnvapen.

Hade det gällt under kalla kriget skulle mänskligheten förmodligen redan ha utrotats, enligt Zachary Kallenborn.

1983 larmade Sovjetunionens varningssystem att amerikanska kärnvapen ”med högsta säkerhet” var på väg. Men den ansvarige officeren, Stanislav Petrov, sade nej till en motattack.

Amerikanska vapenforskaren Zachary Kallenborn.

Enligt den amerikanska vapenforskaren Zachary Kallenborn hade ett självständigt system, styrt av artificiell intelligens, agerat tvärtom:

”De falska signalerna berodde på att varningssystemet tolkade solstrålarnas reflektioner i moln som kärnvapenmissiler. Om Petrov hade varit en maskin, programmerad att svara automatiskt när trovärdigheten var tillräckligt hög, så hade felet startat ett kärnvapenkrig”, skriver Kallenborn i Bulletin of the Atomic Scientists.

Mellan 1962 och 2002 inträffade minst 13 kärnvapenincidenter som kunde ha gått överstyr, konstaterar The New York Times.

”Missilen så snabb att automatiskt svar behövs”

Att man överhuvudtaget diskuterar möjligheten att låta AI-teknik styra kärnvapen beror framför allt på att svarstiderna blivit allt kortare.

Under andra världskriget dröjde det timmar innan planen med atombomberna kom fram till sina mål. 1958 hade Sovjet tagit fram interkontinentala missiler som kunde nå USA på en halvtimme. Sedan 1970-talet kan kärnvapenbestyckade ubåtar dyka upp utanför kusten och avfyra kärnvapen som når mål på en kvart, konstaterar tidskriften The Atlantic. Sedan dess har det gått 50 år.

– Hur försvarar man sig mot attacker som är snabbare än mänskligt beslutsfattande? Det är ett olöst problem. Med andra ord, missilen kommer så snabbt att det måste komma ett automatiskt svar, säger Eric Schmidt, tidigare ordförande i USA:s Defense Innovation Board, till tidningen The New York Times.

Pentagon.

Det amerikanska försvarsdepartementet Pentagon utforskar sedan fem år tillbaka möjligheterna att använda artificiell intelligens i stridssituationer. Bara under 2021 drev Pentagon 685 militära AI-projekt, enligt The Atlantic.

”Ett undantag – inga AI-system i kärnvapen!”

2019 föreslog Curtis McGiffin, forskare vid Air Force Institute of Technology, och Adam Lowther, forskningsdirektör vid Louisiana Tech Research Institute, att USA:s armé borde utveckla AI-teknik som automatiskt och blixtsnabbt kan svara på fiendens kärnvapenattacker.

Den amerikanske generallöjtnanten Jack Shanahan svarade då att han inte har något emot artificiell intelligens i vapensystem, med ett undantag: när det gäller kärnvapen.

”Men Shanahan pensionerades 2020, och det finns ingen anledning att tro att ett sådant förslag inte kan bli aktuellt igen”, skriver Zachary Kallenborn.

I veckan krävde ledamöter från båda partierna i amerikanska kongressen en lag som förbjuder AI-system att avfyra kärnvapen, uppger senator Ed Markey.

”AI kan ge oss en större och bättre framtid”

”Börjar ett land följer de andra efter”

Samtidigt är det oklart vilken forskning som Kina och Ryssland genomför på detta område, och vad ett mer aggressivt agerande från deras sida kan leda till:

”Vilket land som helst som börjar använda artificiell intelligens när det gäller kärnvapenbeslut kommer att motivera andra att följa efter”, skriver The Atlantic.

Ett scenario skulle då enligt tidskriften kunna bli att ett amerikanskt AI-system feltolkar akustisk övervakning i Sydkinesiska sjön som kinesiska förberedelser till en kärnvapenattack. När det amerikanska systemet förbereder en motattack, kan Kinas AI-system snappa upp rörelserna och slå till.