En paus behövs för att undvika AI-apokalyps

Replik från Olle Häggström om att lugna ner tempot i utvecklingen av AI

Detta är en debattartikel. Det är skribenten som står för åsikterna som förs fram i texten, inte Aftonbladet.

Publicerad 2023-04-12

Mathias Sundin använder exakt den retorik som riskerar att elda på den farliga kapplöpningen. Fördomsfullt tar han för givet att kinesiska bolag skulle vara mindre villiga än amerikanska att ta ansvar och samarbeta kring att undvika en AI-apokalyps. Replik från Olle Häggström, professor i matematisk statistik.

REPLIK. Mänskligheten befinner sig i ett unikt skede där vi är i färd med att automatisera just den egenskap som ligger bakom vår dominans på planeten: intelligensen.

Skapandet av maskiner som överträffar oss i allmänintelligens kan väntas bli historiens mest avgörande skifte – på gott eller ont beroende på om vi lyckats ge dessa maskiner mål och drivkrafter som prioriterar mänsklig välfärd.

Den tidpunkt då vi skapar sådan AGI (artificiell generell intelligens) framstod länge som ganska avlägsen. OpenAI:s ChatGPT och GPT-4, jämte liknande AI från deras konkurrenter, ställer dock de gamla tidtabellerna på ända.

Den omfattande rapport om GPT-4:s prestanda som Microsoft nyligen släppte talar om ”gnistor av AGI”, och osäkerheten om vart detta leder är stor, men AGI kan mycket väl ligga runt hörnet.

Då behöver vi ha säkerställt att maskinen har rätt drivkrafter, men detta arbete ligger efter och försummas av OpenAI och deras konkurrenter, till följd av den stress som deras tävlan om marknadsdominans ger upphov till.

OpenAI erkänner i dokumentationen om GPT-4 att riskerna är stora, och deras ord om att den kritiska nivå då den på egen hand kan påbörja systematisk resursanskaffning ”troligen” inte uppnåtts men att ”mer forskning behövs” är knappast lugnande.

För att undvika katastrof behövs överenskommelser om att lugna ned tempot. Det öppna brevet från FLI (Future of life institute) häromveckan är ett konstruktivt förslag i den riktningen, och riktar sig givetvis till AI-företag i alla länder.

All diskussion om brevet är välkommen, men jag beklagar att Mathias Sundin slår ned på det med exakt det slags retorik som riskerar att elda på den farliga kapplöpningen, och fördomsfullt tar för givet att kinesiska bolag skulle vara mindre villiga än amerikanska att ta ansvar och samarbeta kring undvikandet av en AI-apokalyps.


Olle Häggström, professor i matematisk statistik på Chalmers och undertecknare av FLI-brevet


Häng med i debatten och kommentera artikeln
– gilla Aftonbladet Debatt på Facebook.