Hotet om en fientlig AI blir till ett pr-trick

De enda som tjänar på bilden av en farlig superintelligens är tech-bolagen

”När organisationer världen över dras med i tävlingen om att snabbt dra nytta av de stora språkmodellerna är det lätt att glömma bort att företagen som utvecklar dem säljer en produkt”, skriver Adam Wickberg.

Vi befinner oss i en teknikhype där AI snabbt har uppnått global stjärnstatus med nya generativa förmågor. Det är särskilt de stora språkmodellerna som imponerar med människolik syntetisk text. Företaget OpenAI, som ligger bakom ChatGPT, har som uttalat mål att bygga så kallad artificiell generell intelligens (AGI), som innebär att AI kan överträffa människors förmågor inom olika områden. Enligt vd:n Sam Altman kommer deras system därigenom att dramatiskt öka mänsklighetens välstånd och driva på den ekonomiska tillväxten till oanade höjder.

Känslan av acceleration i utvecklingen förstärktes av det omtalade öppna brevet om en AI-paus som publicerades av Future of life institute och signerades av många inflytelserika  AI-aktörer. Å ena sidan storslagna löften om hur AI ska förbättra förutsättningar för mänskligheten, å den andra skräckscenarier där en superintelligens utplånar samma mänsklighet.


Båda sidor bidrar till att skapa föreställningen om en nära förestående AI-revolution och driver på hypen. När organisationer världen över dras med i tävlingen om att snabbt dra nytta av de stora språkmodellerna är det lätt att glömma bort att företagen som utvecklar dem säljer en produkt. De har ett enormt intresse av att systemen framstår som oändligt kraftfulla och att utvecklingen mot just dessa former av generativ AI är oundviklig (inte minst börsvärdet är som bekant beroende av marknadens förväntningar).

Men AI-utvecklingens finansiering och prioritering är en i högsta grad politisk fråga som just nu domineras av de så kallade Big Tech-företagen i Silicon Valley.


En viktig filosofisk inramning till den här strävan efter superintelligens finns inom den i Silicon Valley alltmer inflytelserika filosofiska riktningen longtermism, vars problematiska baksidor uppmärksammades på denna sida av Karin Pettersson. Sverigeaktuelle författaren William MacAskill har med sin bok ”What we owe the futureskrivit ett ramverk för rörelsen.

Boken, som hade en marknadsföringsbudget på cirka 100 miljoner kronor, har fått positiv uppmärksamhet i etablerade medier och bredare policydiskussioner. Magnus Linton och Folke Tersman hoppas till exempel att longtermismen ska kunna flytta fokus mot ansvar för framtiden i en stagnerad klimatdebatt som fastnat hos individen.


Samtidigt hävdar MacAskill i sin bok att klimatförändringarna inte innebär någon existentiell risk ens om vi kommer upp i tio graders global temperaturökning, eftersom det fortfarande kommer att gå att odla på delar av jorden (det är främst globala syd som drabbas konstaterar han). Ett betydligt allvarligare hot är då risken att en superintelligent AI utrotar mänskligheten.

För att inte tala om vad störtfloder av syntetiska medier riskerar att göra med demokrati och hållbarhetsarbete när sant och falskt blir allt svårare att skilja på.

Longtermismen lyckas effektivt flytta fokus från mänskligt lidande och irreversibel skada på biosfären här och nu till abstrakta hot i framtiden, samtidigt som man säger sig tala för framtida generationer, med ett narrativ som stundtals låter förvirrande likt det som finns inom klimatrörelsen.


Hypen kring en kommande superintelligens som ska frälsa eller fördöma oss (om vi inte låter Big Tech styra), blir till avancerad marknadsföring av nya produkter som förleder användare och beslutsfattare att bortse från de problem med AI som finns här och nu; snabbt ökande direkt klimat- och miljöpåverkan från större och större modeller som kommer att skalas upp om systemen implementeras en masse, mänsklig exploatering av billig arbetskraft för att träna och filtrera och massivt utökad exploatering av övervakningskapitalismens favoritråvara data från användare världen över, liksom skevheter kring klass, kön och etnicitet för redan utsatta grupper när beslut automatiseras.

För att inte tala om vad störtfloder av syntetiska medier riskerar att göra med demokrati och hållbarhetsarbete när sant och falskt blir allt svårare att skilja på.


Så vem tjänar på att vi tror att GPT-4 är en människolik AI på väg mot superintelligens? Företag som OpenAI och Google kan med föreställningen om AGI både avskriva sig ansvar genom antropomorfism (det är robotens och inte utvecklarens fel om någon drabbas) och rikta uppmärksamheten mot uppblåsta framtida löften och risker.

Sam Altman har sagt att innan årtiondet är slut kommer vi att ha uppnått obegränsad intelligens och obegränsad energi. Drömmen om det obegränsade står i kontrast mot de planetära gränser som överskrids undan för undan. Enligt en färsk studie riskerar nära 40 procent av jordens befolkning att hamna utanför människans klimatniche (den temperaturvariation som mänsklig civilisation utvecklats inom) innan seklet är slut med nuvarande utsläppstakt, och redan i dag har cirka 9 procent drivits ur den av klimatförändringar.

Här finns både nuvarande och framtida människor att rikta etiska överväganden mot, men AI-hajp och longtermism framställer detta som ett mindre allvarligt problem, eftersom hotet och löftet från superintelligensen är så mycket större, även om strävan att utveckla den kan bidra direkt till den planetära förändringen.


Men det finns inget oundvikligt i just den utveckling som Big Tech driver. Stora språkmodeller och generativ AI har enormt stor potential att accelerera klimat- och hållbarhetsarbetet, men då måste både privata och offentliga investeringar riktas ditåt samtidigt som regleringen fokuserar på de skadliga effekter som finns i dag, snarare än de abstrakta hot från fientlig superintelligens som just nu målas upp av Big Tech och longtermism.


Adam Wickberg är forskare vid KTH Environmental Humanities Lab

Kultur

Prenumerera på Kulturens nyhetsbrev

Aftonbladets kulturchef Karin Petterson guidar till veckans viktigaste kulturhändelser och mest intressanta idédebatt.