In i våra sinnen

Broderliga överläggningar: Robert och John F Kennedy. FOTO: GETTY IMAGES

Maskiner modellerar världen och vår upplevelse av den. Genom sin språkliga förmåga har de skaffat sig ett fönster in till våra mänskliga medvetanden.

På San Franciscos gator stötte nyligen Waymos allestädes närvarande självkörande bilar på patrull. Genom att försiktigt placera cylindriska trafikrör ovanpå bilarnas motorhuvar upptäckte demonstranter ett sätt att fullständigt förvirra Waymos algoritm, med följd att bilarna blev stående stilla mitt i gatan. Intelligenta maskiner, som vi känner dem idag, fungerar strålande i strukturerade världar, där det finns ett tydligt definierat problem att lösa, till exempel att spela ett schackparti eller lista ut den kortaste vägen med hjälp av satellitnavigationssystem. Och de blir också allt bättre på komplexa styrproblem, av det slag som robotkirurger eller maskiner som snabbt sorterar paket i lager ställs inför. Att lära sig att navigera det oförutsägbara mänskliga sinnets labyrinter är dock svårare.

”Hur skulle man då bära sig åt för att utforma AI-system som bättre var i stånd att efterlikna mänsklighetens uppenbart krokiga virke?”

Detta är ett problem inom alla möjliga slags områden där entusiaster hoppas att AI skall medföra fördelar – som hälsovård eller utbildning. Att förstå hur människan tänker är viktigt här också, inte bara inom krigföring. Idag kan AI-drönare lokalisera måltavlor och släppa bomber som om en omgång av arkadspelet Space Invaders har korsats med den verkliga världen. Detta rör sig dock bara om taktiska styrproblem – etiskt oroväckande helt klart, men i grund och botten beräkningsbara. Utmaningen i krig består i att tänka strategiskt kring mål och sätt och uppnå dem – både när det gäller våra och när det gäller våra egna motståndares. Fram till och med idag har detta varit alldeles för svårt för AI.

Men det är på väg att förändras. AI-skeptiker lyfter ofta fram maskiners begränsade förståelse för mening. Det ligger någonting i det. För att lyckas med brädspel och kartläsning krävs aspekter av intelligens som spelar på datorns styrkor – ofantligt minne och tillräckligt med processorskraft för att söka igenom enorma mängder data. I slutänden briljerar maskiner när det gäller att hitta mönster eller samband – vilket förvisso är ”mening” i någon bemärkelse, men kvalitativt annorlunda den mänskliga versionen. Vi är förkroppsligade tänkare. Det innebär att vi ofta har en form av djupare relation till vårt fysiska väsen, precis som det ofta bär med sig en känslomässig schattering. Det är helt klart långt bort från att plöja igenom alla upptänkliga schackdrag. Kan klyftan överbryggas?

När vi talar om mening, talar vi ofta om social mening. Hur vi skall bära oss åt för att förstå andra är kanske den väsentligaste kognitiva utmaningen för oss människor. Den legendariske kinesiske strategiteoretikern Sun Tzu beskrev fördelarna med detta för krigföring. ”Känn din fiende och känn dig själv”, rådde han, ”och du kan gå obesegrad ur hundra strider.”

Vi är en social art vars framgång beror på vår förmåga att samarbeta och samordna oss med våra allierade, att utbyta information och att lära oss från andras beteende. Det är en förmåga som är rotad i vår mänskliga evolution. Det föreligger en debatt vad som är den huvudsakliga drivkraften bakom vår särskilda förmåga till ”tankeläsning”. Kanske var det behovet av att samordna jakten på stora bytesdjur, kanske var det för att underlätta barnuppfostran – för att intuitivt kunna känna in vad våra med stora hjärnor utrustade men i grund och botten hjälplösa bebisar egentligen vill eller lista ut vem vi kan lita på tillräckligt för att våga anförtro våra barn i deras vård. Kanske var drivkraften att kollektivt kunna sätta sig till motvärn mot våldsamma hannar – både inom våra grupper och i form av hotfulla rivaliserande grupperingar. Alla dessa anledningar har föreslagits av framstående teoretiker och faktum är att samtliga är rimliga förklaringar. Alla mänskliga individer ställs inför samma grundläggande problem – vem kan jag lita på? Ingen människa är, när allt kommer omkring, en ö.

Mänsklig ”tankeläsning” är normalt sett en blandning av instinktiv empati och medveten reflektion. Den präglas oundvikligen av våra emotioner och påverkas av våra underliggande motiv. Detta är ingen torr logisk modell, utan en levande dynamisk process som består i att se andra genom oss själva. Den bidrar till att förklara varför så många av våra distinkta kognitiva heuristiska metoder – de mentala genvägar som vi använder – ofta avviker från det abstrakt rationella. Härav följer vår tendens till grupptänkande eller till att värdera åsikterna som omfattas av andra som liknar oss högre än en mer rigorös och objektiv bedömning av evidensen. Detta framstår som förståeligt om det som spelar störst roll för oss är att frodas i vår gruppidentitet. Vår sanning är viktigare än all objektiv sanning – en observation som i dessa tider av ”fake news” är okontroversiell. Härav följer också vår instinktiva, men ofullkomliga empati. Tankeläsning är ett försök att krypa under huden på andra. Den mänskliga empatin är ofta bräcklig. Den låter sig lätt undermineras genom stress, genom ilska, eller när det gäller empati med främlingar, helt enkelt genom att vi gör vår interna gruppidentitet mer uttalad. Kort sagt så må vår ”tankeläsningsförmåga” vara ofullkomlig, men den är icke desto mindre ofta tillräckligt bra för att tjäna som grund för ändamålsenligt agerande.

Maskiner närmar sig tankeläsning på ett helt annat sätt. Deras intelligens har inte mejslats fram under evolutionens långsamma gång längs med samma intensivt sociala väg som vi har följt. Lika lite som de delar vår förkroppsligade kognition där ­emotionerna hjälper oss att prioritera och betjäna djupa, underliggande motiv. Faktum är att fram till nyligen agerade faktiskt det mesta av AI utan några försök alls till tankeläsning. När Lee Sedol fick storstryk av AlphaGo 2016 slängde Go-mästaren ett plågat ögonkast över spelbrädet på sin mänskliga motståndare – men denne satt bara där för att flytta maskinens spelbrickor. Det fanns inga tankeläsningsinsikter att utläsa från att stirra in hans ögon. Det fanns faktiskt inga tankar att utläsa överhuvudtaget. AlphaGo besegrade Sedol på samma sätt som AI har gjort annorstädes, nämligen genom sin formidabla minneskapacitet och förmåga att söka efter möjliga drag i förväg.

Detta är nu i färd med att förändras. Delar av tänkandet kommer till AI och det ger i sin tur AI möjlighet att få inblick i vårt tänkande. Och precis som de som läst Sun Tzu kan förvänta sig får detta viktiga strategiska följdverkningar.

Ett uppenbart sätt att modellera hur andra tänker är att tänka som de. Redan från början har AI-forskare strävat efter att skapa intelligens som liknar mänsklig intelligens. Deras första försök byggde på formell logik – ”om detta, gör då så här”. Lämpligt nog föll tillvägagångssättet i god jord hos kognitiva psykologer som blev synnerligen förtjusta över att det mänskliga sinnet liknades vid en dator. Följaktligen kunde såväl artificiella som mänskliga ”sinnen” modelleras som symboliska processor. Man kunde rentav infoga en osäkerhetsfaktor i modellerna, för att approximera den verkliga världens röriga komplexitet, så att den formella logiken blev ”oskarp” och därigenom kanske också mer autentisk.

Men människor är mer än naiva logiker. Hur skulle man annars kunna förklara fenomen som vår systematiska övertro på våra egna förmågor eller vår tendens till att fästa större trovärdighet vid information som bekräftar våra befintliga föreställningar och övertygelser snarare än utmanar dem? I takt med att psykologer avtäckte allt fler kognitiva heuristiker blev det tydligt att vi besatt en distinkt from av rationalism, väsensskild från de tidiga AI-systemens abstrakta symbolism.

Hur skulle man då bära sig åt för att utforma AI-system som bättre var i stånd att efterlikna mänsklighetens uppenbart krokiga virke? Att för hand framställa mänsklig kunskap för maskiner var nästa försök. Det misslyckades. ”Expertsystem” var fokus för 1980-talets AI-hajp och dessa kunde, under gynnsamma förhållanden, använda sig av kunskap inom en särskild domän. Men sy­stemen var bräckliga och bringades lätt ur fattningen när de ställdes inför nya saker. Uppenbarligen kräver universell kognition mycket mer än arbetskrävande inkodning av specialistkunskaper.

Ett mer realistiskt alternativ skulle vara att inympa AI med mer allmänna mänskliga heuristiker – och idealiskt sett många olika av dem. Men dessa heuristiker utvecklades inom ramen för en särskild kontext. Att för hand skapa dem en i taget är formidabel utmaning. Dessutom består det mänskliga sinnets triumf i dess förmåga att sömlöst integrera dess mångfald av tankesätt. Det är svårt att ta ut en heuristik från helheten; de uppstår alla på något sätt från samma vidsträckta, integrerade nätverk av förkroppsligade neuroner och deras biljoner kopplingar. Sålunda: två väldigt olika sorters intelligens med kraftigt kontrasterande attribut. Och så förblev det fram till alldeles nyligen.

Att koda mänskliga heuristiker framstår som ett hopplöst företag, men kanske finns det en genväg i form av språket. Vi kan betrakta språket i sig självt som en särskild sorts heuristik – en som modellerar världen genom att kategorisera, abstrahera, konceptualisera och upprätta meningsfulla kopplingar.

Och inte bara det. Om det mänskliga språket, som antropologen Robin Dunbar bedyrar, uppstod för att vi skulle kunna skvallra strategiskt om andras tänkande, är bemästrandet av språket, åtminstone i viss utsträckning, synonymt med förvärvandet av själva tänkandet. Språket gör det möjligt för mig att presentera mig själv som en unik, autobiografisk helhet och att förstå andra i liknande termer – trots att vi båda är komplexa nätverk av samspelande kognitioner, varav många är omedvetna. Det ”oupphörliga tjattret i min skalle”, som zenmästaren Alan Watts formulerar saken, är bara en del av det som gör mig till mig själv, även om det förvisso är en stor del.

Ett exempel: skript – eller inneboende kognitiva narrativ, i synnerhet analogier – är ett mycket studerat område inom internationell politik. Ledare lutar sig ofta, ibland omedvetet, mot lärdomar från det förflutna när de fattar beslut. Under överläggningar i samband med Kubakrisen avrådde Robert Kennedy sin bror från att genomföra ett amerikanskt överraskningsanfall mot de sovjetiska missilinstallationerna, med motiveringen att det skulle utgöra ett oetiskt Pearl Harbor. Flygvapenchefen Curtis LeMay där­emot uppmanade president Kennedy att anfalla, med motiveringen att allting annat skulle utgöra eftergiftspolitik i stil med Münchenöverenskommelsen.

I själva verket gör politiska ledare precis det som vi alla gör – skalar bort verklighetens högljudda tjatter i jakt på förståelse och vägledning. De använder sig av språkmodeller av världen och de olika sinnena som återfinns i den.

Skulle dagens storskaliga språkmodeller – som ChatGPT – kunna göra någonting liknande?

Ja. Det är tidigt och evidensen är begränsad men det finns redan några lockande antydningar. Dagens språkmodeller må ibland hallucinera fram galna nonsenssvar och kämpa med vardagliga resonemang, men med omsorgsfullt ”knuffande” för att analysera uppgifter och förklara deras bakomliggande logik presterar de bättre. Än mer fascinerande är att de genom att använda det mänskliga språket verkar ha snappat upp delar av vår psykologi. Innebär då detta att om vi preparerar en språkmodell med emotionella termer så kan vi påverka dess efterföljande beslutsfattande, precis som fallet med en människa? Ja, tydligen, i alla fall enligt en studie som fann att ängslig preparering gör maskiner mer tendentiösa i sina efterföljande omdömen – i det här fallet mer rasistiska och åldersdiskriminerande. En annan studie fann att GPT-4 briljerade när det gällde analogiska resonerande uppgifter, och överträffade människors prestationer. ”Low shot-inlärning” från några få historiska exempel är nu möjligt för både politiska ledare och maskiner.

Populärt

Det löser sig inte

New Public Management lär oss att misstro allt och alla. Men varför ska vid då sätta vår lit till dess modell?

Hur förhåller det sig då med själva tankeläsningen? I en slående studie klarar GPT-4 de medvetandeteoritester som utvecklingspsykologer låter ungdomar genomgå. Det innebär att den är medveten om att andra kan hysa felaktiga övertygelser – en avgörande hörnsten för strategi. Och i en annan dramatisk illustration, överglänste språkmodeller människor när det gällde att förutsäga hur karaktärer skulle reagera känslomässigt i olika fiktiva scenarier. Det AI-psykologiska fältet befinner sig ännu i sin linda – men det här är slående resultat och fler dyker upp varje vecka.

Och i Metas Cicero har vi nu en praktisk demonstration av vad som är på väg. Denna hybrid-AI har bevisat sin skicklighet i multispelarkrigsspelet Diplomacy. Det särskilda med det här spelet är att spelarna kommunicerar naturligt om sina avsikter – vilket skapar utrymme för vilseledning. Cicero vinner genom att kombinera en taktisk motor av brädspelstyp, av det slag som används så framgångsrikt när det gäller schack och Go, med en språkmodell. Onlinespelarna var uppenbarligen omedvetna om att deras motståndare var en maskin.

Alldeles uppenbart är någonting intressant i görningen. Den kusliga känslan av att det finns ett ”medvetande” bakom språkmodellerna är mer än bara det förmänskligande som vi alla är benägna till. Maskiner känner inte, lika lite som de utvecklas genom det naturliga urvalet, men de har insupit de modeller av vår värld som ligger inneboende i vårt språk. Föga förvånande svävar inte språket fritt, frikopplat från resten av vår kognition. Det modellerar världen och vår upplevelse av den. Det fångar, om än ofullkomligt, något av vår emotionellt genomsyrade koppling till verkligheten. I kraft av sin lingvistiska förmåga har maskinerna skaffat sig ett fönster in till våra mänskliga medvetanden.

Och även om de saknar vår rika, multimodala kognition, har maskinerna andra fördelar. Till exempel kan de behärska fler språk än vi och utan ansträngning växla mellan dem, dessutom kan de skapa sina egna språk. Samtidigt har de genom användandet av kodspråk ett kraftfullt verktyg för att skänka rigorös struktur åt det egna tänkandet. Och de har en enorm potential. Biologin begränsar den mänskliga kognitionen på sätt som inte gäller för maskiner. Om medvetandet och jaget, som verkar vara fallet, är framväxande egenskaper hos nätverk, vad händer då när språkmodellerna fortsätter att skalas upp?

De strategiska implikationerna är djupgående. Det strategiska brädspelet Diplomacy är en blek kopia av verklighetens diplomatiska spel. Jag hoppas att ingen på allvar överväger att förslå att vi överlåter det geopolitiska beslutsfattandet till maskiner. Samtidigt framstår ”AI-domedagsprofeternas” dystra förutsägelser om att vi står inför ett existentiellt hot från superintelligent AI som surrealistiska. Det är svårt att föreställa sig varför ett dött/själlöst föremål skulle vilja skaffa sig världsherravälde.

Icke desto mindre kommer beslutsfattande i krig för första gången i mänsklighetens historia att inbegripa icke-mänsklig intelligens. En intelligens som dessutom numera av allt att döma besitter insikter i andra medvetanden. Vi har skapat ett strategiskt sinne som ”känner sig själv och känner fienden” på sätt som framstår som både kusligt välbekanta och märkligt främmande.

Kenneth Payne

Professor i strategi vid Kings College i London.

Läs vidare