Utan omdöme
Artificiell intelligens ger oss möjlighet att ta fram ny kunskap. Men för det krävs människor med erfarenheter och värderingar, skriver Peter Gärdenfors.
Aristoteles skiljer mellan tre kunskapstyper: episteme, techne och fronesis. Episteme är det teoretiska vetandet om hur människan och hennes omvärld fungerar. Denna form av kunskap är den som oftast förmedlas i skolor och universitet. Techne innefattar färdigheter och förmågor och handlar om hur saker och ting görs. Att kunna ett hantverk är ett bra exempel. Teknologi är en sentida form av sådan kunskap. Fronesis är den omdömesgilla kunskapen som gör det möjligt att i konkreta situationer kunna fatta välgrundade beslut. Denna kunskapsform kan översättas till praktisk klokhet eller gott omdöme.
Artificiell intelligens (AI) ger oss verktyg för att ta fram ny kunskap. Frågan är vilken typ av kunskap som AI ger oss. För att svara måste man först ta reda på vad AI kan. Ett av de första områden där AI-program utvecklades var för olika spel som kräver mänsklig intelligens. Schackprogrammet Deep Blue slog den dåvarande världsmästaren Garri Kasparov 1997 och sedan dess har programmen utvecklats till en nivå högt över den mänskliga förmågan. År 2016 slog programmet Alphago koreanen Lee Sedol, en av de då bästa go-spelarna, och 2019 slog programmet Pluribus en grupp av professionella pokerspelare. Programmen är emellertid hårt specialiserade och kan inte modifieras för att lösa andra uppgifter.
Spelprogrammen handlar mer om problemlösning än att skapa ny kunskap. AI-program som ger ny kunskap faller inom episteme. På senare tid har fokus legat på den programmeringsmetod som kallas deep learning där ett artificiellt neuralt nätverk med många lager (därav ”deep”) tränas med stora datamängder för att känna igen olika typer av mönster, till exempel ansikten. Det visar sig att en sådan träning kan leda till att programmet kategoriserar eller identifierar bättre än människan. Liknande metoder används inom tal-igenkänning som används bland annat av Siri och Alexa. När det gäller automatisk översättning är AI-programmen huvudsakligen baserade på statistiska metoder. Men nyare program, exempelvis det omskrivna GPT-3 som automatiskt genererar texter, bygger också på deep learning. GPT-3 är för närvarande den mest avancerade chatbotten. Programmet är enormt omfattande (det innehåller hundratals miljarder variabler) och dammsuger Internet efter textexempel för att tränas på hur texter är uppbyggda.
”Det hjälper inte med en aldrig så omfattande regelbok för att förstå hur man anpassar värderingar till specifika situationer.”
GPT-3 kan användas för att generera journalistiska texter, men det finns också en tillämpning kallad AI/Writer, där man kan korrespondera med historiska personer via e-post. Den genererar goda texter så länge de är tillräckligt korta, men efter några meningar tappar den tråden och ger upphov till mer och mer nonsens.
Deep learning har med framgång använts inom medicinen för att tolka röntgenbilder. Programmet Alphafold har visat att det utifrån den sekvens av aminosyror som ingår i ett protein i nästan 90 procent av fallen kan beskriva proteinets tredimensionella struktur. Sådana uppgifter har tidigare varit mycket svåra för forskare att lösa och AI-programmet öppnar stora möjligheter för medicinsk forskning och för läkemedelsindustrin.
Framgångarna med olika typer av AI-program gör att man lätt glömmer bort vad de inte kan. Programmens funktion är i hög grad beroende av de datamängder de tränats på. Om något exceptionellt fall dyker upp har de inga möjligheter att anpassa sig. Ett exempel är att i mars 2020 brakade Amazons AI-system för lagerhållning samman eftersom det plötsligt kom in enorma mängder beställningar av toalettpapper och ansiktsmasker. Programmen kan inte finna lösningar på nya typer av problem. Här är vi människor klart överlägsna.
Träningsdata kan också ge upphov till snedvridningar av resultaten. I USA har man använt AI-program vid domstolar för att döma i vissa typer av rutinmål, som exempelvis trafikförseelser. Programmet har tränats på en stor mängd tidigare fall och lärt sig vilka faktorer som är relevanta och vilka straff som skall delas ut. Det visade sig emellertid att programmet dömer svarta personer hårdare än vita eftersom de tidigare fallen också hade en sådan snedvridning. Det är därför mycket viktigt att man använder lämplig träningsdata för att få rättvisa bedömningar i program som skall avgöra om vem som exempelvis skall få vårdbidrag, socialt understöd eller banklån.
De flesta AI-programmen produceras av stora företag som Google, Apple och Amazon och används mest för att ge vinster. En fördel för företagen är att de sitter på enorma mängder data om människors åsikter, önskningar och vanor som utnyttjas för att träna upp programmen. Kritiker hävdar att detta ger upphov till en ny form av kolonialism där företagen är kolonisatörer som utnyttjar sina användare. Användarnas data blir produkten som säljs till annonsörerna.
Om regeringar fick tillgång till företagens datamängder, som är ekonomiskt mycket värdefulla, skulle de kunna användas för olika typer av samhällsplanering på samma sätt som teleoperatörernas data om människors förflyttningar använts under coronakrisen för att bedöma hur väl vi följer rekommendationerna från folkhälsomyndigheten. Å andra sidan kan ett totalitärt styre använda sådan data för att kontrollera en befolkning. Den kinesiska regeringen har exempelvis nyligen infört en gräns på tre timmars datorspelande i veckan.
Robotar och AI blandas ofta samman, men det är två olika områden. Ordet ”robot” som infördes av författaren Karel ˇCapek, kommer från kyrkoslaviska och betyder ’arbeta’. En robot är alltså något som utför konkreta handlingar. Vi har blivit lurade av science fiction-filmer att tro att det finns intelligenta och handlingskraftiga robotar. Men de robotar som finns i verkligheten – industrirobotar, robotdammsugare och robotgräsklippare – har ingen techne. De kan inte gå utanför de snäva handlingsramar de har blivit programmerade för och de kan inte heller förklara varför de beter sig som de gör. De är urbota dumma och, i de flesta fall, klumpiga. Inom industrin är de nyttiga idioter som låter människor slippa enformiga och tunga uppgifter. Det krävs stora tekniska och kognitiva kunskaper för att skapa robotar som självständigt kan lösa nya problem och utvecklingen går långsamt framåt. Det är långt till att vi får en skicklig robotsnickare.
För att återgå till Aristoteles kunskapstyper, kan AI i viss mån skapa episteme, men programmen har ingen techne. Hur är det då med fronesis, det vill säga omdöme?
Det går att bygga in regelsystem i AI och sådana system har blivit favoritverktyg inom New Public Management. Det svåra är emellertid att i ett enskilt fall kunna bedöma om en regel är tillämplig eller ej. Sjuksköterskor, läkare, vårdpersonal, socialsekreterare, jurister, lärare och en mängd andra yrkesverksamma vet att regelboken aldrig räcker till. Det finns alltid gränsfall och speciella kombinationer av förutsättningar som måste bedömas på nya sätt. Det är då omdömet behövs.
Populärt
Det löser sig inte
New Public Management lär oss att misstro allt och alla. Men varför ska vid då sätta vår lit till dess modell?
För att förstå varför AI inte har något omdöme måste man först förstå vad omdöme innebär. Fronesis innebär att på ett klokt sätt lösa problem i enskilda situationer genom att väga samman olika värderingar med den kunskapen som är given om situationen. Fronesis innebär ingen konflikt mellan känslor och förnuft utan ett samspel mellan dem. Det finns emellertid inga känslor eller moral i AI-systemen och de kan därmed inte ges ansvar. Det hjälper inte med en aldrig så omfattande regelbok för att förstå hur man anpassar värderingar till specifika situationer. Yrkesmänniskor med omdöme kan göra detta – fast vi vet inte hur det går till. Märkligt nog är omdöme ett begrepp som studeras förvånansvärt lite i humanistisk och samhällsvetenskaplig forskning. Eyvind Johnson har träffande sagt att omdöme är klarnad erfarenhet.
Omdöme kommer också att vara nödvändigt för framtida robotar som skall interagera med människor. Självkörande bilar behöver inte bara omdöme för att avgöra om en cyklist kommer att svänga till vänster eller när en fotgängare skall korsa gatan utan framförallt i situationer där en olycka är på väg att inträffa. Skall bilens passagerare eller utomstående skyddas i första hand?
Sammanfattningsvis har AI-systemen i viss mån episteme, men varken techne eller fronesis. Tills vidare kan systemen därför inte fungera självständigt som beslutsfattare utan en människa med erfarenhet bör finnas med i bilden som omdömets bevakare för de udda fall som programmen inte är tränade på och för att undvika snedvridna beslut.
För att skapa AI-system med bredare kompetens räcker det alltså inte med skickliga programmerare och tekniker utan det krävs också kunskaper om människor, om samhällen och om värderingar.
Professor i kognitionsvetenskap vid Lunds universitet.