Mellan förmåga och förståelse
Peter Gärdenfors tänkvärda essä (Axess nr 5/22) om omdömets betydelse sätter fingret på en punkt som sannolikt kommer att bli allt ömmare över tid: vår förväntan att system som tycks ha stor förmåga att göra olika saker också har en grundläggande förståelse för vad det är de egentligen gör.
Det är inte så märkligt att vi tror så – ofta när vi träffar experter går förmåga och förståelse hand i hand. En skicklig tennisspelare kan ofta lära ut tennis väl, en duktig bilförare har sannolikt reflekterat över hur man kör bil bättre.
Det ligger i hur vi lär oss, i det reflekterande lärandet som kännetecknar oss som människor – det som forskaren Anders Ericsson kallar övervägt lärande: vi lär oss genom att fokusera på svagheter och särskilda moment, med intentionen att ständigt förbättra vår egen förmåga. Datorer lär sig väldigt annorlunda – och om man skall förenkla så lär sig datorer kanske mer genom korvstoppning, eller en sorts datastoppning, där massiva datamängder används för att extrahera olika sorters mönster.
”Vi projicerar oss oförtröttligt in i tekniken.”
Detta antyder en intressant möjlighet: Kanske är det så att det sätt på vilket vi lär oss något spelar roll? Ett sätt att se om det är så är att fundera över vad som händer när vi begår ett misstag. En pianist som gör ett felslag kan snart återvända till melodin och rytmen, en schackspelare som ställer bort sig kommer att försöka spela så att hon snart kommer tillbaka in i spelet. En AI som begår ett misstag hittar dock inte tillbaka lika lätt. Vetenskapsmannen och författaren Marcus du Satoy beskriver i sin bok om datorer och kreativitet vad som hände när det datorprogram, Alphago, som vann över en av världens bästa mänskliga spelare, Lee Sedol, i brädspelet go begick ett misstag i ett av partierna – och visar där hur programmet när det väl ställt bort sig helt plötsligt började spela på ett obegripligt och destruktivt sätt.
Vi kan så formulera en sorts hypotes: mänskligt lärande ger en förmåga och förståelse som skapar mjuka misstag. Maskinlärande ger en förmåga frikopplad från förståelse som hårda misstag. Mänskligt lärande har utvecklats för att vara böjligt och formbart, maskinlärande är ofta skört. Misstaget utgör en sorts unikt mått på lärandets kvalitet och robusthet.
Det rimmar ganska väl med Gärdenfors analys: omdömet spelar en stor roll i hur vi hanterar misstag och felsteg, vi förstår ofta direkt vad som hände och kan så försöka korrigera det – men utan omdömet blir misstaget mer förödande och lärandet skörare.
Distinktionen mellan förmåga och förståelse kommer från filosofen Daniel C Dennett, som noterat att vi i denna distinktion förmodligen har en betydande risk: om vi antar att all den förmåga som datorerna uppvisar också kan antas bygga på förståelse så finns en risk att vi kommer att delegera alltför mycket alltför tidigt till dessa nya system. Det i sin tur gör oss sårbara, eftersom det sköra lärandet går sönder på ett så oförutsägbart sätt.
Nyckeln ligger kanske i att skifta våra ramar för hur vi tänker kring artificiell intelligens. Alltför ofta tycks vi fastna i föreställningen att datorerna måste ersätta oss, och vi talar om när vi kommer att se en artificiell intelligens som är jämförbar med en människas. Med början i det välkända Turingtestet, där en människa skall försöka skilja ett datorprogram från en människa genom att ställa ett antal frågor, till dagens science fiction- filmer där artificiell intelligens inleder ett utrotningskrig mot människan så tycks vi bara förmögna att förstå denna teknik ur ett oerhört antropocentriskt perspektiv.
Vi projicerar oss oförtröttligt in i tekniken, med en sorts märklig skräckblandad förtjusning.
Det finns andra möjliga perspektiv. Ett sådant är att säga att vad vi sysslar med är inte att bygga artificiell intelligens så mycket som en alternativ intelligens, en annan sorts intelligens, baserad på en annan sorts lärande. Om vi formulerade vårt projekt på det sättet skulle vi kanske se riskerna tydligare, och inte leta efter likheter mellan oss själva och de algoritmer som vi utforskar. Vad vi gör är i många avseenden mer som att bygga en sorts djurintelligens, ett helt nytt djur som vi aldrig sett förut och som har vissa särskilda egenskaper. Precis som en hund eller katt har sin egen typ av intelligens, och en myrstack sin egen typ av intelligens, så har dessa nya artificiella system sina egna typer av intelligens, som bygger på nya och annorlunda sätt att lära sig.
Populärt
Det löser sig inte
New Public Management lär oss att misstro allt och alla. Men varför ska vid då sätta vår lit till dess modell?
Dessa system har en enorm förmåga – precis som en hund kan urskilja lukter vi aldrig kan ana och en fladdermus kan se med ekolod – men de har inte vår förmåga. De kanske aldrig kommer att få omdöme eller förståelse – inte för att det inte är möjligt, utan för att det är alltför kostsamt eller onödigt. Det verkligt vackra och intressanta i den här tekniken är inte att den speglar oss, utan att den skapat en helt ny typ av lärande och intelligens som inte fanns förut – vi har liksom ympat in en gren av kisel i det darwinistiska trädet, och nu observerar vi den spänt för att se om den kommer att växa och ta fart.
Gärdenfors noterar att ”tills vidare” bör en människa finnas med i processen, men kanske är svaret att det alltid kommer att finnas en nytta och ett värde i den förmåga som åtföljs av djupare förståelse och som stammar ur det mänskliga lärandets särart?
Vår mänsklighet ligger inte i vad vi kan göra, utan i hur vi lärt oss att göra det – i vår förståelse, och inte i vår förmåga.
Fil dr i informatik.