Rättsskipning för robotar

Det som hände var förstås inte resultatet av robotens medvetna val. Dagen efter dådet fortsatte roboten (givetvis utan dåligt samvete) med sina ordinarie sysslor. Robotens ägare, tillika Roberts arbetsgivare, Ford Motor Company, fick bära det straff- och skadeståndsrättsliga ansvaret. Helt naturligt, kan tyckas. Men, hur skall motsvarande händelse bedömas när (inte om) robotar blir mer avancerade, når en högre grad av autonomitet och blir okontrollerbara?

Utvecklingen av artificiell intelligens (AI) sker i ursinnig fart. Läderlappens självkörande Batmobil framstod 1989 som en synnerligen futuristisk skapelse; idag vet vi att Google sedan länge testar förarlösa prototypbilar i den kaliforniska trafiken. Robo-traders är en realitet inom aktiehandel. Kirurgiroboten Da Vinci har orsakat dödsfall och blivit stämd. Den japanska artificiella popstjärnan HRP-4C har massor av fans.

Alla dessa robotar har nått en imponerande grad av självständighet. När de utövar sina hantverk följer de givna föreskrifter och tillämpar en normhierarki. De lär de sig av sina egna misstag och anpassar sig till omgivningen. De ”förstår” sitt sammanhang och strävar mot ett högre syfte snarare än att mekaniskt utföra enskilda arbetsmoment. Vad som ännu saknas för att AI, i sin fulländade form, skall föreligga är kanske framförallt att robotarna också blir medvetna om sin existens och förses med samveten.

Samvetet är på många sätt grunden för mänsklig intelligens, i varje fall i den mening som Søren Kierkegaard tillskrev det. Samvetet är, till skillnad från etiken, inte något givet utan något som måste tränas. Samvetet kan skilja gott från ont. Det låter osannolikt, men likväl finns det många kvalificerade personer som menar att fulländad AI inte ligger mer än mellan 5 och 50 år bort. Skillnaden mellan science och science fiction är, som så ofta, egentligen bara fråga om tid.

Inför ett sådant scenario är det förstås viktigt att fundera på hur våra lagar skall reglera ansvaret för robotars handlingar, vilket torde avgöra vilken grad av autonomitet som tillverkare, säljare och användare vågar ge sina självstyrande maskiner. Sådana funderingar föreligger nu i boken The Laws of Robots av Ugo Pagallo, Springer, 2013.

Idéer om detta är inte något nytt. Upphovsmannen till termen ”robot” lär vara Karel ˆCapek, som i boken Rosumovi Univerzální Roboti (Rossums universella robot) från 1920 skildrar hur fabriksbyggda robotar gör uppror och utplånar mänskligheten. Notera att det är precis detta som Stephen Hawking nu varnar för i en intervju med BBC i december 2014.

Den främste av de tidiga robotteoretikerna var Isaac Asimov, som i novellen Runaround från 1942 föreskrev en uppförandekod för roboten Speedy. De tre reglerna var: (1) En robot får inte skada en människa. (2) En robot måste lyda en människa utom i de fall en sådan order skulle stå i konflikt med (1). (3) En robot måste skydda sin egen existens så länge som ett sådant skydd inte står i konflikt med (1) och (2).

Vilket är föredömligt praktiskt och kortfattat, och som ändå räcker förvånansvärt långt. Det anser även Pagallo, som utvecklar resonemanget och menar att ansvaret för robotars handlingar bör analyseras i tre delar: straffansvar, skadeståndsansvar och förmågan att med bindande verkan träffa civilrättsliga överenskommelser.

Den första frågan som då måste ställas är vem som skall bära det straffrättsliga ansvaret för den framtida AI-robotens handlande – roboten själv eller någon annan?

Det är närmast självklart att så länge roboten är ett instrument som agerar på mänskliga instruktioner, bör ansvaret för robotens handlingar falla på den som instruerar, på samma sätt som för den som avfyrar en revolver i syfte att begå brottslig handling.

Problem uppstår dock när en robot tillåts göra egna val och kanske inleder en kriminell karriär. När rättsskipningen möter en sådan robot för första gången, känns det säkert verklighetsfrämmande att lägga ansvaret för robotens handlingar på någon annan än robotens tillverkare, säljare eller användare (gemensamt kallade producenten). Problemet är dock att producentens avsikter förmodligen inte alls har varit i närheten av det brottsliga uppsåt som roboten har demonstrerat. Ett brott kräver att den ansvarige kan beläggas med ett uppsåt (mens rea) att begå brottet. Skulle man ignorera skulden och bestraffa ouppsåtliga handlingar, skulle man dels bortse från straffets handlingsdirigerande effekt, dels skulle det uppfattas som omoraliskt. ”Guilt by association” är inte värdigt en rättsstat.

Inför mötet med ond AI måste man nog överväga att utsträcka strafflagstiftningen så att robotar får sona sina egna brott. Detta kräver förändring av en juridisk grundpelare. En förutsättning för att idag kunna dömas för ett brott är att man är en människa, även om detta inte är något som framgår av vår brottsbalk eller någon annan lagstiftning heller för den delen. Man talar underförstått om ”den som…”, vilket anses syfta på fysiska personer, det vill säga: människor.

Men kan en AI-robot anses vara en människa? Visst kan man tänka sig att AI-roboten kan komma att utrustas med mänsklig vävnad och att gränsen mellan människa, cyborg och maskin blir flytande. Vi har ingen erfarenhet av delvis mänskliga hybrider i modern tid. I detta juridiska vakuum är det lätt att bli villrådig. För jurister finns det bara skarpa gränser. Men det förefaller som att utvecklingen av AI gör att denna svåra gränsdragning måste utföras. Vi måste enas om vem som skall ansvara för sina egna handlingar. Eller är det så enkelt att domstolarna en dag inkluderar våra artificiella bröder och systrar i begreppet ”den”?

Den andra frågan som skall ställas är vem som bär det utomkontraktuella skadeståndsansvaret för en robots handlande. Den skadeståndsrättsliga grundprincipen är att man svarar för eget vållande. Man kan dock anta att många av framtidens robotar inte har medel som förslår att täcka de skadeståndsanspråk som blir aktuella.

Här kan man tänka sig olika lösningar. I gällande rätt finns många exempel på när ”någon annan” bär skadeståndsansvaret för en viss parts handlande. När det gäller robotansvar kan man ju tänka sig finna lösning i analogi med någon av dessa regleringar.

Arbetsgivare har ett så kallat principalansvar för sina arbetstagares vårdslösa handlande. Det är i flera rättssystem en länge etablerad trend att arbetsgivaren ansvarar för sina arbetstagare, även om vållande inte kan styrkas hos arbetsgivaren själv. Skälen för detta är flera; från att det är arbetsgivaren som har ”the deep pocket” till att det är arbetsgivaren som bedriver verksamheten med vilken skaderisken är förenad. Från principalansvaret brukar dock undantag göras. En första förutsättning är att arbetstagaren faktiskt är en person som står i ett subordinationsförhållande till arbetsgivaren och att denne de facto kan utöva kontroll. En arbetsgivare svarar därtill inte för arbetstagares handlingar som är helt opåräkneliga från arbetsgivarens synpunkt, till exempel sabotage eller dråp.

Föräldrar har ett självständigt ansvar att utöva uppsikt över sina barn. Däremot ser man ibland skyltar som upplyser om att ”föräldrar ansvarar för sina barn”. Det är missvisande. Föräldrar har inget principalansvar för sina barns vållande.

Samma huvudregel gäller djurägare som blott har ett ansvar om man har varit vållande. Om en häst orsakar en trafikolycka, ansvarar djurets ägare bara om han har varit vårdslös. Det finns dock ett antal undantag som innebär att djurägare har ett rent strikt ansvar, det vill säga: han blir skadeståndsskyldig även om han inte har varit vårdslös. Det kan gälla om man håller sig med ”vilda djur, björn, varg, lokatt, räv, eller annat odjur”. Därtill finns en mer modern reglering som innebär att en hundägare alltid svarar för skada som jycken orsakar.

Populärt

Amnesty har blivit en aktivistklubb

Den tidigare så ansedda människorätts­orga­­­nisa­tionen har övergett sina ideal och ideologiserats, skriver Bengt G Nilsson.

Vid en första anblick kan man tänka sig att någon av dessa regleringar passar skadeståndsansvaret för robotar. Det känns kanske lättare att övervältra ett skadeståndsansvar än ett straffansvar på ”någon annan”. Men frågan är om det är hållbart i längden. Att bara lösa frågan genom att reglera att ägaren har strikt ansvar för robotens agerande, är alltför lättvindigt och knappast handlingsdirigerande i en riktning som är önskvärd i framtiden. Robotar kommer att förekomma i en mängd applikationer från robotsoldaten till danslärarroboten. Graden av autonomitet varierar också. Det kan knappast finnas en enda heltäckande lösning.

Den tredje frågan är i vad mån en robot med bindande verkan kan träffa civilrättsliga överenskommelser å någon annans vägnar eller för sig själv. Att ha rättigheter och skyldigheter tillfaller bara så kallade rättssubjekt, det vill säga: alla fysiska och juridiska personer. En persons förmåga att med rättsligt bindande verkan själv träffa avtal och sätta sig i skuld – rättshandlingsförmåga – tillkommer dock bara myndiga fysiska personer och juridiska personer.

En robot är idag inget rättssubjekt förstås, och saknar rättshandlingsförmåga. I takt med att robotar kommer i bruk i företag och hushåll bör det knappast vara några problem att på ett enkelt sätt komplettera nuvarande lagstiftning så att exempelvis en butlerrobot kan göra ärenden och sluta avtal om köp av varor och tjänster för sin ägare. Detta fungerar gott och väl så länge robotar följer sina ägares instruktioner, men blir genast svårare med AI-robotars ibruktagande. Det är ju inte rimligt att robotägaren blir ruinerad till följd av robotens på egen hand fattade beslut.

Detta kräver alternativa lösningar. En variant är att en robotägare (förutsatt att det finns en sådan) tecknar en obligatorisk försäkring. En annan är en lösning hämtad från den antika romerska rätten. I Rom fanns det slavar som saknade rättshandlingsförmåga. Likväl var många slavar i allra högsta grad involverade i rättshandlingar inom fastighetsförvaltning, bankväsende och handel. De rättshandlade för sina ägares räkning. För att dessa inte skulle riskera att ruineras på grund av slavarnas handlade inrättades rättsinstitutet peculium. Detta var ett belopp, ungefär som ett aktiekapital, som var den maximala ekonomiska skada som slaven kunde orsaka sin ägare genom krav från tredje man. Man kan förstås tänka sig en liknande lösning för robotar kombinerat med en offentlig registrering. Bolagsverket skulle kunna få i uppdrag att vid sidan av bolagsregistret också hålla ett robotregister. Det skulle vara enkelt för tredje man att konsultera detta register för att kontrollera vilken finansiell risk han tar genom att rättshandla med en robot.

Våra lagstiftare blir alltid villrådiga vid teknikskiften. När sedan tekniken berör något så svårt som gränserna för den mänskliga existensen krävs mod och nya angreppssätt. I dagsläget kan vi inte hantera att gränsen mellan människa och maskin flyter eller suddas ut helt. Vaga begrepp är en av rättsfilosofernas mest svårknäckta nötter, vilket kanske inte är så konstigt. Inte ens Gud förmådde dra en skarp gräns mellan rättfärdig och orättfärdig när han övervägde att förgöra Sodom och Gomorra.

Läs vidare

Prova Axess Digital gratis i 3 månader

Få obegränsad tillgång till:

  • Alla artiklar i Axess Magasin
  • Axess Televisions programutbud
  • E-tidning
  • Nyhetsbrev

Efter provperioden kan du fortsätta din prenumeration för endast 59 kr/mån – utan bindningstid.

Ta del av erbjudandet