Avmystifierar AI men tar för lätt på riskerna

Matematikerna Nick Polson och James Scott vill med sin bok visa att AI är en användbar metod för databehandling men inte så mycket mer. AI kan förstås som en förskjutning från förståelse till beräkning, baserad på stora datamängder. Men de tycks inte inse att AI inte alls behöver vara självmedveten för att utgöra en risk.

Illustration av Ateljé Grotesk
25 april 2019
8 min
Recenserad bok
Bokomslag - AIQ
AIQ Hur artificiell intelligens fungerar
Nick Polson & James Scott (övers. Joel Nordqvist)
Daidalos, 333 sidor

Begreppet intelligens har i datorteknikens sammanhang en ganska okomplicerad innebörd: ”Förmågan att uppfatta sin omgivning och agera för att uppnå sina mål.” För den som vill närma sig en förståelse av det kluster av tekniker som går under beteckningen artificiell intelligens är denna definition en god utgångspunkt: tydlig och avgränsad, men likafullt bred nog att omfatta såväl självkörande bilar som algoritmer för filmrekommendationer. (Och, inom parentes sagt, även levande organismer som träd och gräs.)

Den uppsjö av mer filosofiska frågeställningar som normalt sett förknippas med artificiell intelligens – Vilken är relationen mellan intelligent beteende och verklig intelligens? Hur påverkas vår syn på mänskligt tänkande av att våra maskiner får förmågan att tänka? Vilka existentiella hot skulle en superintelligent maskin kunna ge upphov till? och så vidare – kan i ett sådant tekniskt perspektiv lämnas därhän. Det är precis vad matematikerna Nick Polson och James Scott tycks ha bestämt sig för att göra i sin bok AIQ – Hur artificiell intelligens fungerar. I stället för dystopier och kunskapsteoretiska subtiliteter erbjuder Polson och Scott en tillgänglig och munter överblick över den matematik som ligger till grund för en teknik som står i begrepp att förändra den mänskliga existensen i grunden.

Polson och Scott är matematiker, närmare bestämt statistiker och att de som sådana väljer att skriva en bok om artificiell intelligens är förstås ingen slump; denna vetenskap, som ursprungligen stod i närmare dialog med psykologi och formell logik, har alltmer kommit att bli en underavdelning till den matematiska statistiken. Att författarnas val att utelämna mer filosofiska frågeställningar i sin framställning inte enbart är resultatet av praktiska överväganden blir ganska snart tydligt. AI tycks ur deras perspektiv vara en användbar metod för databehandling, inte så mycket mer. Det finns, menar Polson och Scott, absolut ingenting mystiskt med AI: till exempel har artificiella neuronnätverk, så kallade neurala nätverk, absolut ingenting med hjärnan att göra, namnet är bara ”ett skickligt marknadsföringsknep”, och vi har i själva verket bara att göra med en komplicerad ekvation. (Att namnet i själva verket härrör från neuronnätverkens strukturella släktskap med den biologiska hjärnans system av neuroner framgår inte.)

Lika oimponerade är författarna av de existentiella risker med AI som under senare år har lyfts fram av tänkare som Nick Bostrom och fysikern Max Tegmark. Att oroa sig för de risker som är förknippade med en generell, och potentiellt självmedveten, artificiell superintelligens vore, menar Polson och Scott, som om man efter den första kommersiella flygningen med jetplan skulle ha börjat oroa sig för riskerna med intergalaktiska transporter i överljushastighet.

Det är ett påstående som författarnas egen redogörelse för den digitala teknikens explosionsartade utvecklingstakt problematiserar. År 1951, skriver Polson och Scott, hade den snabbaste datorn en beräkningstakt på 2000 beräkningar per sekund, och den snabbaste bilen en topphastighet på omkring 180 kilometer i timmen. Om vi föreställer oss att bilar hade utvecklats i samma snabba tempo som datorer sedan dess, skulle en modern bil i dag komma upp i 8 miljoner gånger ljusets hastighet – mot bakgrund av denna jämförelse skulle det kunna anses fullt rationellt för de tidiga flygplansingenjörerna att ägna rymdresor en tanke.

Polsons och Scotts styrka ligger alltså inte i analysen av den tekniska utvecklingen, utan i redogörelsen för dess grunder. Deras bok är centrerad kring några matematiska resultat som visat sig vara av central betydelse för AI-teknikens utveckling, men framställningen är allt annat än teknisk; snarare är den en bit vetenskapligt färgad kulturhistoria, där vi bland annat får möta ett antal av de kvinnliga pionjärer vilkas arbeten annars tenderat att hamna i skymundan. Polson och Scott presenterar Henrietta Leavitt, astronomen som upptäckte de stjärnor som kallas pulsarer och vilkas existens är avgörande bland annat för avståndsbedömningar i universum. Leavitts resultat är i denna berättelse emellertid inte i första hand av fysikalisk betydelse, utan av statistisk. Vad författarna visar är hur Leavitts arbete utgör ett framgångsrikt exempel på anpassningen av en teoretisk modell till data, ett problem som är återkommande i dagens AI-vetenskap. Även Florence Nightingale dyker upp – uppfriskande nog inte i rollen som milt omvårdande kvinna, utan som benhård statistik-aktivist – liksom amerikanska Grace Hopper som spelade en betydelsefull roll i strävan att finna former för kommunikation mellan människa och maskin.

Men, oavsett det kulturhistoriska intresset av dessa och andra anekdotiska personöden som återges, är bokens viktigaste budskap ett annat, nämligen detta: betydelsen av data. Den förskjutning som har gett matematiken en alltmer central roll inom AI, kan mer allmänt förstås som en förskjutning från förståelse till beräkning – nästan alla stora bedrifter inom området handlar om framsteg i att ersätta det förra med det senare. Och som ett led i denna process är tillgången till data helt avgörande.

Den förskjutning som har gett matematiken en alltmer central roll inom AI, kan mer allmänt förstås som en förskjutning från förståelse till beräkning – nästan alla stora bedrifter inom området handlar om framsteg i att ersätta det förra med det senare. Och som ett led i denna process är tillgången till data helt avgörande.

Här är försöken att få datorer att hantera mänskliga språksystem ett illustrativt exempel. Tidigare ansträngningar att få datorer att tolka språkliga uttryck genom att programmera dem med språkets formella regler var alla misslyckade, helt enkelt eftersom språkanvändningen i så hög grad är baserad på avvikelse och undantag från dessa regler, och för att språkförståelse också är ett synnerligen kontextberoende fenomen. Försök få en dator att förstå frasen ”Får får får?” på formell väg – det är omöjligt. Det nya angreppssätt som i dag lett fram till såväl digitala assistenter som effektiva översättningsalgoritmer är i stället följande: beskriv inte för datorn hur en uppgift ska lösas, utan låt den lära sig hur troligt det är att den ska lösas på ett visst sätt. Språket blir då, liksom så många andra områden i AI-spektrumet, i grunden ett prediktionsproblem. För att en dator ska kunna tolka text behövs inga definitioner, bara en stor uppsättning kontextspecifika sannolikheter.

Från formella regler till statistiska förutsägelser, alltså, och det är här som tillgången till data kommer in i bilden. I princip inga av de AI-system som vi använder oss av i dag skulle vara möjliga om de inte hade tillgång till den enorma mängd information som vi människor lämnar efter oss, i första hand genom text och bilder uppladdade till internet. Hur lär sig till exempel en dator att känna igen en hund? Jo, genom att vi visar den tillräckligt många – vilket i det här sammanhanget är en hel massa – bilder som människor har förknippat med ordet hund. När datorn då ställs inför en ny bild på en hund, har denna bild tillräckligt mycket gemensamt med tidigare bilder på hundar, för att datorn ska tilldela bildbeskrivningen hund en hög sannolikhet, och svara: ”hund”.

Det existerar med andra ord ingen specifik hund-regel, på samma sätt som det inte finns någon regel som anger när ordet ”får” betecknar ett djur och när det inte gör det, eller en regel som besvarar frågan om när en patient som uppvisar en viss uppsättning symptom ska diagnosticeras med influensa. För att dra resonemanget till sin spets skulle en hypotetisk AI som fick studera allt i universum aldrig kunna spotta ut naturlagarna i form av en samling prydliga ekvationer, men den skulle göra förutsägelser som i allt högre grad reproducerade deras verkan. För de självlärande systemen finns alltså inga principer, bara trial and error-baserade metoder som mäter utfall mot önskat resultat och justeras därefter, vilket åtminstone i viss mening måste sägas vara ett element av den mystik som Polson och Scott så ihärdigt förnekar: den besvarar våra frågor, men låter oss inte veta hur den gått till väga för att nå fram till sina svar.

Att dagens specialiserade AI-system, från preventivmedelsappar till taligenkänning, skulle utgöra förebud om förverkligandet av så kallad generell artificiell intelligens är något som Polson och Scott förnekar med en tvärsäkerhet som i viss mån kan anses obefogad. Också dagens metoder, som författarna beskriver i sammanhanget av specialiserade tillämpningar, har potentialen att leda fram till omvälvande resultat. Om vi kan få våra självlärande system att simulera evolutionen? Om vi hittar en algoritm som kan sålla fram och tillgodogöra sig en viss typ av data på internet, för att lära sig manipulera mänskliga känsloreaktioner? En viktig poäng som tycks undgå Polson och Scott är också att en artificiell intelligens inte alls skulle behöva vara självmedveten för att utgöra en risk, inte heller uppsåtligt illvillig – det är fullt tillräckligt att den är effektiv och att dess mål i något avseende skiljer sig från våra.

Polson och Scott inleder sin framställning med ett påstående som i dag tycks beledsaga i princip varje diskussion om ny teknik: den är här i dag och vi kommer att få se mer av den imorgon, vare sig vi vill eller inte. ”Ett praktiskt perspektiv”, kallar författarna det – lika gärna skulle det kunna kallas uppgivet. Framför allt är det en position som tydligt begränsar den diskussion som följer.

En fråga som AIQ i alla fall snuddar vid är den som gäller ansvar. Författarna ställer den i relation till medicinska diagnostiseringstekniker. Vem skall anses vara ytterst ansvarig för de medicinska råd som ges av en algoritm? Detta är förstås en relevant frågeställning, men frågan om ansvar kan – och bör – också vidgas; även om den är ovanligt konkret i den medicinska diagnostikens sammanhang, är den närvarande i snart sagt alla de områden som boken behandlar. Vad vi som samhälle just nu ägnar oss åt är att lämna över en stor del av vårt beslutsfattande till en kraft vars inre verkanssätt till del är höljd i dunkel och som per definition inte kan hållas ansvarig för någonting alls.

Scott och Polson får det att framstå som att AI visserligen tvingar oss att omvärdera våra politiska policier, men inte rubbar grundläggande mänskliga kategorier som omsorg, närhet, tänkande och kännande, och inte heller hur vi förstår vår egen mänsklighet. Det, vågar jag påstå, är direkt felaktigt.

Publicerad i Respons 2019-2

Vidare läsning