Universitetens AI-vurmande spelar techjättarna i händerna
AI-verktyg implementeras i allt större utsträckning i högre utbildning. Idéhistorikerna Kristian Petrov och Patrik Möller varnar för konsekvenserna och efterlyser en mer restriktiv hållning.

Den 30 november 2022 går en mångtusenårig epok i graven. Techföretaget Open AI lanserar ChatGPT och teknikens yttersta syfte – att stödja människan och frigöra tid och kraft för hennes sociala, intellektuella och kreativa förmågor – omdefinieras i grunden. Chattroboten utses efter bara en dryg månad till den snabbast växande konsumentmjukvaran i historien och dörren öppnas till en skön ny värld – där teknikens roll i stället är att imitera och ersätta det som dittills setts som det unikt mänskliga.
ChatGPT är ett exempel på generativ artificiell intelligens som utvecklats genom maskininlärning på gigantiska samlingar av språkliga data. Med enkla instruktioner kan en användare utan förkunskaper generera språk i olika former, såväl text som bild och ljud, och genom att trycka på en knapp producera allt från färdiga romaner och kärleksdikter till vetenskapliga uppsatser, målningar, sångtexter, filmer och musikaliska kompositioner. Löftet till aktieägarna har inte varit mindre blygsamt. De finansiella vinsterna är potentiellt »lika obegränsade som generativ AI:s möjligheter«.
Om den resursslukande tekniken kan leva upp till sina ekonomiska förväntningar är förvisso omtvistat, men den medför onekligen omvälvande konsekvenser för människans handlande. I synnerhet gäller detta vår förmåga att bilda kunskap – liksom för vad det innebär att vara människa på ett rent existentiellt plan.
Techbolagen utlovar AI-verktyg som på ett ögonblick skapar automatgenererade uppsatser och artiklar, »garanterat plagiatfria«. Att själv ägna sig åt att söka källor, formulera argument och dra slutsatser döms av samma leverantör ut som »ett slöseri med tid«. Andra företag kallar sina AI-verktyg för »din andra hjärna«, och frågar man AI-lobbyisten Mathias Sundin är generativ AI framför allt en demokratisk landvinning: »Människor som inte kan måla, designa, illustrera, göra video eller skriva bra text eller skapa musik kan nu det.« Tiden är förbi när detta reserverades till dem med talang eller lång förkovran inom ett område.
Att vara människa innebär inte bara att upprätthålla ämnesomsättning och motorik utan att även tänka, skapa, kommunicera och umgås. När dessa förmågor i allt större utsträckning tas över av något utomstående, som dessutom saknar igenkännbart djup och äkthet, inträder det som i filosofihistorien kallas för alienation, främlingskap.
Vid svenska universitet, en gång i tiden trögrörliga institutioner men därtill även garanter för kritiskt granskad kunskap, är tongångarna emellertid inte mindre djärva. Ett universitet påstår att AI-verktygen främjar »kreativa processer«, »djupare insikter« och undanröjer »trösklar för deltagande«, särskilt för skrivsvaga studenter. Ett annat universitet erbjuder studenterna en digital »personlig handledare« som agerar alltifrån instruktör och studiekamrat till meningsmotståndare och examinator. Samtidigt fasar den AI-anpassade undervisningen ut traditionella rapporter, essäer och hemtentor. Generativ AI liknas vid en »kreativ samarbetspartner«, en »assistent«, som bistår med att läsa, skriva, skapa bilder, analysera, tolka, sammanfatta och dra slutsatser. Läraren uppmuntras att utforma och bedöma examinationer med generativa AI-verktyg, och studenten, åtminstone under vissa förutsättningar, att lösa dem med hjälp av samma verktyg.
Hur långt är då inte steget till den så kallade »feedback-loop« som AI-forskare själva varnar för? Om AI till syvende och sist kommunicerar enbart med sig själv, och alltså inte med några utomstående medvetanden eller aktörer, kan det leda till en systemkollaps. I detta scenario kontaminerar AI såväl sitt träningsmaterial som prestandan hos kommande generativa modeller – med resultatet att validiteten i det den producerar stadigt försämras. Generativ AI tränas på enorma datamängder men utifrån styrda intressen och fördomar i en för användarna sluten process, som vi i efterhand får korrigera för. Faktum är att risken för vilseledande information är inneboende i AI-systemet, inte minst på grund av att generativ AI arbetar utifrån en sannolikhetsprincip med hypotetiskt gissande. Verktyg som ChatGPT redogör nämligen inte direkt för fakta och primärkällor, utan producerar text som är potentiellt tillförlitlig utifrån en bakvänd härledning av citeringar och sammanfattningar. Sammantaget innebär detta att det som skapas med hjälp av generativ AI i princip inte kan betraktas som annat än skrönor, bullshit i filosofen Harry Frankfurts mening. Systemen tar till sin funktion inget ansvar för om det som produceras är sant eller inte.
Men det finns också ett problem på en kunskapsfilosofisk nivå. Kunskap erövras genom överskridanden av motstånd – annars förblir den någon annans. När färdig text genereras via en knapptryckning tas en genväg som gör kunskapen bedräglig. En algoritm som utan insyn ger färdiga svar, som i sin tur i värsta fall bygger på sammanfattningar av automatiserade sammanfattningar eller en rundgång av »cyberrymdskrot« (DN 6/5 2024), undergräver kunskapens mellanmänskliga dimension. Vi blir mindre kunniga och närvarande – och därför mindre autentiska som människor.
Kunskap innebär, i Sven-Eric Liedmans ord, att värdera information och sätta in den i ett sammanhang som man kan förhålla sig kritisk till, något som utvecklar den egna personen. Det handlar om att ha något eget att säga, något meningsfullt, intressant och välunderbyggt. Ytterst handlar kunskap om trovärdighet, vilket gör ömsesidigheten central: Vi lyssnar om vi litar på varandra, i ett möte i vilket båda bottnar och blir tagna på allvar, där jag förstår att du förstår mig. Psykologerna Håkan Nilsson och Ali Kazemi har träffande beskrivit generativ AI som ett hot mot människans självaktning. Att vara människa innebär inte bara att upprätthålla ämnesomsättning och motorik utan att även tänka, skapa, kommunicera och umgås. När dessa förmågor i allt större utsträckning tas över av något utomstående, som dessutom saknar igenkännbart djup och äkthet, inträder det som i filosofihistorien kallas för alienation, främlingskap. Man riskerar att förlora alltmer av sig själv och ytterst glädjen över att alls finnas till.
Det finns en djupt mänsklig tillfredsställelse i att efter långvarigt engagemang känna sig kapabel, utveckla ämnessäkerhet, behärska färdigheter och bidra till lösningar på gemensamma problem. Den genväg vi drömmer om – drömmen om att någon annan gör jobbet åt oss – underminerar inte bara den mänskliga självrespekten, utan kan också, som nämnda psykologer varnar för, innebära en senväg.

Internetstiftelsen varnar för att AI innebär oanade möjligheter att sprida även medvetna osanningar och desinformation, och Kalla faktas granskning av Sverigedemokraternas trollkonton våren 2024 visar att det redan är en realitet. Motsvarigheten i den akademiska världen är scientific littering – vetenskaplig nedskräpning. Den tyske neuropsykologen Bernard Sabel bedömde efter en genomgång av 5 000 publicerade artiklar inom sitt vetenskapsfält att så mycket som 34 procent var påhittat eller plagierat. Lockelsen att ta genvägar inom akademins publish or perish-kultur förefaller enorm, och frågan är om inte universitetens AI-satsningar riskerar att normalisera det som ännu betraktas som fusk. Att dessa fejkade artiklar sällan blir citerade, då innehållet i de flesta fall är intetsägande, är en annan femma.
Bör då generativa AI-verktyg helt förbjudas i den akademiska världen? Nej, det räcker förmodligen att implementera en måttfullhetsprincip. Det blir även en buffert mot att bli sårbart beroende av en teknik som techjättarna sannolikt kommer att ta alltmer betalt för. I ett panelsamtal den 3 juni 2024 (Publikt 30/8 2024) motiverade prorektorn, bibliotekschefen och representanter för den universitetspedagogiska enheten (UPE) vid Karlstads universitet sin positiva, om inte villkorslösa, syn på integrering av generativ AI i akademisk utbildning och forskning. Vi försökte framhålla vikten av att universiteten känner fortsatt tillit till de klassiska generiska kompetenserna – att skriva, läsa, analysera, tolka och skapa. I grunden bör teknikutvecklingen bejakas, men samtidigt är vår huvuduppgift att fortsätta lära ut dessa grundläggande färdigheter, samt att kritiskt reflektera över konsekvenserna av generativ AI i linje med forskningens självklara uppdrag att noggrant granska varje form av samhällsomvälvande teknisk utveckling. Universitetsledningens svar var motsägelsefullt. Den tekniska utvecklingen är omöjlig att stoppa och därför är det lönlöst att införa restriktioner. Samtidigt uttrycktes en rädsla för att om man ändå tog hänsyn till det kritiska förhållningssätt som vi föreslog skulle man bromsa takten – och stänga dörren för studenterna till morgondagens samhälle. Tekniken är förvisso inte felfri, men människor kan också ta miste och ljuga, som en datavetare vid UPE påpekade.
Lockelsen att ta genvägar inom akademins publish or perish-kultur förefaller enorm, och frågan är om inte universitetens AI-satsningar riskerar att normalisera det som ännu betraktas som fusk.
Detta narrativ uttrycker i själva verket en inflytelserik samhällsideologi som spelar techjättarna i händerna. Andemeningen i den analys som regeringens näringslivsrekryterade AI-kommission presenterat (DN 25/11 2024), vilken även inkluderar forsknings- och utbildningspolitiken, är, i kommissionsledaren Carl-Henric Svanbergs ord, att »läget är akut« och att Sverige »halkar efter«. Vi har helt enkelt inte tid att utvärdera risker och utmaningar i onödan eller att utreda och kompromissa för sakens egen skull. »Långsiktigt samförstånd är centralt, men åtgärder måste också vidtas här och nu – det är fara vid dröjsmål. […] De åtgärder vi föreslår är därför utformade för att kunna vidtas snabbt. [Vissa av dessa] behöver ytterligare utredning för att hitta sin slutliga form. Det är dock viktigt att det inte leder till onödiga förseningar […].«
Om man har så bråttom missar man lätt en aspekt. AI är ett verktyg – och verktyg används när de är lämpliga. De är medel som omdömesgillt måste avpassas för de mål som människan sätter upp, må det vara grundlagsskyddade fri- och rättigheter, demokratiska beslut, högskoleförordningen, FN:s Agenda 2030 eller individens kreativa och innovativa visioner. Verktyg har alltid specifika användningar och kan inte hur som helst ersätta varandra oberoende av sammanhang. Att använda generativ AI som verktyg inom akademin för att hantera stora datamängder skulle kunna vara befogat. Men att använda AI som spökskrivare är kanske inte lika ändamålsenligt, i synnerhet inte i forskningsprojekt inom humaniora och samhällsvetenskap där den kvalitativa beskrivningen inte kan särskiljas från metoden eller undersökningen. Spökskrivande med hjälp av AI medför över lag en risk att texterna, oavsett om det gäller forskning, populärvetenskap, kursplaner, högtidstal eller kommunikation med allmänheten, blir generiska, intetsägande och inte sällan med felaktiga referenser eller fakta. Den indirekta följden blir att universitetsvärlden devalverar sin trovärdighet, dess främsta kapital vid sidan av kunskapen, och därför bör sådan användning av AI inom akademin regleras tydligt och restriktivt.
I själva verket är det en slående kontrast mellan å ena sidan universitetens nyantagna policier för AI, vilka mer eller mindre är förbehållslöst omfamnande, och å den andra sidan de kritiskt nyanserade styrdokument som tidigare antagits för exempelvis sociala medier, e-post, bildanvändning och kommunikation över lag. Innehållet i det som kommuniceras vid exempelvis Karlstads universitet (Dnr C 2021/924) ska enligt de gängse dokumenten alltid vara relevant, väl genomtänkt, korrekt, trovärdigt och begripligt. Sådana föreskrifter och reservationer tycks som regel ha glömts bort när det gäller AI, och detta trots dess välkända benägenhet att producera felaktiga påståenden. Det vore önskvärt om vi betraktar AI för det verktyg som det är, bortom den kommersiella hajpen och den teknokratiska hastighetskulten.
Det finns även ett annat skäl för att undvika överanvändning av generativ AI inom akademin. I enlighet med högskolelagen har universitet och högskolor högt ställda hållbarhetsmål som innebär att verksamheten i alla delar ska ha minimerad klimat- och miljöpåverkan. AI kräver emellertid enorma processorkrafter (Yle 2 april 2023), och en allt större andel av västvärldens elproduktion (Irish Times 3 maj 2022). Energin behövs framför allt när verktygen utvecklas och tränas på språkmodeller. Men exempelvis ChatGPT förbrukar i drift – med andra ord när användarna ställer frågor till den – en energimängd som inom ett par-tre år spås motsvara Sveriges samlade elkonsumtion. Att prompta instruktioner till en chattrobot kräver alltså mångdubbelt mer energi än motsvarande användning av ett datorprogram för bildredigering eller en internetbaserad sökmotor. AI:s servrar, processorer, chip och batterier behöver dessutom kritiska metaller som utvinns i undanskymda delar av Afrika och Asien till priset av förgiftat grundvatten, reducerad biologisk mångfald och barnarbetare som riskerar livet i de farliga gruvorna.
Vi menar att universitetsledningarnas förhoppning om ett »samarbete med den nya intelligensen« vilar på en felaktig premiss. Det är inte bara kunskapens tillförlitlighet och kvalitet som hotas – den mänskliga sidan i detta samarbete kommer nämligen att förändras i grunden när vi överlåter åt maskinen det som sedan antiken har definierats som kärnan i det mänskliga. Det som gör oss människor mänskliga är att vi aktivt utforskar världen och använder vår medvetna kreativitet. AI:s så kallade »svarta låda«, det vill säga att inte ens programmerarna själva har insyn i hur generativ AI kommer fram till sina svar, i kombination med att vi blir alltmer beroende av de generativa AI-verktygen, drar undan mattan för människans utforskande kreativitet. Frågan kan ställas om AI förblir vår »assistent« i samarbetet eller om det i själva verket är vi som blir assistenter till AI. En parallell kan dras till den alienerade människa som den unge Marx skrev om, med inspiration från Hegel och Locke – en människa som blir alltmer styrd och beroende av externa krafter och till slut uppfattar sin egen aktivitet som meningslös och livsdränerande.
Filosofen Martin Heidegger beskriver på ett liknande vis hur den som passivt följer strömmen och lägger över engagemang och ansvar på andra till slut förvandlas till alla och ingen, alldaglighetens gråa subjekt. Utmaningen för framtidens människa – som lagt ut den mellanmänskliga kunskapen, kreativiteten, kommunikationen och umgänget på entreprenad till AI – är att lyckas känna livsmening när det inte längre är hon som skapar den.
AI:s servrar, processorer, chip och batterier behöver dessutom kritiska metaller som utvinns i undanskymda delar av Afrika och Asien till priset av förgiftat grundvatten, reducerad biologisk mångfald och barnarbetare som riskerar livet i de farliga gruvorna.
Men ironin slutar inte där. Bakom den digitala assistenten som universiteten erbjuder studenterna finns en assistent av kött och blod. Den återfinns emellertid på betryggande avstånd från majoriteten av AI-användarna. I världens fattiga länder arbetar miljoner människor med så kallad micro-tasking. Det är den dolda sidan av maskininlärningen så som vi känner den, och innebär ett städande av internet från opassande innehåll samt att för Amazons, Googles, Metas, Microsofts och Open AI:s räkning märka, sortera och korrigera AI:s texter och bilder så att de blir »smarta«. För att textrobotarna ska förädlas, och framstå som tillräckligt förtroendeingivande, personliga och mänskliga, måste råmaterialet kalibreras och poleras. Detta kan liknas vid ett sisyfosarbete med fler än en uppförsbacke, om inte rent av ett Moment 22. Ju mer »taskern« anstränger sig för att bistå AI:s lärande, desto större blir andelen AI-genererat innehåll på internet, vilket föder fram ett ständigt växande behov av korrigerande micro-tasking. I techjättarnas låglönefabriker arbetar högutbildade sida vid sida med minderåriga, 14 timmar om dagen, men har ändå knappt råd med mat. I takt med att techföretagens spökarbetare bränner ut sig – och behandlas mer som maskiner än människor – blir de västerländska användarna av generativ AI alltmer bekväma, men också passiviserade och alienerade.
AI blir allt bättre på att imitera det mänskliga. Men när vi överlåter den intellektuella och kreativa verksamhetens tid och möda till maskiner, riskerar vi att göra även oss användare till maskiner. Vi rationaliserar bort den väg som sedan urminnes tider har varit metaforen för människans upptäckarglädje, äventyrslust och kunskapssökande, och som uttrycks så träffande av Karin Boye: »Den mätta dagen, den är aldrig störst. Den bästa dagen är en dag av törst. Nog finns det mål och mening i vår färd – men det är vägen, som är mödan värd.«