
Det var terminsstart och vid Uppsala universitet hade humanister från olika ämnen samlats för internat. På agendan stod ett ämne som inte var oväntat, snarare närmast oundvikligt, nämligen AI:s konsekvenser för undervisning och examination. Bara ett par veckor innan hade två forskare och lärare levererat ett drastiskt förslag på morgontidningens debattsida som gick ut på att examinationer, på grund av de nya villkoren, inte längre skulle vara en självklar del av högre utbildning och att bedömningar av studenternas förmåga lika gärna kunde flyttas till yrkeslivets arena där deras lärdomar tas i bruk. Inom universitetsvärlden skulle fokus i stället läggas på bildning som process.
Just detta förslag kom dock inte att lyftas på internatets diskussioner med litteraturvetare, idéhistoriker och retoriker (såvitt jag noterade). Kanske för att ingen kom att tänka på artikeln, kanske för att så många andra perspektiv och problem hopade sig? För det hade redan gått två veckor sedan den publicerades, vilket workshopens ledare framhöll är en snudd på astronomisk tidsrymd sett till utvecklingen av den teknologi och diskurs som under det senaste decenniet utkristalliserats kring en välbekant akronym vars innebörd är allt annat än kristallklar.
När vi talar om AI i dag, och det gör vi som bekant oavbrutet – varför jag inte skriver dessa rader utan ambivalens – leds vi också in i en känslo- och tankemässig koreografi som gärna stelnar i vissa mönster. Människan och det mänskliga placeras i motsatsställning till maskinen. Den senare blir ett redskap till den förras fromma, till och med en undersåte att kontrollera. Eller också hotar denne livlöse men handlingskraftige andre att ta över hela världen. Teknologin blir vårt öde, eller något som måste stoppas så fort det nu bara går. Det saknas inte nyanserande perspektiv, men de dramatiska tankefigurerna dominerar och att en »prosaisk AI«, för att tala med den tyska mediefilosofen Sybille Krämer, länge varit verksam i kultur, samhälle och vardagsliv i form av sökmaskiner, navigationsverktyg, ansiktsigenkänning, maskinöversättning och så vidare glöms gärna bort när vi står inför de bländverk som alstras av den n:te versionen av bild-, text- och ljudgenererande program som ChatGPT, Dall-E och DeepSeek.
Men är det då inte något nytt och avgörande med de data-mumsande neurala nätverk som utgör våra dagars artificiella intelligens? Har här inte skett ett språng som för alltid kommer att förändra kultur och natur? Frågor av detta slag kräver genomtänkta både historiska och begreppsliga undersökningar för att ens konturerna av ett svar ska framträda.
Å ena sidan behöver vi företa en mediearkeologisk utgrävning av själva teknologin: Vad gör den, hur har den gjorts möjlig? Exemplarisk är alltjämt Kate Crawfords och Vladan Jolers online-essä »Anatomy of an AI system« (2018) som åskådliggör de ekonomiska, tekniska och materiella infrastrukturer med planetär räckvidd som möjliggör Amazons syntetiska samtalspartner Alexa. Å andra sidan är det nödvändigt att plocka isär och granska de ideologiskt överlastade begreppen »artificiell« och »intelligens«. Liksom en räcka av andra termer som de aktualiserar: mänsklig, naturlig, äkta, kreativitet. Liksom frågor om agens, ansvar, kunskap, styrning, avvikelse, slump.
Det är en diger uppgift. Och den har antagits, del för del, på det fält av kritiska AI-studier som vuxit fram inom humaniora och samhällsvetenskap under det senaste decenniet. Bara de senaste åren har ett stort antal böcker publicerats som direkt berör detta område. Hit hör den svenske sociologiprofessorn Simon Lindgrens bok Critical Theory of AI (2023), historiskt mer orienterade studier som Matteo Pasquinellis The Eye of the Master − A Social History of Artificial Intelligence (2023) eller tankevidgande verk som James Bridles Ways of Being − In Search of a Planetary Intelligence (2022) – bara för att nämna tre ganska olikartade verk utkomna inom loppet av ett år.
Men ackumuleringen av böcker och artiklar kring dessa frågor växer nästan lika snabbt och lavinartat som de generativa modellerna själva. I denna text – som tar avstamp i sådana kritiska studier med en bäring på humaniora – kommer jag därför att snäva in perspektivet en aning och framför allt röra mig mot mitt eget ämne och forskningsfält: litteraturvetenskapen och litteraturen. Också här händer saker, inte minst vad gäller diskussionen kring de praktiker som lagt grunden till det vi kallar litteratur och som varit centrala för kunskapsbildning och underhållning i tusentals år: att skriva och att läsa.
Men ackumuleringen av böcker och artiklar kring dessa frågor växer nästan lika snabbt och lavinartat som de generativa modellerna själva.
»Världens läsbarhet« (Die Lesbarkeit der Welt, 1981) är titeln på en bok som den tyske filosofen Hans Blumenberg publicerade för snart ett halvsekel sedan. Den var del av den »metaforologi« som Blumenberg utvecklade vid denna tid. Som framgår av titeln rörde den metafor som stod i fokus möjligheten att läsa världen som en bok. Den intuitiva kraften och potentialen hos denna kunskapsteoretiskt lodande trop är lätt att inse: Vi »läser« ju allt möjligt omkring oss i våra liv, inte bara böcker. Blumenbergs sikte var emellertid inställt på historien och hur tankefiguren hade turnerat under tidigare sekel, vilket också var motiverat. Under de kalla krigsdecennier när hans egen bok tillkom hade nämligen föreställningen om världen som läsbar utmanats och överlagras av en annan metafor − världen som möjlig att beräkna.
Det råder ingen tvekan om att de två metaforerna har ett historiskt släktskap och emellanåt har flätats ihop, vilket exempelvis kan observeras hos en gestalt som Leibniz och hans Ars Combinatoria. Det var inte heller förvånande att den tyske 1600-talsfilosofen och matematikern åberopades av de cybernetiker som under 1940-talet skulle upprätta de teoretiska ramarna inte bara för utvecklingen av digital teknologi, utan också, mer specifikt, för det som under modern tid kommit att betecknas som artificiell intelligens.
Med Claude Shannons matematiska informationsteori, där informationsöverföring blev en fråga om binära tal och signaler, och Norbert Wieners analyser av kommunikation och kontroll hos maskiner och djur (inklusive människor), banade man väg för en ontologi där allt existerande kunde betraktas som bestående av just information. En »beräkningens regim« installerades, för att använda litteratur- och medieforskaren N. Katherine Hayles formulering. Och genom den forskning som utfördes av neurologen W. S. McCulloch och logikern Walter Pitts utvecklades inte bara en modell av hjärnan som en binärt opererande dator, utan också teoretiska idéer som pekar fram mot dagens neurala nätverk.
Det var emellertid i samband med en workshop vid Dartmouth College 1956, som själva termen »artificiell intelligens« myntades första gången av organisatörerna John McCarthy och Marvin Minsky. Den idé om AI som tog form under mötet byggde på en modell som senare betecknades som symbolisk eller deduktiv. Kort sagt: den byggde på regler och ett lexikon. Och den skilde sig därmed från dagens neurala nätverk, vilka opererar induktivt på stora datamängder genom viktningsprocesser som belönas och som därmed leder till en form av »inlärning«. Redan ett par år efter Dartmouth tog dock psykologen Frank Rosenblatt fram en AI-modell som han kallade för Perceptron, vilken kan ses som den digitala urformen för 2000-talets artificiella intelligens.
Viktigt är följaktligen att konstatera, att den idé om »intelligens« som låg till grund för utvecklingen av AI inte vilade på någon essentiellt mänsklig förmåga, utan snarare på en bild av hjärnans funktionssätt, som i sin tur tecknades utifrån den digitala datorn. Dessutom, vilket bland annat har betonats av filosofen Catherine Malabou, odlades i den tidens AI-diskurs en mycket modern uppfattning om intelligens med historiska rötter i positivistisk psykologi och psykofysik från det sena 1800-talet. Dessa idéströmningar siktade fram emot en analys av sinnliga och kognitiva förmågor som lät sig mätas och kvantifieras – snarare än att falla tillbaka på äldre filosofiska idéer om intellekt, kunskap eller kreativitet.
Att låta maskiner beskriva hur organismer fungerar var inte något nytt. Som Georges Canguilhem visade i en viktig essä i slutet av 1940-talet låter sig denna analogidrivna diskurs spåras hela vägen tillbaka till Aristoteles och kan följas närmare från Descartes och framåt. I Matteo Pasquinellis ovan nämnda bok, The Eye of the Master, utvidgas perspektivet bortom hjärnan och det mänskliga subjektet, för att sedan lägga grunden för en »arbetsteori om maskinintelligens«. Pasquinelli gör en fascinerande omläsning av 1800-talets idéer om maskinen och automaten hos tänkare som Charles Babbage, Ada Lovelace och Karl Marx, för att belysa hur periodens idéer om arbetsdelning sipprade in i och styrde diskussionen inom dessa ämnen. Via en analys av cybernetiken visar han att detta är relevant också för samtidens induktiva maskininlärning som reproducerar sociala konventioner snarare än att härma några »inre lagar« hos mänsklig intelligens (vilket förklarar chatbotarnas plötsliga utbrott av rasism, misogyni och liknande).
Vad säger då allt detta om intelligens? Kanske främst att den inte står att söka och finna i de andliga eller biologiska interiörerna hos enskilda subjekt, utan måste förstås som en social, kulturell och kontextuellt alstrad process och produktion. »Vår ›mänskliga intelligens‹ är inte ›naturlig‹, utan förvärvad och utövad genom social interaktion och bruket av tecken«, skriver den tidigare nämnda Krämer. Och Pasquinelli fyller på: »Maskiner kan uppfattas som ›tänkande‹ eftersom de härmar den mänskliga teatern.«
Vad säger då detta om intelligens? Kanske främst att den inte står att söka och finna i de andliga eller biologiska interiörerna hos enskilda subjekt, utan måste fattas som en social, kulturell och kontextuellt alstrad process och produktion.
Om begreppet om intelligens tål att granskas och problematiseras gäller det i lika hög grad för termen »artificiell«. För om den mänskliga intelligensen inte bara betjänar sig av teknologier, utan därtill förklaras med hjälp av yttre, konstgjorda redskap och apparater, hur kan vi då i längden upprätta strikta distinktioner mellan »mänsklig« och »artificiell«? Och hur ska vi förhålla oss till de faktum att människan är den varelse som skriver, räknar och uppfinner (och därigenom besitter vad man kan betrakta som maskinmässiga drag) och att teknologin i sin tur har sitt ursprung i det som brukar kallas »natur«, inte bara rent materiellt, utan också genom sin organisering? Hur ska gränserna mellan dessa begrepp och fenomen dras?
Och varför ska vi egentligen stirra oss blinda på just mänsklig och artificiell, vilket tenderar att göda en urspårad antropocentrism som är problematisk och som dessutom lett till en planetär kris. Mot denna bakgrund kanske det börjar bli dags att designa AI som tänker unlike humans, som den kinesiske science fiction-författaren Chen Qiufan nyligen uttryckte det inom ramen för föreläsningsserien ”Cognitive Infrastructures” på Berggruen Institute i London (sedermera publicerad med rubriken »How To Think Unlike Humans« i den av MIT Press nystartade tidskriften Antikythera).
Dessa frågor ekar i James Bridles tankevidgande ovannämnda bok, där han ger sig ut på spaning efter en »planetär intelligens«. Bridle utgår från ett ekologiskt perspektiv som innebär att han utforskar relationerna mellan olika agenser – organiska såväl som oorganiska. Framför allt betonar han att begreppet intelligens alltid måste placeras i ett sammanhang. Bridle tar avstamp i zoologen Jakob von Uexkülls sekelgamla teori om att varje varelse har sin egen Umwelt, sin egen subjektivt upplevda omvärld. Uexküll är sannolikt mest känd för sin närstudie av fästingar, men Bridle relativiserar, komplicerar och kalibrerar problematiken och rör sig både smidigt och överraskande mellan olika kontexter och världsbyggen: från bläckfiskar, krabbor och mimosa via datapionjären Alan Turing till neurala nätverk som kan bistå i förståelsen av de mer-än-mänskliga livssystem och intelligenser som planeten kryllar av. Det är en kritiskt djuplodande odyssé som löser upp den tröttsamma kampen mellan mänsklig och artificiell, mellan människa och maskin, och som därtill begrundar de miljö- och klimatmässiga kriser som vår planet är indragen i.
Inte minst fångar Bridles ekologiska synsätt in vad han kallar för »corporate AI«, det vill säga den kommersiella produktionen av generativa modeller som används av media för att generera artiklar som pumpas ut i medieomloppet och skapar förvirring och kaos. Även om hans bok (befriande nog) inte saknar utopiska inslag – som vissa säkert kommer avfärda i namn av ekonomisk nytta och (snävt) förnuft – visar den också hur det går att tänka vidare och utanför den för de flesta säkert ogenomträngliga svarta låda som ömsom får börsen att stiga, ömsom får dem som kammar hem miljarderna att ropa på ett moratorium för den nya häpnadsväckande om än hotfulla teknologin.
En inte oviktig komponent i sökandet efter andra intelligenser finner Bridle i konst och litteratur. Dels för att dessa har upprättat zoner där tänkandet och kännandet utvecklar sig mer hämningslöst än i samhället i övrigt, dels för att romaner, dikter, filmer, måleri, fotografi, teater, installationer och så vidare ofta tagit sig an frågan om människans relation till det som inte är mänskligt, men som ändå tycks besitta en animerande kraft. Fantasin om den tänkande och handlande – kraftfulla, förföriska, ominösa – maskinen, om vi håller oss till den, har som bekant en anrik historia inom berättelser och myter, från antikens bronsjätte Talos till E. T. A. Hoffmanns Olympia, Mary Shelleys Frankenstein och Karel Capeks Robot. Det som laddat sådana verk är både det oroande främmande hos dessa konstruktioner och deras lika kusliga – Unheimliche, som Freud kallade det – likhet med mänskliga egenskaper och handlingsmönster.
Detta blir synligt också i de romaner och dikter som under det senaste halvseklet gett sig i kast med att skildra artificiell intelligens i modern mening: från den deduktivt arbetande AI:n HAL 9000 i Stanley Kubricks film 2001 (1968) till det promiskuösa operativsystemet i Spike Jonzes film Her (2013), från de cybernetiska vattendragen i Richard Brautigans roman Öringfiske i Amerika (1967) till det neurala nätverk som i Richard Powers roman Galatea 2.2 (1995) lär sig konsten att tolka litterära klassiker. Givetvis utvinner dessa verk dramatisk energi också ur en konflikt mellan olika varanden, men samtidigt kommer gränserna mellan dessa varanden att överskridas och grumlas.
Alltsedan 1950-talet har litteratur komponerats tillsammans med algoritmer och datorer.
Om sådana skildringar har ambitionen att gestalta och fundera om AI, har författare, regissörer, dramatiker och andra under samma period också riktat om den mänskliga blicken via en annan preposition, nämligen att gestalta och tänka med AI.
Alltsedan 1950-talet har litteratur komponerats tillsammans med algoritmer och datorer. Från de kärleksbrev som ett program på den tidiga stordatorn Baby vid Manchester University 1952 genererade med benäget bistånd av matematikern Christopher Strachey, till otaliga dikter, gåtor, vitsar, terapisamtal och berättelser under de följande decennierna. (Ett rikt urval av dessa texter publicerades i fjol i Nick Montforts och Lilian-Yvonne Bertrams fascinerande antologi Output). Under 2000-talet har denna sällsamma textproduktion med hjälp av algoritmer och botar även lett till samarbeten med stora språkmodeller. Som i K. Allado-McDowells bok Pharmako-AI (2020), där promptar och svar från ChatGPT utvecklas till ett flöde av dikter, prosastycken och miniessäer. Eller i Ammaseus horisont − AI tolkar Karin Boye (2020), där den svenska modernistens texter omdiktats på maskinell väg. Och i dag – några år och versioner senare – har språkmodellernas matematiska och tekniska särdrag bidragit med estetiskt än mer raffinerade grepp, som i den amerikanska poeten Allison Parrishs arbete med vektorrymder och ljud.
Denna prepositionella förskjutning – från om till med – har också lyfts fram inom kritiska AI-studier på senare tid. Inte minst eftersom den tycks luckra upp den »antroponormativa restriktion« som ständigt jämför mänsklig och artificiell intelligens i syfte att peka ut vad som ses som tillkortakommanden hos den senare. Detta tankesätt löper som en röd tråd genom historien och förenar alltifrån 1800-talets ludditer till våra dagars teknofiler. Som Leif Weatherby – författare till den fascinerande Language Machines − Cultural AI and the End of Remainder Humanism (2025) – formulerar det i en nylig essä:
De mest högljudda kritikerna av maskininlärning instämmer med dess grundare och starkaste förespråkare i att dessa system inte – åtminstone inte ännu – tänker. Men frågan om hur vi ska tänka med dem faller vid sidan av dessa offentliga debatter.
Weatherbys essä ingår i en nyutkommen antologi med den i sammanhanget talande titeln Thinking With AI − Machine Learning the Humanities (2025). I bokens inledning framhåller den tyske filosofen och litteraturvetaren Hannes Bajohr att humaniora i dag utöver den kritiska analysen av en induktiv AI – som alltså lär sig utifrån historiska, »kontingenta« data – behöver undersöka vilken kunskap som kan alstras genom ett tänkande med AI:
I stället för att börja med reellt existerande, specifika AI-modeller och utforska deras användningar, faror eller potentialer, [bör man] fråga sig vilka begrepp, ramverk och metaforer som AI kan tillhandahålla och som kan användas för att produktivt reflekteras tillbaka på humaniora själv.
Med andra ord bör humanisterna använda AI som en »intuitionspump«, som han skriver med ett uttryck från Daniel Dennett.
I viss mån skulle man kunna hävda att det är i en sådan riktning som de senaste decenniernas digitala humaniora rört sig. I realiteten har dock maskinen oftast fungerat som ett redskap styrt av mänsklig hand och tanke, tillämpat för sökning, kvantifiering och presentation av data. Inget fel med det. Även en tuktad maskin kan givetvis producera viktiga forskningsresultat. Mindre vanligt har dock varit att låta teknologins operativa logik bilda en startramp för ett annorlunda tänkande, och detta trots alla visionära idéer i manifest och böcker som formulerades när digital humaniora etablerades som fält för sisådär femton år sedan.
Men på vilket sätt skulle artificiell intelligens kunna fungera som en »intuitionspump« och till och med bidra med ny kunskap? Är det inte just »kreativitet« och nyskapande tänkande som teknologin i sin induktiva tappning utesluter? Det beror på vad som menas. Att dessa program inte »tänker« eller »förstår« på det sätt som människor gör är givet. Det är skillnad på att, å ena sidan, genom beräkning och bearbetning av stora datamängder kunna skilja på bilden av en groda och en fink, och, å den andra, förstå att de bägge blir hungriga, har ont eller njuter medan den ena gillar att hoppa och kväka och den andra att flyga och kvittra. Den maskinbaserade förståelsen är begränsad och har svårt att hantera sinnlig, materiell, kulturell komplexitet. Men vid sidan av dessa begränsningar är den också något annat, och vari består denna annanhet?

Forskare och medieteoretiker som Beatrice Fazi och Luciana Parisi hör till dem som reflekterat kring i vilken mån den »dataformalism« (Fazi, »Can a Machine Think (Anything New)?«, AI & Society, 34, 2019) som karakteriserar generativ AI kan erbjuda ett särpräglat kunskapsbidrag. Enligt Parisi bidrar AI med ett »automatiserat tänkande« och en »denaturaliserande förnuftsprocess« (Parisi, »Critical Computation − Digital Automata and General Artificial Thinking«, Theory, Culture & Society, 36(2), 2019). Dock vill hon frikoppla dessa egenskaper från den enbart induktiva logik som förknippas med teknologin. Med inspiration från den amerikanske filosofen C. S. Peirce vill hon i stället framhäva maskinens abduktiva och hypotesskapande potential. Exakt hur en sådan »alien epistemology« ska beskrivas och begripas är inte alldeles enkelt att sammanfatta, men även hos Parisi bildar den relationella och ekologiska kontextualiseringen – ett sammankopplande med – ett ontologiskt grundantagande i analysen. Vändningen innebär inte heller, nödvändigtvis, en väg bort från den kritiska granskningen av AI. Snarare rör det sig om ett försök att vidga och nyansera förståelsen av vad »artificiell intelligens« kan vara och att reflektera kring teknologins funktionssätt och hur den kan vitalisera kunskapsarbetet.
I sammanhanget är det likväl svårt att skaka av sig frågan om huruvida AI:s utveckling leder till en förlust och en erosion av praktiker och metoder som varit centrala för att förstå inte bara människa-samhälle-kultur, utan också det som en mer begränsad humanism tenderat att utesluta − oavsett om man väljer att kalla det naturen, maskinen eller något annat.
Jag tänker särskilt på läsandets och skrivandets praktiker såsom de etablerats – men också varierats – under många sekel. Och, för att återvända till internatet som fick inleda denna essä: Vad händer med undervisningen och den kunskap som den antas utveckla i en tid och värld där maskiner står för snart sagt all produktion av texter och bilder? Riskerar inte kunskapen, som den franska kritikern Anne Alombert formulerat det i en aktuell essä, att förvandlas till en »vara« medan den klassiska undervisningens utbyte mellan lärare och elever »kortsluts«. Och kommer inte allt konstnärligt arbete och fri kunskapsbildning att underkastas ett programparadigm i vilket ett maskinmonster beslagtar alla ord − något Roald Dahl spekulerade om i sin novell The Great Automatic Grammatizator från 1953? Dahls novell är för övrigt på god väg att förverkligas. Redan i dag är de stora språkmodellerna i färd med att tillgodogöra sig allt digitalt tillgängligt språk. Väntar rent av, som medieteoretikern Matthew Kirschenbaum kallat det, en textpocalypse (»Prepare for the textpocalypse«, The Atlantic)?
Den maskinbaserade förståelsen är begränsad och har svårt att hantera sinnlig, materiell, kulturell komplexitet. Men vid sidan av dessa begränsningar den är också något annat, och vari består denna annanhet?
Utan tvekan finns här en räcka av akuta etiska, estetiska och politiska problem: kring arbete, avbildning, ansvar, autonomi, och så vidare – och fler kommer att uppstå. Problemen diskuteras flitigt i debatterna, och måste processas även i framtiden. Men frågan är om de kan lösas eller hanteras utifrån den binära föreställningsvärld som utkorar maskinen till ett hot eller − för den delen − en välsignelse. Som medieteoretikern Joanna Zylinska påminde om i en intervju för några år sedan har vi (människor) alltid varit artificiellt intelligenta. Och enligt antropologer och filosofer som André Leroi-Gourhan och Bernard Stiegler måste teknik och teknologi uppfattas som integrerade delar av det »mänskliga« livet.
Ur det perspektivet blir det viktigt att inte bara kritisera den »corporate AI«, som i samklang med världens börser utlovar och levererar ständigt nya produkter.
Kanske är det också nödvändigt att omformulera förutsättningarna, de ontologiska och epistemologiska villkoren för hela diskussionen om AI? Med sikte på mer ekologiska perspektiv, för att tala med Bridle, eller med betoning på ett med, för att knyta an till Bajohr, Weatherby och andra. I sin senaste bok, Bacteria to AI, utvecklar Katherine Hayles något som hon kallar för »integrerade kognitiva nätverk«, för att visa och undersöka hur kunskapsalstring pågår hos och mellan flera aktörer, biologiska såväl som teknologiska. Det är inte så otäckt som det kanske låter. Hayles är allt annat än en apokalyptiker. Hon formulerar inte några transhumanistiska visioner om en oändligt förstärkt människa – en »protesgud« som Freud en gång skrev. Inte heller förespråkar hon ett stilla accepterande av AI eller ett övergivande av nyttiga och njutbara aktiviteter som skrivande eller läsning. Vad hon erbjuder är ett sätt att se, som tar det ovan skisserade »med« på allvar och som kan avleda den manikeiskt anlagda storyn om framtiden genom att begrunda de meningsskapande verksamheterna hos olika livsformer. Och även om den politiska analysen av Silicon Valley och tech-företagens roll skulle kunna utvecklas, rymmer hennes arbete en viktig nyansering vad gäller relationen mellan mänskligt och icke-mänskligt.
Kanske är det också just antingen-eller-logiken och -dramatiken som utgör de största hindren i dagens debatt genom det sätt på vilket de låser tänkandet och reducerar möjligheterna till politisk handling. »Vi behöver inte frukta framstegen inom artificiell intelligens, men väl stagnationen av mänsklig intelligens«, menar Sybille Krämer i den essä jag citerade inledningsvis. I så fall ligger lösningen sammanfattningsvis i att insistera på och utveckla det som människor är bra på, men också i att förstå och interagera med maskinen på dess villkor, snarare än att prompt göra den till »vår« avbild. Uppgiften är angelägen, inte minst för att den kan hjälpa oss att främmandegöra det egna, synliggöra våra brister och reflektera kring en utformning av det mänskliga som kan samsas med andra intelligenser och aktörer på denna planet. Det är den, som helhet, i behov av.
Humanioras decennium är en essäserie som syftar till att inleda ett samtal kring de humanistiska perspektivens potential att forma debatten i aktuella samhällsfrågor. Serien finansieras av Lars Salviusföreningen.



