This post is a reply to a column in Göteborgs-Posten by Håkan Boström, where he argues that AI risks weakening the political craft by letting politicians, civil servants, and voters outsource too much of their own thinking to technical systems.
I agree with that concern, but I think it captures only one side of the problem. The greater political risk may not be the careless user who trusts AI too much, but the capable AI-augmented actor who learns to steer, verify, and exploit machine-speed work before political institutions understand what has changed.
Håkan Boström har rätt i att AI kan urholka det politiska hantverket. Om politiker, tjänstemän och väljare börjar använda AI för att slippa läsa, tänka, skriva, pröva och förstå, då försvagas de förmågor som politiken ytterst vilar på.
Men det är bara halva problemet.
Den större risken är inte den politiker som okritiskt låter en språkmodell skriva ett tal, formulera en fråga eller sammanfatta en utredning. Den personen är ofta ganska lätt att upptäcka. Källorna blir fel. Tonen blir generisk. Resonemanget saknar egen tyngd. Misstaget blir offentligt, pinsamt och därmed möjligt att korrigera.
Den verkligt intressanta och farliga aktören är en annan: den AI-förstärkta politiska aktör som inte använder AI som facit, utan som förstärkt arbetskapacitet.
Det är en helt annan kategori.
En sådan person ber inte maskinen "skriv något bra om skolan". Hon använder AI för att analysera invändningar, hitta svaga punkter i motståndarens argument, simulera väljarreaktioner, stresstesta formuleringar, jämföra policyalternativ, kartlägga konsekvenser och producera tio rimliga handlingslinjer medan andra fortfarande väntar på mötesunderlaget.
Det handlar inte om tillit. Det handlar om styrning.
Frågan "kan vi lita på AI?" är därför ofta felställd. Hur många människor bör man lita på till hundra procent? Ingen, rimligen. Vi litar inte ens på erfarna kollegor utan korrektur, motfrågor, källkontroll, ansvarsfördelning och omdöme. Varför skulle en AI, tränad på mänskligt språk, mänskliga misstag, mänsklig retorik och mänskliga sannolikheter, behandlas som ett orakel?
Den kompetenta hållningen till AI är inte tro. Den är kalibrerad misstro.
Man använder tekniken därför att den är kraftfull, inte därför att den är sann. Man formulerar vad som ska uppnås. Man anger vad som inte får brytas. Man begär motargument. Man kontrollerar källor. Man testar påståenden. Man kastar svaga svar. Man använder modellen som ett snabbt, ojämnt, användbart och farligt arbetsredskap -- inte som auktoritet.
Det är här den politiska diskussionen fortfarande är märkligt omogen. Den fastnar gärna i bilden av AI som antingen genväg eller hot. Antingen som ett fuskverktyg för lata tjänstemän, eller som en nästan mytologisk kraft som riskerar att ta över människans tänkande. Båda bilderna missar den mer jordnära förändringen: när AI gör produktion billig flyttar flaskhalsen från arbete till styrning.
Att skriva text blir billigare. Att producera underlag blir billigare. Att skapa alternativ blir billigare. Att formulera frågor, svar, angrepp, repliker och sammanfattningar blir billigare.
Då blir det svåra något annat.
Vad är syftet? Vilka gränser får inte överskridas? Vilket påstående måste kunna bevisas? Vilken konsekvens är acceptabel? Vilken källa håller? Vilken förenkling är intellektuellt hederlig och vilken är manipulation? Vilket beslut bör fattas när maskinen kan producera hundra plausibla svar på några minuter?
Det är där den politiska risken ligger.
Boström oroar sig med rätta för inlärd hjälplöshet. En yngre tjänsteman som låter AI skriva rapporterna utan att själv bygga förmågan att bedöma dem får inte bara sämre skrivförmåga. Han får sämre omdöme. Han lär sig inte var resonemang brukar gå sönder, vilka källor som brukar svikta, vilka formuleringar som döljer osäkerhet och vilka slutsatser som egentligen inte följer av materialet.
Den risken är verklig.
Men samtidigt uppstår en motsatt asymmetri. De som redan har tillräcklig kompetens för att granska, styra och korrigera AI kan få ett enormt försprång. Inte genom att bli "ersatta" av tekniken, utan genom att använda den som förstärkt intellektuell och administrativ kapacitet.
I ett företag leder det till en förskjutning av flaskhalsen. Organisationen får inte längre främst problem med att producera mer, utan med att välja, verifiera, integrera och koordinera allt som nu kan produceras. I politiken är detta ännu farligare, eftersom de politiska institutionerna fortfarande är byggda kring mänsklig arbetstakt.
Remisser, utskottsarbete, myndighetsberedning, journalistisk granskning, partiinterna processer och offentlig debatt är långsamma system. De bygger på antagandet att politiskt arbete tar mänsklig tid. Att någon måste läsa, skriva, sammanställa, ringa, kontrollera, formulera och förankra.
Men en skicklig AI-förstärkt aktör kan göra mycket av detta i en helt annan hastighet.
Det betyder inte att resultatet automatiskt blir klokare. Tvärtom kan hastigheten göra dumhet farligare. Men det betyder att aktören kan testa fler vinklar, producera fler initiativ, svara snabbare, anpassa budskap mer precist och flytta trycket i det politiska systemet innan motparten ens hunnit formulera vad som hänt.
Ingen lag mot AI-genererad text stoppar detta. Ingen byråkratisk rutin stoppar det heller. De mest kompetenta användarna kommer inte nödvändigtvis att skylta med sin användning. De kommer inte säga "det här är skrivet av AI". De kommer bara framstå som ovanligt snabba, ovanligt pålästa, ovanligt produktiva och ovanligt välförberedda.
Det är dessa aktörer som bör tas på störst allvar.
Den politiska debatten kan mycket väl bli dummare av AI. Men den kan också bli mer asymmetrisk. Några kommer använda AI som krycka. Andra kommer använda AI som hävstång.
Det förra ger förslappning. Det senare ger maktförskjutning.
Och det är där diskussionen borde börja. Inte i frågan om AI ska användas i politiken -- det kommer den att göra. Inte heller i frågan om AI går att lita på -- det gör den inte, åtminstone inte mer än människor går att lita på utan kontroll.
Den viktiga frågan är vilka politiska aktörer som lär sig styra tekniken innan institutionerna lär sig förstå vad sådan styrning innebär.
För när själva produktionen av politiskt material blir billig, snabb och nästan obegränsad, blir det politiska hantverkets kärna inte att skriva mer. Det blir att hålla fast vid syfte, gränser, ansvar och verklighetskontakt när maskinen kan ge dig hur många möjliga vägar som helst.
AI gör inte nödvändigtvis politiken intelligentare, men den kommer att göra skillnaden mellan passiva och skickliga politiska aktörer mycket större.