”Vad har ministrar och AI gemensamt? Hallucinationer”
Regeringens AI-användning väcker frågor om både kompetens och trovärdighet, skriver AI-utvecklaren och SSU-medlemmen Asajad Hussein.
Kristdemokraternas partiledare Ebba Busch (KD).
I en intervju med Dagens Industri berättade statsminister Ulf Kristersson (M) att han ofta använder AI i sitt arbete.
— Jag använder det själv rätt ofta. Om inte annat för en ”second opinion”. Vad har andra gjort? Och ska man tänka precis tvärtom? Den typen av frågor, säger han till tidningen.
AI-utvecklaren Asajad Hussein
AI används fel
Jag kan inte komma på en god anledning till varför en politiker skulle behöva använda AI i tjänsten istället för att rådfråga sina experter. Eller jo, det finns ett undantag:
Förra året jäklades Riksdagsledamoten Olle Thorell (S) med Sveriges ministrar genom att låta ChatGPT skriva över 200 skriftliga frågor som de var tvungna att besvara inom kort tid. Det funkade bra.
Som AI-utvecklare vet jag att AI inte är lika intelligent som den ger sken av att vara. I det första avsnittet av Open AIs podd erkände grundaren och vd:n Sam Altman att “Folk förlitar sig mycket på ChatGPT, vilket är intressant, eftersom AI hallucinerar. Teknologin borde inte förlitas på.”
Språkmönster ersätter fakta
Hallucinationer uppstår när AI lämnar falsk information och vilseleder användaren. Det beror på att AI-modeller arbetar med sannolikheter och mönster i språket, inte nödvändigtvis med verifierande fakta.
Dessa modeller kallas för LLMs (Large Language Models), och drivs av matematiska funktioner som gissar nästa ord baserat på en given sekvens.
Alltså, till skillnad från Google eller Bing så är AI-modeller inte sökmotorer, utan statistiska språksystem.
Anklagade journalist med falskt citat
Det senaste exemplet av hallucinationer är Ebba Buschs Almedalstal, där hon citerade kulturjournalisten Elina Pahnke. Den 14 augusti skrev Pahnke i Aftonbladet “av allt att döma är det inte ett citat som går att återfinna på nätet”.
Samma dag bad Ebba Busch om ursäkt och erkände i ett Facebook-inlägg att “Citatet kommer från en sökning via ett AI-verktyg”.
Regeringen passiv trots bevis
Med detta i bakhuvudet kan jag inte låta bli att undra över statsminister Ulf Kristerssons AI-bruk.
Mellan den 7 oktober 2023 fram till slutet av juni 2024 genomförde Israel 136 attacker om 27 sjukhus i Gaza, enligt en FN-rapport. Därefter kom ytterligare en attack mot Kamal Adwan-sjukhuset den 27 december 2024.
I ett uttalande till TT den 3 januari 2025 sade statsministern att “det inte gick att svara på om Israels attacker mot sjukhusen var inom ramen för proportionellt självförsvar”, som regleras av FN-stadgan. Statsministern menade alltså att det saknades bevis för att Israel brutit mot folkrätten.
Men i FN-rapporten, som publicerades fyra dagar före Kristerssons uttalande, står det tydligt i en fotnot till paragraf 37: “Israel har sannolikt brutit mot andra förpliktelser enligt människorättsfördrag genom belägring av sjukhus och nekande av sjukvård.”
Som utlovat, här är min första fråga till statsministern: Vilken AI-tjänst använde ni som källa till ert TT-uttalande?
Hur använder statsministern AI?
I juni 2025 reagerade statsministern starkt på bilderna från Gaza och sade i Studio Ett att “regeringen sätter hård press på Israel”.
Detta möttes av skarp kritik från Socialdemokraternas utrikespolitiska talesperson Morgan Johansson, som menade att regeringen inte verkat för att frysa avtalen mellan EU och Israel. Enligt honom är det som att regeringen ber om ursäkt för att Sverige för tio år sedan erkände Palestina.
Här är min andra fråga till statsministern: “Vad har statsministern och AI gemensamt?”
Efter att ha klurat en stund skickade jag frågan som en prompt till OpenAI för en “second opinion”.
ChatGPT svarade: “Hallucinationer.”