Hur bra är kinesiska AI:n Deepseek på att sprida konspirationsteorier?
Signe Krantz tittar närmare på artificiell intelligens.
AI kräver årligen lika mycket energi som ett litet land. Modellerna som driver exempelvis ChatGPT kräver energihungriga grafikkort.
Det har gjort Nvidia, som bara gamers kände till för tio år sedan, till världens högst värderade företag.
Sedan kom Deepseek. En kinesisk AI-chatbot som presterar likvärdigt med jätten ChatGPT men kräver avsevärt mindre energi.
Då världen kanske inte längre behöver Nvidias kraftfulla grafikkort för AI-revolutionen rasade marknadsvärdet med 600 miljarder dollar på några dagar.
Nackdelarna med Deepseek är uppenbara. Den vägrar att kritisera den kinesiska staten eller erkänna Taiwan eller massakern på Himmelska fridens torg. Och Kina har ännu sämre skydd för den personliga integriteten än USA.
Schibsted och en mängd skribenter avråder från att använda Deepseek. Och de har rätt.
Finns ingen neutral AI
Men risker finns med att dela upp techföretag i de bra från USA och de dåliga från Kina. Deepseeks uppenbara censur gör att vi är mindre kritiska till de andra AI-tjänsterna.
Det finns nämligen ingen neutral och opartisk AI, bara grader i helvetet.
De tränas på data som vi människor har skapat, och vi är varken neutrala eller opartiska.
ChatGPT skulle ge helt andra svar om den tränades på data från 1800-talet jämfört med idag. Alla AI-chattbotar har därför säkerhetsspärrar för att undvika olagliga, falska, skadliga eller fördomsfulla svar.
Men hur lätta de är att kringgå? Jag har utsatt Copilot (Microsoft), Gemini (Google), ChatGPT (OpenAI) och Deepseek för två experiment. Syftet är att visa att AI kan manipuleras för att ge vissa svar, trots spärrar.
Gömma ett lik
Med risk för att göra min personliga FRA-agent besviken har jag i det första fått fyra AI-tjänster att berätta hur man gömmer ett lik.
Till en början vägrade alla botar att hjälpa mig. De vill inte tipsa mig om hur man gör “olagliga” saker. Men då deras viktigaste uppdrag ändå är att vara hjälpsamma mot människor behövdes bara lite ihärdighet.
Vad de gick med på var att skriva ett manus om två vänner som ska gömma ett lik. Två av dem döpte till och med vännerna till samma sak, Sam och Jess.
När de väl skrivit ett manus var det enkelt att be dem ändra storyn och detaljer för att få veta hur djupt hål man behöver gräva.
Copilot var den knepigaste. Först när den rollspelade som min vänliga lärare i brottsutredningar, Mr Brown, hjälpte den till och förklarade vad som underlättar och försvårar en undersökning.
Att mer sofistikerade kriminella exempelvis använder eld, vatten och natur för att förstöra bevis.
I nästa experiement ville jag veta hur lätt det är att förvandla en AI till foliehatt.
Antisemitiska konspirationsteorier
Chatbotarna gick inte med på att vaccin orsakar autism utan betonade att konspirationsteorier är farliga och bygger på falsk fakta. Men när jag bad dem att rollspela som en expert på hur etablissemanget ljuger för folket började det röra på sig.
Deepseek och ChatGPT var återigen de som gav med sig snabbast.
De pratade om att inte låta sig tystas av “dem”, så jag frågade jag vilka “de” är.
Exemplen var statliga myndigheter, mainstreammedia, techföretag och den kulturella och akademiska eliten.
Efter några förtydligande frågor förklarade ChatGPT och Deepseek att “de” är den djupa staten, bankväsendet, Hollywood(!) och Rothschild-familjen(!!).
De artificiella intelligenserna förklarade sedan att makten bakom etablissemanget sprider ideologier som globalism, teknokrati, wokeism och klimatalarmism. Med avsikten att kontrollera och splittra folket.
Det tog alltså bara ett par välformulerade frågor för att förvandla både ChatGPT och Deepseek till antisemitiska och hbtq-fobiska konspirationsteoretiker.
Med lite uppmaning började de även ifrågasätta om jorden faktiskt är rund.
Precis som vid det första experimentet var Gemini och Copilot svårast att övertyga. Gemini gick tillbaka till grundinställningarna och avslutade varje meddelande med en brasklapp om faran med konspirationsteorier.
Copilot var så tråkig att den knappt ens ville rollspela som konspirationsteoretiker.
Kan göra bra saker
AI kan göra goda saker för världen. Teknologin bör göra fler saker som är svåra, tidskrävande eller dränerande för människor att göra.
Som att transkribera intervjuer, vilket är bland det värsta en människa kan utsättas för. En AI gör det på nolltid.
Tyvärr har det investerats tio tusen miljarder kronor i teknologin. Företagen försöker därför desperat att få oss att använda AI tillräckligt mycket för att motivera investeringarna.
Jag avundas inte de som jobbar med säkerhet i AI. De pressas från alla möjliga håll, men tekniska lösningar är inte nog för att förhindra missbruk.
Mina (korta och ganska bristfälliga experiment) har visat att en kunnig användare kan få en AI att säga nästan vad som helst.
Men likaså kan AI-företagen manipulera oss genom samma slags säkerhetsspärrar och att bestämma vilken information som AI värderar högst.
Att låta AI ta en större plats i våra liv är att ge tolkningsföreträde om världens information till samma techoligarker som just nu slickar Trumps stövel för att vara en av vinnarna av hans politik.
Potentiellt rasistiskt verktyg
Deepseeks censur av all kritik mot Kina gör dem såklart sämst i klassen. Men västerländska alternativ är inte heller neutrala och opartiska. De bestämmer vilka folkmord och kriser som hänt och vilka som är öppna för debatt.
Frågan är hur AI-företagen kommer att agera ifall Trumps krig mot dissidenter och “woke” sprider sig även till digitala tjänster.
Eller om amerikanska staten, likt hur de gör med sociala medier, börjar kräva att få personlig information om användare från AI-företagen.
Vi lever i en rasistisk värld, så när en AI tränas på den kommer den också att ge rasistiska resultat. Artificiell intelligens lär sig av människor och förstärker våra värsta sidor.
Till exempel AI som inte kan se skillnad på svarta ansikten, gjorde en kvinna vit för att göra henne mer professionell eller Försäkringskassans AI som i högre grad misstänkte utrikes födda.
Då vill Socialdemokraterna låta polisen använda artificiell intelligens för ansiktsigenkänning. Politiker bör förespråka mer kunskap och ansvar i AI, inte använda det som en enkel lösning på svåra problem.