Gå till innehållet
Gå till startsidan

Ett bättre arbetsliv kräver modig journalistik

Sök

Nya ChatGPT är en gåva till alla creeps och galningar

Magnus Dahl testade OpenAI:s nya modell med geoguessing och fick en obehaglig överraskning.

Efter påskhelgens flodvåg av semesterbilder i sociala medier är det dags att ta en funderare över vilka digitala spår vi egentligen lämnar efter oss. 

Särskilt med tanke på att tekniken för att identifiera exakt var bilder har tagits just tog ett jättekliv framåt.

Förra veckan lanserade OpenAI flera nya modeller till sin populära chatbot ChatGPT.

En av dem, o3, har snabbt visat sig vara mycket skicklig på så kallad ”geoguessing” – att utifrån detaljer i ett fotografi lista ut var det är taget någonstans. 

Jag testade på skoj genom att ladda upp en gammal bild från en promenad på stan med min son.

AI:n prickade 100 procent rätt. Jag prövade med några fler bilder – utsikten från mitt vardagsrum, några gamla selfies, lite offentlig konst – med ungefär samma resultat. 

Som sämst placerar den bilden i fel del av rätt stadsdel.

Laddade upp bild från New York

Därefter laddade jag upp en bild från New York en kompis nyss publicerade på Instagram. Resultatet? o3 missade den faktiska platsen med 109 meter.

En olustig känsla infinner sig.

Geoguessing-funktionen fungerar extra bra i storstäder där AI:n har haft gott om träningsmaterial. o3 har fått öva på oräkneliga mängder geotaggade fotografier, och sannolikt är stadskärnor, populära turistmål, hotell och restauranger överrepresenterade. 

Det innebär att AI:n i dagsläget är betydligt skickligare på att placera bilder från Manhattan än från, säg, Upplands Väsby. 

Potential för polisstat

Det krävs ingen expertkunskap för att använda ChatGPT så här – man laddar bara upp en bild och AI:n sköter resten.

Den analyserar metadata, förstorar olika delar av bilden, och använder filter för att avläsa text på skyltar, detaljer på byggnader eller andra identifierande drag. 

AI:n kompletterar analysen med sökningar på internet och bildjämförelser. Tycker den att det ser ut som Turning Torso på bilden, ja, då letar den reda på Turning Torso-bilder och jämför.

Teknologi med potential för fullskalig polisstat. Nu i var mans ficka. 

Fin vårpresent till alla creeps

Det här är verkligen en fin vårpresent till alla creeps och galningar därute.

Längs vilken gata promenerar influencern i sin nya story?

På vilket hotell semestrar exet med sin nya partner? Var ligger lekparken förskolan la upp en bild ifrån?

Konsekvenserna är särskilt allvarliga för personer med skyddad identitet eller som lever under hot, för politiker, företagsledare och kändisar.

Men kort sagt alla som på något sätt dokumenterar sina liv online, får räkna med att vem som helst, med mycket liten ansträngning, kan ta reda på var de befinner sig.

Som någorlunda tänkande människa undrar jag: Hur kan en sån här funktion släppas lös för vem som helst att använda? Ser inte OpenAI hur den kan missbrukas? 

Säkerhetstester

Enligt AI-experten Magnus Gille har OpenAI riktlinjer och säkerhetstester, men…

– När jag själv testade att få o3 att läsa registreringsskyltar på en bild nekade den, av integritetsskäl. Men det gick enkelt att kringgå begränsningarna genom att omformulera frågan, säger han.

OpenAI har redan fått kritik från många håll för att prioritera snabba lanseringar framför säkerhet, och flera framstående anställda har lämnat företaget just på grund av detta.

– Konkurrens med andra AI-företag, eller för den delen farhågor om att Kina kommer att springa om USA, driver gissningsvis OpenAI att ta större risker för att behålla sitt försprång, säger Magnus Gille.

Men det slutar inte där. Gille pekar på ännu större risker:

– Det är inte svårt att föreställa sig hur stater skulle kunna använda AI som o3 för massövervakning och åsiktsregistrering. Tekniken skulle även kunna användas av kriminella som vill kartlägga personer och skapa skräddarsydda bedrägerier.

Krossas i techbolagens mortel

Mitt i allt detta finns vi vanliga människor som bara försöker leva våra liv utan att krossas i techbolagens mortel.

Hur ska vi hantera att denna sjuka dystopiska övervakningsteknologi plötsligt existerar i samma manick som man kollar ”epic parking fails”-reels på?

En sak är säker: Framåt måste vi utgå från att om vi lägger upp foton på internet, så kommer alla som vill också att kunna ta reda på var de är tagna.

Att dölja sina barns ansikten på fotografier räcker inte för att hålla dem anonyma. Att låta bli att tagga platsen på sina Instagram-inlägg är inte nog.

I någon mening är det bra att den här typen av teknologi lanseras brett, för den gör det så smärtsamt tydligt hur övervakade vi är. Eller kan bli.

Om jag kan göra det här med min spruckna iPhone från 2021, vad kan då inte världens säkerhetstjänster, brottssyndikat och totalitära regimer göra? 

Den enda rimliga hållningen måste bli att vi slutar dela bilder på våra liv offentligt.