Tänk dig att du ska åka på semester – med tåg, för att undvika flygskammen. Du bokar dina resor, svär över tågpriserna, och bestämmer dig för att kompensera med billigt boende.

Du skriver in dina inloggningsuppgifter på sajten du de senaste åren använt för att boka rum och får upp ett felmeddelande. Kontot existerar inte. 

Efter några frustrerade försök för att säkerställa att du inte sluntit på tangentbordet, öppnar du din mail för att skicka ett starkt formulerat klagomål till kundtjänst.

Det är då du får reda på att du trots flera års positiva omdömen blockats från tjänsten. Anledningen? Att AI inte gillade något du skrev i sociala medier.

Sedan sociala medier blev en betydande del av vår vardag har det fört med sig diskussioner om hur de åsiktsmodereras.

Ena sidan bidrar med ramaskrin över bristen på åtgärder mot främlingsfientliga eller högerextrema aktörer, samtidigt som stora delar av den konservativa högern beklagar sig över vänsterliberala åsiktskorridorer. 

Artificiell intelligens är inte ett facit på en människas pålitlighet eller värde, då den bara är kapabel till precis det vi sagt åt den att göra

Myra Åhbeck Öhrman

I IT-monopolens tid där vi blir mer och mer beroende av infrastruktur vi byggt upp online, blir det svårare att försvara datajättarnas rätt att själva godtyckligt bestämma vilka som får nyttja deras tjänster. 

Nyligen publicerade Europeiska Patentverket att ett patent för marknadsplattformen Airbnb, som förmedlar kontakt mellan privata uthyrare och hyresgäster för tillfälligt boende, beviljats.

Patentet gäller en AI-tjänst avsedd att, som komplement till kreditvärdighet, mäta användares “pålitlighet och kompatibilitet” för att avgöra huruvida de är lämpliga hyresgäster. 

Bland annat genom att söka igenom personers närvaro i sociala medier och dra slutsatser om deras personlighet och beteenden.

Några av de avvikande beteenden som kan leda till att du markeras som opålitlig är att du sålt sex i någon form, kopplingar till droger, alkohol eller hatsajter, och – notera att det här är ett direkt citat – att ha ”författat onlineinnehåll med negativt språk”.

Det är svårt att inte dra paralleller till Kinas dystopiska sociala kredit-system, där medborgarna ska fostras med hjälp av datainsamling som poängsätter deras handlingar online och i köttvärlden.

Systemet innefattar bland annat massövervakning med ansiktsigenkänning och kartläggning av beteenden, inköp och åsikter, och bygger även det till stor del på att AI tillåts göra en bedömning av din lämplighet som människa. 

I IT-monopolens tid där vi blir mer och mer beroende av infrastruktur vi byggt upp online, blir det svårare att försvara datajättarnas rätt att själva godtyckligt bestämma vilka som får nyttja deras tjänster

Myra Åhbeck Öhrman

I november förra året läckte styrdokument från de stora fångläger för minoriteter som finns i regionen Xinjiang.

De visade att data som samlats in och analyserats av artificiell intelligens fått ligga till grund för beslut om vilka grupper som skulle låsas in. 

Ett stort kliv, kan tyckas, mellan att tvingas till arbetsläger och det obekväma i att inte kunna använda en viss sajt eller bokningstjänst.

Frågan vi behöver ställa oss är på vilka premisser vi låter ett företag eller en regim samla in och använda data för att straffa eller utestänga oönskade element.

Artificiell intelligens är inte ett facit på en människas pålitlighet eller värde, då den bara är kapabel till precis det vi sagt åt den att göra.

Analyser är beroende av de variabler vi matat in, och är därför inte mer objektiva än inmataren.

Det kan tyckas som ett lyxproblem att porrskådisar plötsligt inte kan boka boende via Airbnb.

Inte fullt så lyxigt är insikten att vi skapar ett samhälle där marknadskrafterna ges mandat att bedöma ditt människovärde.