Lite nervös men laddad med förhoppningar kliver du in genom dörren. Där på bordet framför dig står något som mest kan liknas vid en trådlös högtalare. Men den här varianten har en bildskärm.

Ett datoranimerat ansikte ber dig att sätta dig ner och anställningsintervjun kan börja. 

Du sitter framför en robot som struntar i hudfärg, sexuell läggning eller vilka kläder du har utan endast dömer dig utifrån din lämplighet. Hej då diskriminering!

Om du inte får jobbet så kan du vara 100 procent säker på att det beror på dina egna tillkortakommanden. Eller? 

Den här roboten, som heter Tengai, struntar i om du hälsar med ett slappt handslag. 

Vissa beskriver det som ett stort framsteg. Vi sparar tid, pengar och det blir mer rättvist.

Andra varnar för att vi håller på att tappa kontrollen över beslutsprocessen.

När fler tvingas jobba hemma och konsumtionsmönstrena förändras så rullas nya IT-lösningar ut i en takt som vi förr bara kunnat drömma om. 

Rekryteringar är bara en av frågorna. 

Roboten Tengai kan göra intervjuer på bland annat japanska, engelska och svenska.

I dag är det få som möter en robot då de ska söka ett jobb. Men bakom kulisserna jobbar artificiella intelligenser i tysthet med att sålla ut vilka som ska kallas till intervju.

Två tredjedelar av alla cv:n som skickas in i USA kollas inte längre av människor. Och under pandemin när allt fler jobbar hemma så lutar sig arbetsgivarna allt mer på digitala stödsystem, uppger det globala servicefacket UNI i en rapport

Storföretag som Hilton, Unilever, Adecco och nästan 700 andra arbetsgivare använder sig av techbolaget HireVue då de ska rekrytera.

Den som söker jobb får ett antal frågor att svara på framför en webbkamera. Därefter analyseras ansiktsuttryck, tonfall och ordval och arbetsgivaren får sedan en bedömning av den sökandes ”anställningsbarhet”.

Enligt HireVue så har närmare 20 miljoner anställningsintervjuer gjorts på detta vis.

66 % Så stor del andel av alla cv:n som skickas in i USA granskas endast av en dator.

Ett annat företag, Clearspeed, påstår att det genom att analysera rösten kan avgöra om en intervjuperson ljuger eller inte. Företaget marknadsför sitt program som ett sätt att avslöja anställda som stulit eller fuskat.

Men forskare hävdar att det är omöjligt att endast genom ett kort röstprov avgöra om en person ljuger eller inte. 

Samtidigt är efterfrågan på liknande programvaror mycket stor.

Christy Hoffman som är generalsekreterare på det digitala servicefacket Uni säger att hon har stor förståelse för det. 

– Bara vår lilla organisation får in över 100 ansökningar när vi utlyser en tjänst. Att gå igenom alla tar lång tid så det finns stora möjligheter att spara tid.

Det finns många som varnar för att om algoritmerna skrivs fel så kan datorerna sålla bort personer på grund av hudfärg, sexuell läggning eller klassbakgrund. 

Men Christy Hoffman anser att vi redan har de problemen i dag. 

Christy Hoffman, Uni:s generalsekreterare.

– Jag kommer själv från USA där rasmotsättningarna är starka och den som till exempel har ett spanskklingande namn blir sällan kallade till intervjuer.

Hon håller med om att det finns en risk att dåliga algoritmer kan förstärka den diskriminering som redan finns. I en värld med många vita medelålders män på topposter så är risken stor att mjukvaran drar slutsatsen att just vita män är bäst lämpade för de högst avlönade jobben, i stället för att se till kompetens.

– Jo, så kan det vara men jag ser betydligt större faror efter att anställningarna har gjorts, säger Christy Hoffman. 

I Albanien tvingade det internationella callcenterföretag Teleperformance sina anställda att ständigt ha webbkameror påslagna då de jobbade.

Eftersom de jobbade hemma var det flera som stördes över att deras sovrum, kök eller arbetsrum skulle bevakas av arbetsgivaren. Men när de fackliga företrädarna protesterade fick de sparken.

Landets datainspektion satte dock nyligen stopp för kameraövervakningen. Uni är övertygade om att den här typen av konflikter kommer att bli allt vanligare. 

Många ser Amazon som främst en näthandelsjätte men företaget satsar stort på att även samla in och analysera information.

Dess senaste satsning heter Amazon Panorama, en artificiell intelligens som används för att bland annat analysera bilder från övervakningskameror.

Genom att övervaka maskiner, anställda och kunder i till exempel en butik kan man undvika allvarliga olyckor, minska köer och spara stora pengar på att förebygga problem som kan uppstå i industrier. Men det finns även andra användningsområden.

Algoritm

Algoritmer är matematikernas ord för en lista med instruktioner. Man kan säga att receptet vi följer för att baka en sockerkaka är en algoritm. Men i datasammanhang använder sig algoritmer av ekvationer så att vi kan söka på nätet eller analysera olika data vi får fram. 

Amazon säljer nu sin IT-lösning, som även innebär att företag kan kontrollera att anställda bär munskydd. Dessutom kan arbetares prestationer och till och med ansiktsuttryck övervakas och bedömas på ett sätt som aldrig tidigare varit möjligt.

Frågan är var gränsen för de anställdas integritet går. 

– Anställda vågar inte säga nej till övervakning eftersom de riskerar att få sparken då. I många länder är de fackliga organisationerna så svaga att det inte har möjlighet sätta stopp för det här. Det är ett stort demokratiskt problem, säger Christy Hoffman.

Det globala servicefacket Uni vill att algoritmerna ska göras tillgängliga för insyn samt att det i slutändan också ska finnas en människa som övervakar de allt mer automatiserade processerna. 

Även på den svenska arbetsmarknaden pockar digitaliseringsfrågorna på.

Ombudsmannen Martin Miljeteig på Transport säger att förbundet får in allt fler fall där logistikföretagens kunder kräver att få medicinsk information om chaufförerna som kör ut varor.

– Just nu är det ett företag som vill veta om våra medlemmar har antikroppar mot corona, säger han. 

Och samtidigt är techbolagen mer än villiga att sälja digitala lösningar till arbetsgivare. 

Allt fler jobbar hemma och techbolagen erbjuder lösningar på såväl möten som rekrytering.

Johan Magnusson på institutionen för tillämpad IT på Göteborgs universitet höjer, precis som många av hans forskarkolleger, ett varnande finger för utvecklingen. 

– Inte ens företagen som använder sig av algoritmerna har koll på hur bedömningen görs. Det är som att stoppa in siffror i en svart låda som det plötsligt ploppar svar ur som man litar på.

Johan Magnusson funderar på vad det innebär att nya IT-system rullas ut så snabbt under pandemin. 

– På samhällsnivå är det ett massivt experiment som pågår just nu.

Han tar Storbritannien som exempel.

– Där har socialtjänsten tagit fram en app som man behöver identifiera sig i för att få socialbidrag. Men genom appen får socialtjänsten insyn i dessa människors liv. Det har gjort att vissa kommit in mer i samhället. Men sedan finns även en grupp som vägrar att låta sig övervakas. De får då inte socialbidrag och har därför marginaliserats ännu mer än tidigare.

Risken är att skillnaderna ökar. 

– När vi designar digitala lösningar tar vi sällan hänsyn till utsatta grupper. Om man inte får med dessa grupper så får vi ett demokratiskt problem, säger han. 

I datasystemen finns alltid, enligt honom, ideologiska aspekter inbyggda. 

– De allra flesta program är skrivna av 27-åriga killar. Det är en sak. En annan sak är att programmen anpassas efter olika länder och kulturer. Om ett företag köper in ett affärssystem från Tyskland eller USA så får det med ett system som bygger på en helt annan ledningsfilosofi än den vi har i Sverige.  

Det finns flera exempel på hur mjukvara diskriminerat. I USA fick personer som bodde i områden med etniska minoriteter betala ett högre pris då de beställde en taxi med Uber. Uthyrningstjänsten AirBnB visade inte vissa bostäder för svarta intressenter. 

Johan Magnusson ser fackens krav på ökad insyn i hur algoritmerna är uppbyggda som helt naturliga. 

– Det behövs ökad transparens, säger han.

Men nästa fråga blir vad samhället ska göra med kunskapen?

Det finns en enorm mängd algoritmer där ute och fackföreningar är inte kända för att locka till sig världens främsta matematiker. Hur mycket tid ska ombudsmännen ägna åt att fundera på ekvationer?

Christy Hoffman på Uni säger att det troligen inte är möjligt, eller kanske ens viktigt, att gå in i varje enskilt program.

– Det vi ska titta på är vilka konsekvenser dessa program får för arbetarna och agera på det. Det är viktigare än att vi går in och analyserar enskilda algoritmer.

Effektivt men riskfyllt

Algoritmer används allt oftare för att fatta beslut. I det amerikanska rättssystemet används algoritmer som en vägledning för att avgöra såväl påföljder som att bedöma om en person ska släppas mot borgen eller inte. Systemet har skapats för att utslagen ska bli så rättvisa som möjligt, men så har det inte alltid blivit.

I delstaten Kentucky beviljades länge personer av olika etnicitet borgen i lika hög utsträckning. Men när det 2011 blev obligatoriskt för domare att rådfråga algoritmen resulterade systemet i att betydligt fler vita än svarta försattes på fri fot. Algoritmen har skrivits om flera gånger men diskrimineringen har bestått.

De potentiella fördelarna är många. Företag spar tid och arbete. Samtidigt så finns en risk för att de matematiska formlerna förstärker diskriminering eller fattar oönskade beslut.

Ett exempel är de digitala plattformar som förmedlar gigjobb. Till stor del rationaliseras chefen eller arbetsgivaren bort då kunder via en app kan beställa taxi eller andra tjänster utan någon mellanhand. Arbetsköpare och säljare gör upp direkt. EU har gett sig in och vill reglera frågan. De anställda måste bli rättvist behandlade som vanligt anställda.