Maskinerna kommer att behöva moral
Vem ska dö? Barnet som springer ut framför bilen eller passageraren? Det är en fråga som framtidens programmere av bilar måste ta ställning till.
Om ett barn plötsligt springer ut framför en självkörande bilen ska bilen då fortsätta framåt, vilket innebär att barnet dör? Eller ska bilen köra in i betongväggen intill vilket leder till att passageren dör? För filosofer och forskare blir maskinmoral en viktig fråga för framtiden.
Redan i dag har google-bilen varit inblandad i ett fåtal olyckor, vanligast är att bilen körs på bakifrån av en mänsklig bilist. Den nya tekniken verkar säker men väcker ändå flera filosofiska frågor.
Moralfilosofen Sofia Jeppson, Göteborgs universitet, säger att man måste väga in sannolikheten att situationen med barnet framför bilen uppstår.
– En självkörande bil ska köra bättre än människor. Om fallen där de ändå dödar någon är mycket sällsynta blir det inte så viktigt att programmera in en moral. Då kan det vara bäst att programmera den så att bilen bara bromsar allt vad den kan, säger hon.
Om en maskin ändå måste programmeras med en moral så lutar Sofia Jeppson åt att en maskin då ska ta hänsyn till antalet offer. Om bilen får välja att krocka med en person eller fyra ska den ta en person.
En annan fråga för samhället att reda ut blir vem som ska ta det juridiska ansvaret då en självkörande bil är med i en olycka.
Är det biltillverkaren, programmeraren eller kan vi i framtiden ställa artificiella intelligenser inför rätta?
LÄS OCKSÅ: