I en värld av nya smarta maskiner och tillbehör, som styrs av programmering och komplexa algoritmer, så behöver inte bara funktionerna för hur önskade och avsedda skeenden hanteras… Även mindre önskade - och ibland rentav katastrofala - skeenden behöver en digital Plan B. För hur skall egentligen en självkörande bil programmeras om en fotgängare med barnvagn oväntat och på kort avstånd dyker upp framför elmotorhuven? Skall den via sina sensorer och programvara undvika att döda fotgängaren och barnet genom att svänga bilen åt sidan rakt in i den kanske enda utvägen – betongfundamentet bredvid? Så att istället passagerarna dör av väjandekollisionen?
Forskare vid amerikanska MIT har tittat på hur våra attityder och egen moral påverkar om vad vi tycker fordonet skall göra. För i slutändan är allt ju programmerat av människor som valt en moralisk strategi på det förhoppningsvis kollisionsfria livets väg. Testet kan du själv göra på http://moralmachine.mit.edu och på så vis bidra till forskningen samtidigt. Du ställs inför ett antal moraliska vägval där du skall bedöma och ta ställning till dilemman när liv och död står på spel. Hur skall maskinen tänka och göra? Vem skall få leva och vem skall offras?
Hittills har 10 miljoner enkätsvar matats in i databasen. De människor som enligt deltagarna i första hand fått störst moralisk sympati för att få överleva i de olika simuleringarna är enligt MIT:s resultat: kvinnor, barn, rika och vältränade (!)
Spaningen är att när vi nu släpper in mer och mer avancerade programvaror, robotteknik och vardagsalgoritmer i våra liv så behöver vi mer än någonsin fundera på vad som är rätt och fel. Vad tycker vi – egentligen? På sista raden!?
Delikat fråga utan digitala moralkakor. Bara den bittra eftersmaken om vi programmerar fel. Den glada nyheten är i alla fall att ju fler mänskliga faktor-moment vi tar bort – desto mer väloljat flyter maskineriet. Utom när det oväntade händer. När etik och maskinmoral har det sista binära ordet.
Comments