Autonome biler

Hjelp til å ta de vanskelige moralske beslutningene om å forbedre selvkjørende biler

Hjelp til å ta de vanskelige moralske beslutningene om å forbedre selvkjørende biler

Ettersom selvkjørende biler nærmer seg masseproduksjon, lurer mange på hvordan en maskin muligens kan ta vanskelige moralske avgjørelser når den blir presentert for en farlig situasjon. For eksempel må førerløse biler bestemme i tilfelle en overhengende krasj hvordan de skal styre for å bremse eller øke hastigheten, eller hva de skal treffe. Dette er åpenbart et moralsk spørsmål når menneskeliv eller dyreliv står på spill.

Et nytt program kalt Moral Machine samler inn data om hvordan mennesker bestemmer hva de skal gjøre under tøffe moralske omstendigheter, og du kan også spille.

Autonome kjøretøy blir virkelig dagens moralske valgmaskiner. Mens mange føler at en maskin ikke skal ha muligheten til å ta valg for menneskers liv, nærmer den tiden oss raskt.

I Moral Machine-spillet må du i hovedsak velge hvem som skal dø gitt et bestemt scenario. I mange scenarier er det ikke noe resultat, men dårlig, og til slutt må en bil programmeres for å ta dette valget.

Når du er ferdig med den korte testen, viser spillet deg hvem du foretrakk å spare mer og hvilke idealer du bryr deg mer om. Det er litt skummelt å bli presentert for sluttresultatet av en serie vanskelige moralske valg.

Du kan prøve spillet her.


Se videoen: CIA are drug smugglers. - Head of DEA said this too late for Gary Webb (Oktober 2021).