John M. Raaheim stiller spørsmål på tekna.no om roboter kan være etiske eller uetiske. Det er jo nærmest uetisk å ta jobbene fra oss mennesker.
Forfatteren Isaac Asimov satte allerede i 1942 opp regler for robot-etikk: 1) at roboter ikke må skade mennesker, 2) at de må adlyde mennesker om det ikke bryter med 1), og at roboter kan beskytte seg selv om det ikke bryter med 1) eller 2).
I dag opplever amerikanere å bli fratatt førerkortet fordi en algoritme forveksler to ansikter. Kan en legge noe ansvar på roboten?
– Hva med deep learning, maskinlæring, der robotene lærer selv og av hverandre? Kan slik utvikling løse utfordringene? Her er det ikke en programkode man kan gå etter for å finne ut hvorfor roboten handlet som den gjorde og det blir en utfordring i seg selv. Vil mennesker kunne stole på slike roboter?hva med deep learning, maskinlæring, der robotene lærer selv og av hverandre? Kan slik utvikling løse utfordringene? Her er det ikke en programkode man kan gå etter for å finne ut hvorfor roboten handlet som den gjorde og det blir en utfordring i seg selv. Vil mennesker kunne stole på slike roboter?
Hva om robotene i framtida blir så intelligente at vi må stilling til om de har krav på moralsk verdighet, med lovbeskyttelse av rettighetene deres?