Moral Machine

test nel caso ipotetico voi siate un pilota automatico di un auto ma che si sono rotti i freni, chi salvate o chi invece mettete sotto?
bel bordello dover scegliere, come se un essere umano in caso di rottura di freni improvvisa e dovesse decidere in pochi secondi
avrebbe il tempo di fare la cosa giusta.

http://moralmachine.mit.edu/

mio risultato

http://moralmachine.mit.edu/results/1205356881
Il test è sbagliato di base imho.

Non puoi prevedere la morte, conta sempre lo scenario migliore, esempio:

Andare a sbattere contro una barriera e non contro persone è sempre preferibile perché a velocità codice (per esempio 50Km/hr in città) investire uno porta con buona probabilità alla morte o ferimento grave di questo, mentre battere alla stessa velocità contro una barriera, potrebbe comportare meno problemi agli occupanti del veicolo.
E in ogni caso la guida autonoma sarà una grande rivoluzione, visto che anche le routine di pacman sono migliori della guida del 70% delle persone....
http://gaming.ngi.it/showthread.php?t=583605&highlight=moral+machine

Comunque, riguardando la questione etica piuttosto che l'implementazione tecnica in una macchina a guida automatica, la discussione appartiene più a Filosofia che Scienze Matematiche, Fisiche e Naturali.
Il fatto che sia postata qui è di per sé preoccupante (certo, niente che non sapessimo già).
Fico!

http://moralmachine.mit.edu/results/-2075475416

W le donne e le persone grasse!

Ll.