Wie ein autonomes Auto in Gefahrensituationen handelt, sollte eine unabhängige Instanz festlegen. Dieser Meinung sind 86 Prozent der Unternehmen aus der Automobilbranche, wie aus einer Umfrage des IT-Branchenverbandes Bitkom unter Geschäftsführern von Unternehmen mit mindestens 20 Mitarbeitern hervorgeht. Dass die Ethik der Roboterautos von den Softwareherstellern entwickelt wird, wollen vier Prozent, den Gesetzgeber sehen drei Prozent in der Pflicht. Die Autoindustrie selbst sehen nur zwei Prozent in der Verantwortung.
Die Kunden sehen die Frage der Ethik anders als die Industrie. Rund 34 Prozent vertrauen auf die Wissenschaft, jeder Vierte hingegen will die Autoindustrie in die Verantwortung nehmen. Fast genauso viele (24 Prozent) wollen, dass der Gesetzgeber die Regeln festlegt.
Unabhängig von der Umfrage sprechen sich die meisten Experten für einheitliche Regelungen aus, unabhängig ob diese von einer Kommission aus Ethikern, Technikern oder Politikern getroffen werden. Die Alternative, dass jeder einzelne Autohersteller seine eigenen Regeln anwendet, gilt als gefährlich. Dann nämlich würde die Programmierung des Fahrzeugs zu einem wichtigen Punkt bei der Kaufentscheidung. Und wer würde ein Auto kaufen wollen, dass bei einem unvermeidbaren Unfall im Zweifel seinen Fahrer opfert, um andere Schäden zu vermeiden? Die Folge könnte ein rigoroser Egoismus der Algorithmen sein. (sp-x)
Betroffener