Wenn KI in heiklen oder wichtigen Bereichen eingesetzt wird, sollen künftig strenge Regeln gelten. Die Kommission legte dafür bereits vor anderthalb Jahren den Entwurf einer KI-Verordnung vor. Über den Rechtsakt verhandelte im Herbst das EU-Parlament, was sich zäh gestaltet. Ende September hat die Brüsseler Behörde jedoch direkt das nächste Gesetz zur Künstlichen Intelligenz präsentiert – diesmal geht es um Haftungsfragen.
Komplexe Zusammenhänge
Im Mittelpunkt steht das Problem, dass es nach Fehlern eines KI-Systems für die Opfer sehr schwierig sein kann, Schadenersatz zu erhalten. Denn dafür müssen die Opfer Fehlverhalten nachweisen sowie eine Verbindung zwischen diesem Verhalten und dem Schaden. Zum Beispiel könnte die Software einer Bank einen Kunden fälschlicherweise für nicht kreditwürdig erklären, nachdem der Mitarbeiter das Programm falsch bedient hat. Deutlich folgenschwerer: ein autonom fahrendes Modell verursacht einen schweren Unfall mit Verletzten oder gar Toten. Aber den Zusammenhang zwischen einer Handlung und dem Endergebnis herzustellen, ist bei KI äußerst mühsam, weil die Systeme so kompliziert, intransparent und schwer vorhersehbar sind.
Beweislast umgekehrt
Darum gibt die Richtlinie Opfern das Recht, die Herausgabe der benötigten Informationen über die Systeme zu verlangen: etwa die Daten, mit denen die Software trainiert wurde, Nutzerprotokolle oder Angaben zum Qualitätsmanagement. Geschäftsgeheimnisse sollen allerdings geschützt bleiben.
Weigern sich die Unternehmen, kann dieser Anspruch vor Gericht durchgesetzt werden. Gelingt es trotzdem nicht, an die Daten heranzukommen, würde dies im Schadenersatz-Prozess gegen die Firma ausgelegt. Denn in dem Fall würde die Beweislast umgekehrt. Es wird nun davon ausgegangen, dass der verdächtig verschwiegene Konzern Sorgfaltspflichten verletzt hat – solange er nicht das Gegenteil belegen kann.
Hochwertige Systeme nötig
Außerdem erleichtert der Richtlinienentwurf Opfern die Beweisführung, wenn das Unternehmen Vorgaben aus der KI-Verordnung missachtet hat. Dieses Gesetz verlangt bei riskanten Einsatzgebieten, zum Beispiel im Verkehr, in der Medizin oder bei Kreditanträgen, dass die Daten, die zum Trainieren der Systeme verwendet werden, hochwertig sind und nicht bestimmte Gruppen diskriminieren.
Menschen müssen die Software einfach überwachen und zur Not schnell ausschalten können; die Arbeitsweise der Programme muss transparent sein. Verstoßen Anwender gegen diese Vorschriften, bleiben Opfer im Schadensfall davon verschont, einen ursächlichen Zusammenhang zwischen dem Versäumnis und ihrer Unbill nachweisen zu müssen. Die Beweislast liegt also wieder auf den Schultern der Konzerne.