Spätestens seit dem aktuellen Hype um "ChatGPT" ist das Thema Künstliche Intelligenz in aller Munde. Doch was ist genau unter Schlagworten wie "KI", Deep Learning, Chatbots oder Sprachmodellen zu verstehen? Was darf vom Autonomen Fahren erwartet werden? Und wie können Automotive und Autohandel davon profitieren? AUTOHAUS hat mit Gabriel Seiberth, Managing Director bei der Unternehmens- und Strategieberatung Accenture gesprochen. Zu Seiberths Schwerpunkten zählen die Themen Digitalisierung in der Automobilindustrie und Autonomes Fahren.
AH: Herr Seiberth, wenn wir von Künstlicher Intelligenz reden, was meinen wir damit eigentlich?
G. Seiberth: Es gibt keine allgemeingültige Definition – weder von Natürlicher noch von Künstlicher Intelligenz. Es gibt auch keine exakte Abgrenzung von Begriffen wie Automatisierung oder Digitalisierung – das ist alles Informationstechnologie. Unter Künstlicher Intelligenz sind diejenigen Berechnungen einer universellen Turing-Maschine zu verstehen, die man als intelligent beschreiben würde, wenn sie ein Menschen ausführt. Jedes interaktive Sprachsystem wie die Sprachassistenten Siri und Alexa oder auch ein adaptiver Staubsaugerroboter sind demnach Künstliche Intelligenz. Bei aller Interaktivität und Adaptivität bleiben das aber Maschinen, die deterministische Berechnungen ausführen. Ich bevorzuge daher den Begriff Computer Science. Deep-Learning-Systeme
AH: Spätestens seit der Veröffentlichung von ChatGPT ist KI in aller Munde. Seit wann spielt Künstliche Intelligenz überhaupt eine Rolle?
G. Seiberth: Eine erste große Welle mit dem Versuch, KI auf Basis von Regeln und Symbolen zu entwickeln, gab es in den 1960er Jahren: Damals hatte man versucht, mit handgefertigten Algorithmen gewaltige Expertensysteme aufzubauen. Mit logischen Wenn-Dann-Verknüpfungen sollten umfangreiche Fragestellungen in unterschiedlichsten Experten-Domänen prozessierbar gemacht werden. In der Medizin wurde diese Technik zum Beispiel zur Befundung von Krankheitssymptomen getestet. Die so genannten Second-Wave-AI-Systems – oder Deep-Learning-Systeme –, die ab dem Jahr 2010 entwickelt werden, funktionieren fundamental anders: Es werden keine Regeln festgelegt, sondern Muster trainiert. Man programmiert nicht selbst, sondern zeigt dem Algorithmus viele Beispiele – und dieser adaptiert sich dann quasi selbst. Wenn wir heute von KI sprechen, meinen wir in der Regel Deep-Learning-Systeme.
AH: Wo stößt eine Künstliche Intelligenz an ihre Grenzen?
G. Seiberth: Turing-Maschinen können nicht alles berechnen, es gibt algorithmisch nicht-entscheidbare Probleme. Berechnungen, die auf einer Turing-Maschine ausgeführt werden, sind deterministisch. Deswegen können sie auch kein Bewusstsein erzeugen. Das menschliche Geist-Körper-Kontinuum ist ein komplexes System und komplexe System sind nicht-entscheidbar. Die Annahme, dass die KI-Systeme im menschlichen Sinne intelligent sind, ist so wenig realistisch, wie die Angst, dass daraus eine Superintelligenz hervorgehen könnte. Laut Entwicklungspsychologen ist der Umgang mit unbekannten Anforderungen das Wesen natürlicher Intelligenz. Der Mensch nutzt dazu Gemeinsinn, Analogien oder eben logisches Folgern.Ganz wesentlich scheint auch der Umstand zu sein, dass Menschen über Sprache und Kultur – und damit nicht zuletzt Wissenschaft – verfügen. KI-Systeme können dagegen nicht mit Unvorhergesehenem umgehen. Das ist eine harte Grenze, anhand derer man leicht natürliche von künstlicher Intelligenz unterscheiden kann. Deep Learning-Anwendungen sind statistische Systeme. Statistik beruht auf der Vergangenheit. Alles was nicht in den Trainingsdaten vorhanden ist, kann von statistischen Systemen nicht verarbeitet werden. Damit ist das auch kein wirklicher Lernprozess wie beim Menschen, der auf Basis weniger Beispiele lernt und auch aktiven Transfer von Gelerntem von einer Domäne in einer andere durchführen kann. KI-Systeme sind dagegen gefangen in den Grenzen ihrer Trainingsdaten. Ich spreche daher auch von subintelligenten Systemen: Die Systeme zeigen zwar Elemente intelligenten Verhaltens, ziehen aber alle Intelligenz aus menschlichem Input, der etwa durch Labelling von Daten, Reinforcement-Learning oder dem Design technischer Architekturen von außen zugeführt wird.
AH: Kann eine KI denn Entscheidungen treffen? Wenn ja, wie funktioniert das?
G. Seiberth: Da die KI, wie gesagt, über keine Intentionalität verfügt, kann sie auch keine Entscheidungen treffen, schon gar nicht vor einem offenen Entscheidungshorizont. Was sie dagegen sehr gut kann, ist berechnen. Und zwar in Echtzeit. Sie braucht dazu aber Entscheidungsparameter und die müssen von Menschen vorgegeben sein – etwa direkt durch Kodifizierung oder indirekt durch Reinforcement. Die Tatsache, dass ein Computer nur Befehle ausführt, ohne gestresst, abgelenkt oder müde zu sein, eröffnet durchaus Möglichkeiten. In der Praxis wird diese Option aber aus moralethischen Erwägungen in vielen Fällen gar nicht zugelassen werden.
Echtzeit-Zugriff auf Daten
AH: Was ist also das Neue an Systemen wie ChatGPT, Dall-E, Midjourney, Deepl und anderen, das diesen derzeitigen Hype verursacht?
G. Seiberth: Qualitativ neu sind gleich mehrere Aspekte: Der Echtzeit-Zugriff auf eine gigantische Datenbasis, die Verarbeitung von Kontextelementen und die domänenübergreifende Anwendbarkeit in Sprache, Bild, Video. Das ist elektronische Datenverarbeitung, wie sie bislang undenkbar war. Die zweite wesentliche Neuerung: Die Systeme sind generativer Art: Sie klassifizieren oder prädizieren nicht nur, sondern sie können synthetische Daten generieren. Sie erzeugen also Neues durch Rekombination von Bekanntem. Ein großes Problem ist dabei der Bias, also eine charakteristische Verzerrung, die aus dem Umstand resultiert, dass alle Datensätze in unterschiedlicher Weise lückenhaft sind.
AH: Ohne vollständige Daten stehen diese KI-Systeme also vor einem Problem? Bei ChatGPT spricht man häufig von "Halluzinieren".
G. Seiberth: Von Halluzinieren würde ich nicht sprechen – das ist ein Anthropomorphismus. Menschen neigen dazu, Maschinen zu vermenschlichen. Die Maschinen kennen schlicht keine Faktizität. Es handelt sich bei ChatGPT um eine statistische Aneinanderreihung von Tokens. Es sind nicht einmal Wörter, es sind nur Bestandteile, Phoneme. Das System schaut in der riesigen Datenmenge des Internets nach statistischer Verteilung und wendet diese dann an. Was für die Maschine eine statistisch folgerichtige Wiedergabe ist, kann für den Menschen eine Falschaussage sein. Die Maschine bezieht sich aber auf nichts, sie hat keine Vorerfahrung – keinen Common Sense. Deswegen lässt sich diesen Systemen auch keine Faktizität beibringen. Sie besitzen keine Intentionalität (= die Eigenschaft von Zuständen, sich auf etwas zu beziehen), wie Philosophen das nennen, und damit auch keine "Aboutness". Sie sind nicht verortet in der Welt und damit übrigens auch im juristischen Sinne nicht zurechnungsfähig.
Autonomes Fahren
AH: Wo steht die Automobilindustrie aktuell in Sachen KI und Autonomes Fahren?
G. Seiberth: Mercedes hat die Genehmigung für das erste Level-3-System erhalten. Das ist ein großer Schritt, denn dadurch ist es dem Fahrer gesetzlich erlaubt, die Aufmerksamkeit vom Fahrprozess abzuwenden. Um dies zu ermöglichen, benötigt man eine erhebliche Rechenleistung. Das Einsatzgebiet oder die Operational-Design-Domain ist jedoch stark eingeschränkt. In Summe geht es beim Autonomen Fahren aber lange nicht so schnell voran, wie erhofft – und das liegt vor allem an der Künstlichen Intelligenz. Um überall fahren zu können, wo ein Mensch fahren kann (Definition von Level 5 Autonomie), bräuchte man eine menschenähnliche Intelligenz, auch General Artficial Intelligence (AGI) genannt. Und für die Entwicklung dieser gibt es, allem Hype um ChatGPT zum Trotz, nicht einmal einen ersten Ansatz.
AH: Wo sehen Sie Autonomes Fahren in fünf Jahren?
G. Seiberth: In etwa fünf Jahren wird es ein Level-3-System geben, das schneller als 60 km/h auf Autobahnen fahren kann. Das Ziel ist es, eine Geschwindigkeit von 120 km/h zu erreichen, was ein sehr interessanter Use Case wäre. Die Anforderungen an die Rechenkapazität steigen jedoch überproportional mit der Geschwindigkeit. Wenn man die 120 km/h erreicht, wäre das tatsächlich ein großer Erfolg. Die Umsetzung hängt aber auch von den Kosten ab, da HD-Karten, Lidar-Sensoren, sehr viele hochauflösende Kameras und andere technische Komponenten benötigt werden. In einer Studie haben wir das Marktpotenzial für ein Level-3-System als eher gering eingeschätzt, was auch mit dem Preis zusammenhängt. Dasselbe gilt auch für Level 4-Systeme, also die Robotaxis. Die Einsatzbereiche (ODDs) werden größer werden, aber immer noch deutlich eingeschränkter sein, als sich die Betreiber von Robotaxi-Flotten das ausgemalt haben. KI im Autohandel
AH: Was ist von Künstlicher Intelligenz im Automobilhandel zu halten? Kann eine KI bald sagen, welches Auto ich fahren soll oder welches zu mir passt?
G. Seiberth: Ein statistischer Optimierungsalgorithmus könnte Vorschläge machen. Aber wäre das wirklich ein Gewinn? Wenn ich Individualisierung möchte, gehe ich dann nicht lieber zu einem Händler, der mich durch den Prozess führt? Wer nicht viel Wert auf individuelle Beratung legt, wird in Zukunft ohnehin eher zu einem "Stock-Car" greifen und das im Internet bestellen. Im Autohandel schätze ich Themen wie Neugestaltung und Wandel im Bereich des Direktvertriebs oder der Auto-Abo-Modelle wichtiger ein als Veränderungen durch KI.
Effizienz erhöhen, Kosten senken
AH: Welche zukünftigen Entwicklungen und Innovationen sind zu erwarten, wenn es um den Einsatz von Künstlicher Intelligenz in Autohandel und Autoindustrie geht – und wie werden sie den Markt verändern?
G. Seiberth: Wie gesagt, ich sehe das nicht als Künstliche Intelligenz, sondern als erweiterte Datenverarbeitung und damit klassische Informationstechnologie. Und IT hat immer auf zwei Hebel eingezahlt: zum einen auf Kosten, hier in der Regel durch Automatisierung, und zum Zweiten in puncto Wertsteigerung, hier in der Regel durch die Ermöglichung neuer Geschäftsmodelle. Im Auto wäre es hilfreich, wenn die sprachliche Interaktion menschenähnlicher würde und vor allem Kontext in Anfragen mitprozessiert werden könnte. Diese Personalisierung könnte Basis neuer Geschäftsmodelle sein. Man hatte sich das schon von heutigen Sprachassistenten erhofft, denken Sie an die Skills von Alexa. Es könnte ein Markt werden, Skills für Fahrzeuge zu entwickeln.Im Handel ist eigentlich das Gegenteil zu beobachten. Da geht es immer mehr um Standardisierung und weg von maximaler Individualisierbarkeit – eine Mercedes E-Klasse hat angeblich mehr baubare Kombinationen, als es Atome im bekannten Universum gibt. Hier kann KI helfen, die Ausstattungspakete präziser auf die Bedürfnisse von Nutzergruppen zuzuschneiden, damit die Effizienz zu erhöhen und die Kosten zu senken. Aber das sehen wir zu einem großen Teil schon heute.
AH: Vielen Dank für das Gespräch!