Sein Forscherteam definiert zusammen mit der Autoindustrie Kataloge kritischer Situationen, die ein Auto beherrschen muss. Eine Garantie auf Vollständigkeit gebe aber es nicht, sagt Slusallek. Das DFKI plane mit „formalen Beschreibungen von Verkehrsverhalten“, grenze kritische Situationen genauer ein, um sie dann am Rechner in Modelle übertragen zu können.
Synthetische Daten nennen die Forscher das Ergebnis. Zwei Jahre habe es gedauert, die Industrie von seiner Methode zu überzeugen, sagt Slusallek. Jetzt sei er „mit entscheidenden Stellen“ in Kontakt, um festzulegen, wie ein „Führerschein für autonome Fahrzeuge“ gestaltet werden kann.
„Noch hat keiner die Technologie, mit der man testen kann, ob ein Fahrzeug die Anforderungen erfüllt“, betont Slusallek. Mit Testfahrten geht er hart ins Gericht. „Die Zahl der gefahrenen Kilometer sagt überhaupt nichts über die Zahl und Qualität kritischer Situationen aus“, so Slusallek. „Wenn ein Kind vors Auto springt, muss das Auto immer 100 Prozent richtig reagieren. Da helfen auch Millionen von Kilometern nichts, weil wir solche Unfälle zum einen von vornherein vermeiden wollen, und zum anderen auch nach Millionen von Kilometern rein statistisch noch nicht ‚genug‘ Kinder vors Auto gelaufen wären.“
In Saarbrücken baut Slusallek die Welt virtuell möglichst genau nach: Fußgänger und Fahrradfahrer mit typischen Bewegungen und Verhaltensweisen. Im Computer entstehen so verschiedene Szenarien (Tag, Nacht, Nebel), mit denen Hersteller ihre Autos trainieren und testen können – ohne auf reale Datensätze von Unfällen oder Crashtests aus dem Labor zurückgreifen zu müssen.
Doch wie fehlbar darf das Auto sein? Vor allem die US-Industrie agiere, als sei es ausreichend, das Auto besser zu machen als den Menschen. Für Slusallek wird dabei ein wichtiger Aspekt unterschätzt: „Der Mensch ist hier nicht das Maß der Dinge. Wir akzeptieren, dass der Mensch fehlbar ist. Im technischen Kontext ist das anders. Wir fragen: ‚Was ist technisch machbar?‘“
Schwierig gestaltet sich auch die Übergabe vom Autopiloten zurück zum Menschen. Gut möglich, dass Hersteller von Level 2 direkt zu Level 4 springen. Slusallek: „Wenn ein Auto erkennt, dass die Situation so komplex ist, dass es sie nicht mehr handeln kann, ist das Problem schon zur Hälfte gelöst.“
Lesen Sie auch:
Unfall unter Autopilot: Tesla rammt Feuerwehrauto
Automobilwoche-Experten-Talk zum Thema Künstliche Intelligenz: "Noch sind die Systeme zu dumm"