München. Zukünftig unterstützen Automobile ihre Fahrer zunehmend aktiv beim Autofahren. Über eingebaute Sensoren, Kameras und intelligente Software- und Hardware-Systeme nehmen Fahrzeuge ihre Umgebung wahr und interpretieren diese Informationen. Derzeit entwickeln einige Unternehmen Fahrerassistenzsysteme, die über Radar- und Infrarotsysteme das Geschehen rund um das Fahrzeug überwachen. Kernelement sind dabei spezialisierte Mikrocontroller, beispielsweise von Freescale. Die Radardaten werden vom Mikrocontroller empfangen und weiterverarbeitet, so dass nicht mehr wie bisher die gesamten Bildinformationen weitergeleitet werden, sondern nur noch das Ergebnis.
Die Bilderfassung und -datenverarbeitung finden in einem System statt, lediglich die ausgewerteten Daten werden nach außen gegeben. Das hat den Vorteil, dass alle Funktionen in einem Gehäuse zusammengefasst sind. Allerdings bringt dieser Ansatz in der Entwicklung Probleme mit sich. Denn die Rohdaten, aus denen die Software Objekte identifiziert, sind nur chipintern verfügbar. Das hat zum Beispiel zur Folge, dass vom Fahrer während einer Testfahrt erfasste Fehler nicht analysiert werden können. Denn stellt ein Fahrer während der Testfahrt fest, dass ein Objekt vom System nicht richtig erkannt wurde, ist es nicht möglich, die Ursachen dieses Fehlers in der Software zu identifizieren.