Die Sprachsteuerung erreicht die nächste Dimension. Nachdem die digitalen Assistenten im Fahrzeug ähnlich den Smartphone-Persönlichkeiten Siri & Co. immer freier sprechen und vor allem besser zuhören können, nutzen sie künftig auch die Blickrichtung für den Dialog mit dem Fahrer. Damit erschließt sich ein Nutzungsspektrum, das weit über das Fahrzeug hinausgeht.
So hat der Zulieferer Cerence auf der Technologiemesse CES in Las Vegas demonstriert, wie die Blickrichtung dabei helfen kann, zusätzliche Informationen über die Umgebung zu erhalten. Statt mühsam auf dem Bildschirm herumzuklicken und dort weitere Daten etwa zu Sonderzielen abzurufen, muss der Fahrer dabei nur noch aus dem Fenster schauen und das System nach den Gebäuden im Blickfeld fragen. Die Elektronik ermittelt mithilfe der für andere Assistenzsysteme ohnehin verbauten Kameras im Innenraum die Blickrichtung, berechnet auf der Navigationskarte das Objekt des Interesses und nennt wenige Augenblicke später zum Beispiel den Hotelnamen oder bietet gleich eine Zimmerbuchung an. In einer abgespeckten Variante soll dieses System bereits im Laufe des Jahres auf die Straße kommen. „Dann allerdings noch nicht mit Blicksteuerung, sondern mit Sprachkommandos wie „,Was ist das vorne links für ein Gebäude?‘“, schränkt Entwicklerin Cassandra Lee ein.
Dass die Integration der Blickachse keine ferne Vision mehr ist,verdeutlichte BMW ebenfalls in Las Vegas mit einer Vorschau auf den iNext. Wenn dieses Elektroauto in knapp zwei Jahren in den Handel kommt, soll es nicht nur über ein Panorama-Head-up-Display verfügen, das die gesamte Windschutzscheibe als Projektionsfläche nutzt. Auch die Blickrichtung soll dann so erfasst und analysiert werden, dass automatisch Zusatzinformationen zu allen Objekten im Umfeld erscheinen, die der Fahrer genauer betrachtet.