In seiner Konzeptstudie „James 2025“ präsentiert Audi seine Idee vom Cockpit der Zukunft.

Forschung fürs autonome Fahren: Bedienkonzepte für selbstfahrende Autos

Aufmacherbild: (C) Audi

Wenn Autos auf dem Weg zum vollautonomen Fahren zumindest für bestimmte Zeit die Kontrolle über Lenkrad, Gaspedal und Bremse übernehmen, hat dies auch erhebliche Konsequenzen für die Bedienkonzepte künftiger Autos. Die Autohersteller, ihre Zulieferer aber auch unabhängige Institute forschen deshalb intensiv an Bedienelementen und Benutzerschnittstellen, die diesen neuen Anforderungen gerecht werden.

Wenn es um die Kommunikation zwischen Fahrzeug und Passagieren geht, vertritt Google bei seinem „Self-driving Car“ sicherlich die extremste Vision. Die Konzeptfahrzeuge des Suchmaschinengiganten aus Mountain View sehen kein Lenkrad und auch keine Displays vor. Vertreter der klassischen Automobilhersteller betrachten das „Google-Auto“ demnach auch gar nicht mehr als Auto, sondern eher als selbstfahrende Transportkabine. Geht es nach Google soll der Personentransport zu einer reinen Dienstleistung werden. Wenn die Passagiere sich während der Fahrt mit Informations- oder Entertainment-Angeboten beschäftigen wollen, haben sie dafür ja ihre Tablets und Smartphones. Ein konventionelles Cockpit braucht das Google-Auto nicht – denn die fürs Google-Geschäftsmodell interessanten Daten (etwa darüber, wer sich wann wohin fahren lässt) werden auch so erhoben. Doch die Reaktionen erster Testfahrer sind durchaus gemischt, wie dieses knapp dreiminütige Video zeigt:

Klassische Autohersteller sehen die Welt allerdings etwas anders. Zum einen, weil sie ihren Kunden zumindest in bestimmten Situationen nach wie vor den Spaß am Fahren gönnen wollen. Und zum anderen, weil gemäß ihrer Strategie der Weg zum vollautomen Fahren ohnehin über eine Vielzahl von Zwischenschritten führt. Tempomaten mit Abstandsradar (Adaptive Cruise Control) entwickeln sich weiter zu Autobahn- und Staufolgeassistenten, in den folgenden Schritten kommen immer weitere Assistenz- und Autonomiefunktionen wie Überhol- und Einfädelassistenten, Rettungsgassen-Automatik oder in der Stadt intelligente Ampel- und Kreuzungsassistenten hinzu.

Forschung zur Mensch-Maschine-Schnittstelle und rund um Bedienkonzepte

All diese Funktionen haben allerdings eines gemein: Nach längerer oder kürzerer autonomer Fahrt muss das Fahrzeug die Kontrolle an den Fahrer zurückgeben. Deshalb ist das A und O autonomer Fahrfunktionen, dass der Fahrer jederzeit exakt über den aktuellen Betriebsmodus und Zustand des Fahrzeugs informiert bleibt. Diese Aufgabe liegt in den Elementen und Funktionen, die in der Autobranche üblicherweise als „HMI“ bezeichnet wird – dem „Human-Machine Interface“, also der Schnittstelle zwischen Mensch und Maschine beziehungsweise den Bedienkonzepten. Diese entwickelt sich nach Einschätzung der meisten involvierten Experten zum „Smart User Interface“. Dabei geht es nicht zuletzt darum, das Vertrauen in die automatischen Fahrfunktionen zu fördern. Denn nur wenn Fahrer und Mitfahrer jederzeit eindeutig erkennen, was das Fahrzeug gerade tut, werden sie den autonomen und semi-autonomen Funktionen im Zweifel ihr Leben und ihre Sicherheit anvertrauen.

Die Mensch-Maschine-Schnittstelle ist somit ein grundliegender Bestandteil und deshalb auch ein wichtiges Forschungsfeld fürs autonome Fahren. Mit diesen Aspekten beschäftigen sich zum Beispiel verschiedene Institute der Fraunhofer-Gesellschaft. Das Fraunhofer IIS (Fraunhofer Institut für Integrierte Schaltungen) arbeitet im Rahmen seines Projekts „Shore“ etwa daran, wie Fahrzeuge durch Innenraumsensoren wie Kameras erkennen können, wie aufmerksam der Fahrer gerade ist, ob er gestresst, wütend oder abgelenkt wirkt. Die Software analysiert dazu die Gestik und Mimik des Fahrers und benötigt für die entsprechenden Analysen nur wenig Rechenleistung. Das System lässt sich nicht nur als Bestandteil autonomer Fahrzeuge nutzen, sondern kann zum Beispiel auch bei drohendem Sekundenschlaf oder zu starker Ablenkung des Fahrers Alarm schlagen. Seine Grundlagen erklärt dieses Video in 35 Sekunden:

Das Fraunhofer IAO (Institut für Arbeitswirtschaft und Organisation) entwickelte parallel ein Konzept zur Übergabe der Fahrverantwortung aus dem automatisierten Betrieb. Bei seiner Studie „Mobius“ kommuniziert der Fahrer über Sensortasten am Lenkrad mit dem Fahrzeug, wird über ein frei konfigurierbares Cockpit-Display über aktuelle Funktionszustände informiert oder kann darüber in autonomen Fahrsituationen auch per Mirroring sein Smartphone nutzen. Eine Innenraumkamera analysiert und bewertet dabei den Aufmerksamkeitsgrad des Fahrers.

Aufmerksamkeit des Fahrers ist ein knappes Gut

Darüber, wie sich die Aufmerksamkeit des Fahrers schnell auf eine bestimmte Stelle im Auto oder einen bestimmten Aspekt des Verkehrsgeschehens leiten lässt, machten sich Forscher des Automobil-Zulieferers Continental Gedanken. Ihre Lösung dieser Frage präsentierten sie in dem Konzeptfahrzeug „Driver Focus Vehicle“: Leuchtbänder in den Zierleisten des Armaturenbretts und der Türen bewegen pulsierende Lichtimpulse in die Richtung, in die der Fahrer blicken soll. Der kann dann fast gar nicht anders, als in die so vom Fahrzeug markierte Richtung zu schauen, wie dieses rund dreieinhalbminütige Video zeigt:

In Zusammenarbeit mit seiner Software-Tochter Elektrobit stellte Continental zudem ein Konzept zur besseren Vermittlung von Fahrzeug-Zuständen und Umgebungsinformationen ein: das „AR-HUD“ („Augmented-Reality Headup-Display“).

Headup Displays, also Informationsanzeigen, die etwa einen Digitaltacho oder Richtungspfeile des Navigationssystems ins Sichtfeld des Fahrers einblenden, gibt es in der automobilen Oberklasse und oberen Mittelklasse schon länger. Doch mit zunehmender Rechen- und Grafik-Power der dahinterliegenden Systeme lässt sich deren Leistung deutlich erweitern: Per Augmented Reality passt das System die eingespiegelten Darstellungen so an, dass diese interaktiv in die Sicht auf die vor dem Fahrzeug liegende Straße eingeblendet werden. So kann das AR-HUD beispielsweise markieren, auf welches vorausfahrende Fahrzeug der Abstandsradar gerade eingerastet ist, oder welche Fahrspur der Autopilot befahren will. Einen Einblick vermittelt das folgende, rund fünfeinhalbminütige Video:

Haptisches Feedback zur Entlastung des Fahrers

Flexible und allein per Software konfigurierbare Anzeigen und Bedienelemente sind eine logische Folge der Entwicklung hin zum teil- und vollautonomen Fahren. Der ganze Sinn selbstfahrender Autos ist ja, dem Fahrer während der Fahrt längere Auszeiten zu gönnen, in denen dieser entweder kommunizieren und arbeiten kann, oder sich mit Entertainment-Angeboten von Websurfen bis Videostreaming die Zeit vertreibt. Deshalb dürfte der Innenraum von Fahrzeugen in Zukunft von großen und flexibel nutzbaren Displays und Touchscreens dominiert werden.

Dabei ergibt sich allerdings ein Problem: Diskrete Bedienelemente wie Dreh- und Drückschalter oder mechanische Tasten bieten während der Fahrt den immensen Vorteil, dass sie haptische Rückmeldung über ihre Bedienung und gegebenenfalls die vorgenommene Einstellung geben. Untersuchungen mehrerer Institute und Hersteller ergaben, dass die Bedienung von Touchscreens etwa zur Einstellung der Temperatur im Fahrzeug erheblich mehr Aufmerksamkeit des Fahrers bindet als klassische Tasten oder Drehregler.

Eine Konsequenz aus diesen Erkenntnissen zog der Automobilzulieferer Bosch mit seinem „Haptic Feedback Display“. Die Idee: Ein Touchscreen liefert über einen Vibrationsmotor eine für den Nutzer deutlich spürbare Rückmeldung zur Bedienung. Kombiniert mit cleverer Software wird es so möglich, Einstellungen oder Auswahlen zu treffen, ohne dazu ständig auf den Touchscreen schauen zu müssen. Verlässt der Finger des Nutzers etwa eine Software-Taste oder einen Einstellbereich, können solche „Kanten“ oder „Elementgrenzen“ durch Vibration gekennzeichnet werden. Auch die Frage, ob ein Druck auf den Touchscreen vom System korrekt erkannt wurde und zur gewünschten Einstellung oder Funktion beziehungsweise Reaktion führte, kann so eindeutig beantwortet werden. Einen Eindruck von dem Konzept vermittelt dieses anderthalbminütige Video:

Situationsgerechte Bedien- und Steuerkonzepte für autonomes Fahren

In Testfahrten mit den ersten teilautonomen Versuchsträgern ermittelten Audi, BMW, Mercedes, Volkswagen und andere, dass es je nach Verkehrssituation erforderlich ist, dem Fahrzeugführer die Fahrverantwortung innerhalb von etwa 10 Sekunden zurückzugeben. Wenn der aber zu diesem Zeitpunkt in seine E-Mails, ein Telefonat oder einen Film vertieft ist, ist dies möglicherweise gar nicht trivial. In jedem Fall sollte der Fahrer sofort erkennen, dass seine Aufmerksamkeit nun wieder zum Steuern des Fahrzeugs benötigt wird.

Wie eine solche Lösung aussehen könnte, zeigte Audi mit seinem Konzept-Cockpit „James 2025“. Nicht umsonst ist die Namensgebung an den stereotypen britischen Butler angelehnt und erwähnt auch das Jahr, indem der Ingolstädter Hersteller einen möglichen Einsatz dieser Idee für realistisch hält.

Das Konzept:  Wenn das Auto autonom fährt, klappt das Lenkrad zusammen und zieht sich ein Stück weit aus dem Interaktionsbereich des Fahrers zurück. Werden dessen Lenkkünste doch wieder benötigt, oder will der Fahrer aus einem Antrieb wieder aktiv ins Fahrgeschehen eingreifen, entfaltet sich das Lenkrad wieder und steht somit zur manuellen Bedienung zur Verfügung. Dieses rund dreiminütige Video zeigt „James 2025“ in Aktion:

Informationsaufbereitung à la Tomtom

Mit wieder einem anderen Aspekt beschäftigte sich Tomtom anlässlich eines Demonstrators, den der Navi-Hersteller auf der IAA 2015 auf seinem Stand vorstellte: Hier war die Fragestellung, wie sich die unterschiedlichen Informationsebenen und -häppchen etwa während der Navigation oder auch autonomen Fahrten so aufbereiten und präsentieren lassen, dass Fahrer und Passagiere jeweils die für sie interessanten Aspekte erfahren, ohne dass insbesondere aktiv lenkende Fahrer mit zu vielen Details überfordert werden. Die vorgestellte Lösung bespielt adaptive Displays sowohl im klassischen Instrumentenbereich als auch in der Mittelkonsole kontextsensitiv mit den jeweils benötigten Informationen und Bedienelementen. In diesem rund zweieinhalbminütigen Video schaute sich Intelligente-Welt-Redaktionsleiter Hannes Rügheimer dieses Konzept genauer an und stellte es den Zuschauern vor:

Klar ist, dass derzeit jede Menge konkurrierender Konzepte und auf einzelne Aspekte fokussierende Ideen für optimierte Mensch-Maschine-Schnittstellen in autonomen Autos kursieren. Wie genau das Cockpit der Zukunft aussehen wird – insbesondere wenn man über die unmittelbar nächste Fahrzeuggeneration hinausblickt –, kann heute wohl noch keiner sagen. Doch dass sich das eine oder andere hier vorgestellte Konzept darin wiederfinden wird, darf als so gut wie sicher gelten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert