Volltextsuche

Top Suchbegriffe



Dienstag, den 19. September 2017 um 14:02 Uhr

Hochautomatisiertes Fahren sogar bei Schnee und Regen: Robuste Wahrnehmung dank intelligentem Sensormix

Schlechte Sichtverhältnisse bei Regen oder Schnellfall sind für Menschen und hochautomatisierte Fahrzeuge eine große Herausforderung. Im europäischen Projekt RobustSENSE haben die Forscher von Fraunhofer FOKUS mit 14 Partnern, darunter die Daimler AG und die Robert Bosch GmbH, in den vergangenen zwei Jahren eine Softwareplattform entwickelt, auf der verschiedene Sensordaten von Kamera, Laser, Radar und weitere Informationen wie Wetterdaten kombiniert werden. Ziel ist, eine robuste und zuverlässige Wahrnehmung der Straßensituation unabhängig von der Komplexität und der Sichtverhältnisse zu gewährleisten. Nach der virtuellen Erprobung des Systems erfolgt nun der Praxistest, unter anderem auf dem Berliner Testfeld für hochautomatisiertes Fahren.

Starker Schneefall, ein Ball rollt auf die Fahrbahn: Selbst ein Mensch kann mitunter nicht schnell genug erkennen, ob dies ein gefährlicher Gegenstand oder eine Person ist. Für ein hochautomatisiertes Auto stellt dies eine noch größere Herausforderungen dar.

Die Forscher des Geschäftsbereichs Smart Mobility am Fraunhofer FOKUS beschäftigen sich seit vielen Jahren mit dem hochautomatisierten und vernetzten Fahren und sind seit einigen Monaten auf den Testfeldern im Berliner Stadtverkehr auf Erprobungsfahrten unterwegs. Sie haben nun im europäischen Projekt RobustSENSE mit 14 weiteren Partnern eine Softwareplattform entwickelt und virtuell erprobt, mit der hochautomatisierte Autos unabhängig vom Wetter und der Komplexität der Verkehrssituation zuverlässig die Umgebung wahrnehmen und entsprechend reagieren können. Beispielsweise können die Fahrmanöver bei verschneiter Straße so angepasst werden, dass das Fahrzeug nicht mehr auf der markierten Spur aus der internen hochgenauen HD-Karte fährt, sondern im Bereich der Straße, der vom Schnee geräumt ist.

Um die Umgebung robust erfassen zu können, benötigen Assistenzsysteme und Fahrzeuge neben hochgenauen HD-Karten vor allem optische Sensor-Komponenten, die bereits in verschiedenen Formen zum Einsatz kommen. Kameras unterstützen in Assistenzsystemen das automatische Halten der Spur bei einer Fahrt auf der Autobahn, erfassen selbst kleine Hindernisse und leiten bei hochautomatisierten Fahrzeugen, wenn nötig, den Bremsvorgang ein. Doch besonders die Kameras sind bei der Objekterfassung und -erkennung störanfällig: bereits das starke Gegenlicht der Sonne oder Witterungsbedingungen wie Regen und Schneefall können dazu führen, dass Hindernisse, andere Fahrzeuge oder Personen zu spät oder gar nicht von den Systemen erfasst werden. Um diese Nachteile auszugleichen, kombinieren die Forscher die Sensordaten der Kamera mit der Positionsbestimmung von Laser- und Radarsystemen. Die Laserstrahlen und Radarwellen erfassen Hindernisse oder Verkehrsteilnehmer genauer als die Berechnung auf der Grundlage von Kamerabildern. Um was für ein Objekt es sich handelt, können sie allerdings nicht bestimmen. Die Fraunhofer-Forscher nutzen daher Sensordaten aus verschiedenen Quellen, um eine robuste und zuverlässige Wahrnehmung sowie den Witterungsbedingungen angepasste Fahrmanöver zu gewährleisten.

Für die virtuelle Erprobung wurde die Simulationsumgebung VSimRTI von Fraunhofer FOKUS genutzt. Das System wird nun im Herbst und Winter in Praxistests in verschiedenen europäischen Städten und auf Autobahnen getestet, unter anderem mitten in Berlin.


Den Artikel finden Sie unter:

https://www.fokus.fraunhofer.de/de/fokus/presse/robustsense_2017_09

Quelle: FOKUS - Fraunhofer-Institut für Offene Kommunikationssysteme (09/2017)

Um unsere Webseite für Sie optimal zu gestalten und fortlaufend verbessern zu können, verwenden wir Cookies. Durch die weitere Nutzung der Webseite stimmen Sie der Verwendung von Cookies zu.
Weitere Informationen zu Cookies erhalten Sie in unserer Datenschutzerklärung.