Suche

Veranstaltungen

Kollektive Wahrnehmung – Informationsfusion und -visualisierung

Von Autonomen Fahrzeugen (AF) wird erwartet, dass sie sicherer und effizienter fahren als wenn sie von Menschen gesteuert würden. Mit ihren vielen fahrzeugeigenen Sensoren nehmen sie die Umgebung wahr. Derzeit erreichen aber kaum AF den SAE J3016-Standard, können also nicht in jeder Situation selbständig fahren. Sie werden durch von anderen Fahrzeugen oder Gebäuden verdeckte Hindernisse, die Reichweite der Sensoren, schwierige Wetterbedingungen und Sensorrauschen beeinträchtigt.

Deshalb soll in diesem Dissertationsvorhaben ein verlässlicheres und sicheres kollektives Wahrnehmungssystem entwickelt werden, in dem die AF ihre verarbeiteten Sensordaten untereinander teilen. In anderen Arbeiten wurde die Informationsfusion schon zu verschiedenen Datenverarbeitungsschritten untersucht: Es können z.B. Sensorrohdaten, Merkmale oder detektierte Objekte geteilt werden. Rohdaten und Merkmale führen zu besseren fusionierten Daten, bringen aber auch eine hohe Kommunikationslast mit sich.

Somit wird in diesem Dissertationsvorhaben ein kollektives Wahrnehmungssystem mit einem neuronalen Netz erweitert, welches einen geeigneten Fusionsmodus wählt, um zusammen mit einer effizienten Verteilung der Collective Perception Messages (CPM) die Systemleistung zu steigern. Zudem wird die CPM optimiert, um möglichst viele nicht redundante Informationen zu enthalten. Zu guter Letzt wird das Konzept in einem Simulationssystem mit mehreren Verkehrsmodi, -teilnehmern und Sensorkonfigurationen bewertet. Dabei steuert die Verkehrssimulation SUMO den Verkehrsfluss, während die Fahrzeugsimulation CARLA die städtischen 3D-Szenerien generiert und hieraus die Sensordaten ableitet.