Inhaltsübersicht

Einleitung

Kategorien durchsuchen

Applikationsberichte
Wissensdatenbank zur Datenerfassung
Produktaktualisierungen
Unternehmensnachrichten
Dewesoft Veranstaltungen
Fallstudien

Top-Autoren

PR

Primož Rome

GS

Grant Maloy Smith

CF

Carsten Frederiksen

EK

Eva Kalšek

ML

Matic Lebar

Multi-Sensor-Datenerfassung für die Umfelderfassung autonomer Fahrzeuge

AN

Aleksandra Rodak, and Anna Niedzicka

Motor Transport Institute

April 29, 2026

Da sich automatisierte Fahrzeuge in Richtung der SAE-Stufen 3 bis 5 entwickeln, benötigen Wahrnehmungsalgorithmen Datensätze , die nicht idealisierte Bedingungen, sondern die Vielfalt der realen Welt widerspiegeln. DARTS-PL stellt sich dieser Herausforderung, indem es einen hochauflösenden, vollständig synchronisierten und multisensorbasierten Realverkehrsdatensatz liefert, der auf die Infrastruktur und das Klima in Mittel- und Osteuropa zugeschnitten ist. DARTS-PL ist als offene, nationale Ressource konzipiert und schließt die Lücke zwischen globalen Benchmarks und lokalen Fahrrealitäten.

Multi-Sensor Data Acquisition for Autonomous Vehicle Perception

Einleitung

Das Projekt DARTS-PL ist als nationale Datenbank für reale Verkehrsszenarien konzipiert und dient der Entwicklung und Erprobung von Wahrnehmungsalgorithmen für automatisierte Fahrzeuge. Es wird hochauflösende, synchronisierte Multisensordaten unter einer kostenfreien Nutzungslizenz bereitstellen.

Ziel von DARTS-PL ist die Erstellung einer nationalen Datenbank mit Testszenarien für autonome Fahrzeuge, die die spezifischen Straßenbedingungen in Polen abbilden.

Eine solche Datenbank unterstützt die Entwicklung und Erprobung von Wahrnehmungsalgorithmen für automatisierte Fahrzeuge.

Zur Erfassung der relevanten Daten wurde ein Fahrzeug mit einer umfassenden Sensorkonfiguration ausgestattet, bestehend aus 4 LiDAR-Sensoren, 7 Kameras, 6 Radar-Sensoren, einem IMU/GPS-RTK-Modul und einer Wärmebildkamera.

Synchronisation und Kalibrierung der Sensoren erfolgte über die Software DewesoftX, die als zentrales Datenerfassungssystem fungiert.

Die Herausforderung

Seit ihrer Veröffentlichung im Jahr 2014 ist die vor allem als SAE Levels of Driving Automation™ (SAE-Automatisierungsstufen) bekannte Norm SAE J3016™ – Recommended Practice: Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles („Empfohlene Praxis: Taxonomie und Definitionen für Begriffe im Zusammenhang mit Fahrautomatisierungssystemen für Straßenfahrzeuge“) die am häufigsten zitierte Quelle für Fahrautomatisierung in der Branche.

Gemäß SAE J3016 repräsentieren die ADAS-Stufen (Advanced Driver Assistance Systems) 3–5 den Übergang vom menschlich überwachten Fahren zur vollen Fahrzeugautonomie: 

  • Stufe 3 (Bedingte Automatisierung): Das Fahrzeug übernimmt alle Fahraufgaben unter bestimmten Bedingungen, der Mensch dient als Rückfallebene.

  • Stufe 4 (Hochautomatisierung): Funktioniert ohne menschliches Eingreifen, jedoch nur in definierten Einsatzbereichen.

  • Stufe 5 (Vollautomatisierung): Erfordert unter keinen Bedingungen einen menschlichen Fahrer.

Während sich die globale Automobilindustrie auf hohe Automatisierungsstufen (SAE-Stufen 3–5) vorbereitet, bleibt die breite Verfügbarkeit vielfältiger, repräsentativer und hochwertiger Datensätze für das Training und die Validierung von Wahrnehmungsalgorithmen eine der größten Herausforderungen. Da sich der Bereich rasant weiterentwickelt, ist die Anzahl der vorhandenen Datensätze schwer zu bestimmen.

Liu et al. [1] identifizierten 2024 insgesamt 265 publizierte Datensätze für autonomes Fahren und stellten dabei eine bemerkenswerte Charakteristik fest: Die meisten Datensätze stützen sich stark auf kamerabasierten Sensoren, insbesondere Monokular- und Stereokameras (siehe Abb. 1).

Diese Sensoren sind zwar kostengünstig und breit einsetzbar, jedoch von Natur aus anfällig für Umweltfaktoren wie schlechte Beleuchtung, Blendung, Schatten, Regen, Nebel oder Verdeckungen (Okklusionen). Somit weisen sie in dieser Hinsicht ähnliche Einschränkungen auf wie das menschliche Sehvermögen, das durch widrige Wetterbedingungen oder herausfordernde Lichtverhältnisse beeinträchtigt werden kann.

Obwohl zunehmend komplementäre Sensoren wie LiDAR und Radar integriert werden, um die Robustheit zu steigern, spiegeln kameradominierte Datensätze eine anhaltende Abhängigkeit von visuell basierten Wahrnehmungssystemen wider, die den gleichen Unsicherheiten und Mehrdeutigkeiten unterliegen wie das menschliche Auge.

Abb. 1: Verteilung von Sensortypen in Datensätzen für autonomes Fahren (basierend auf [1])

Zur Überwindung dieser Einschränkungen entwickelt die Forschung eine Reihe technischer und methodischer Lösungen. Eine der wichtigsten ist die Multisensorfusion , die Kameras mit komplementären Technologien wie LiDAR und Radar kombiniert. Im Vergleich zu visuellen Sensoren ist Radar robuster gegenüber widrigen Wetterbedingungen, während LiDAR unabhängig von den Beleuchtungsverhältnissen präzise geometrische Tiefeninformationen liefert.

Durch die Fusion heterogener Sensordaten – auf Merkmals-, Zwischen- oder Entscheidungsebene – können Wahrnehmungssysteme die Schwächen einzelner Sensoren ausgleichen, und es wird eine höhere Robustheit, Zuverlässigkeit und Redundanz erreicht.

Umfragen und Übersichtsstudien identifizieren durchgehend einen Bedarf an größeren und vielfältigeren Datensätzen als Grundlage für Fortschritte in der Forschung zum autonomen Fahren [2]. Wichtig ist vor allem ihre Diversifizierung. Durch eine erweiterte Abdeckung von Wetterverhältnissen, geografischen Regionen, Verkehrssituationen und seltenen Randfällen ließe sich die Echtweltleistung automatisierter Fahrsysteme verbessern.

Laut Liu et al. [1] konzentrieren sich die meisten vorhandenen Datensätze jedoch auf Hochlohnregionen. Dabei repräsentieren die USA 21 % der Datensätze, und Deutschland sowie der Rest Europas machen jeweils 12,6 % aus. Dann folgt China mit 8,4 %, während Länder wie Kanada, Korea, das Vereinigte Königreich, Japan oder Singapur nur mit jeweils 1–4 % vertreten sind.

Dieses Ungleichgewicht bedeutet, dass die vorhandenen Datensätze die Infrastrukturen, das Fahrverhalten und die klimatischen Bedingungen in Mittel- und Osteuropa möglicherweise unzureichend abbilden. Einzigartige Straßengeometrien, lokale Beschilderungen und Wetterbedingungen wie starker Schnee, Regen oder Nebel können Herausforderungen für die Sensoren autonomer Fahrzeuge darstellen.

Der DARTS-PL-Datensatz – polnische Testzenarien

Angesichts der Unterrepräsentation der Fahrbedingungen in Mitteleuropa fördert das polnische Nationale Zentrum für Forschung und Entwicklung das DARTS-PL-Projekt im Rahmen des GOSPOSTRATEG-VIII-Programms (Fördernummer: GOSPOSTRATEG-VIII/0001/2022).

Durchgeführt wird das Projekt von einem Konsortium führender polnischer Forschungs- und Bildungseinrichtungen:

  • Institut für Kraftverkehr (ITS): verantwortlich für die Definition der Szenarioanforderungen und die Koordination des Datenerfassungsprozesses

  • Technische Universität Warschau (PW): Durchführung der komplexen Datenverarbeitung, der Sensorfusion und des Annotationsprozesses

Der DARTS-PL-Datensatz adressiert den Mangel an hochauflösenden, multisensorbasierten Datensätzen, die unter normalen Fahrbedingungen in Polen aufgezeichnet wurden. Es besteht ein Bedarf an spezifischen Daten für autonome Fahrzeuge, die synchronisiert sind und nicht nur gängige Fahrszenarien, sondern auch Randfälle abdecken – wie Zonen mit hoher Unfallrate, die Präsenz landwirtschaftlicher Maschinen auf der Straße oder Fahrten bei schlechten Sichtverhältnissen.

Bestehende Datenbanken leiden häufig unter einer geografischen Verzerrung, da die enthaltenen Daten hauptsächlich in Nordamerika oder Westeuropa aufgezeichnet werden. Diese Verzerrung verursacht Lücken im Training der Algorithmen, die verschiedene Bereiche betreffen:

  • Infrastrukturvariabilität: Unterschiede bei Straßenmarkierungen, Infrastrukturen, Straßenklassen und Integrationslösungen

  • Umweltextreme: Verschlechterung der Sensorenleistung während des mitteleuropäischen Winters (Schneedecke, Salzsprühnebel), bei Starkregen, Nebel usw.

  • Gefährdete Verkehrsteilnehmer: Interaktionen mit einer Vielfalt an Verkehrsteilnehmern (einschließlich Radfahrer und Tiere), die eine hochpräzise 3D-Annotation erfordern

Ohne lokalisierte Daten könnten in Polen eingesetzte autonome Fahrzeugsysteme spezifische Gefahren nicht erkennen, was zu einer „Wahrnehmungslücke“ führt, die die Innovation und Sicherheit im Land behindert.

Das DARTS-PL-Projekt schafft eine nationale Datenbank für Verkehrsszenarien. Die Kernstrategie umfasst die Aufzeichnung von mehr als 100 verschiedenen Straßenabschnitten unter Berücksichtigung extremer Umweltbedingungen wie Starkregen, Schneematsch oder durch Schnee/Laub verdeckte Markierungen. Jeder Abschnitt wird dabei mindestens achtmal unter unterschiedlichen Bedingungen (Tag/Nacht, alle vier Jahreszeiten) erfasst.

Das Projekt folgt mehreren Prinzipien, um eine angemessene Lösung bereitzustellen:

  • Synchronisation: Die Sensoren werden hardwaregetriggert und zeitgestempelt.

  • Offener Zugang: Die Daten werden unter einer nicht-kommerziellen, kostenfrei nutzbaren Lizenz für kommerzielle und akademische Anwendungen bereitgestellt.

  • Standardisierung: Für die Daten werden offene Formate verwendet, um ihre nahtlose Integration in verschiedene Simulationsumgebungen zu gewährleisten.

Beteiligte Akteure

Die funktionalen und nicht-funktionalen Anforderungen für die Messanordnung wurden von Forschern des Instituts für Kraftverkehr entwickelt. Als Auftragnehmer für die Entwicklung der DARTS-PL-Datenerfassungsplattform verantwortlich war Envibra sp. z o.o. Unterstützt wurde das Unternehmen dabei von Ingenieuren von:

  • Dewesoft – Software-Updates, Kameras, Lokalisierung 

  • b-plus GmbH – Hauptrecheneinheit, globale Zeitstempel, Synchronisation 

  • SEARCH - Safety Engineering Research – LiDAR- und Radar-Integration, einschließlich der Plug-in-Entwicklung

Das Team löste gemeinsam alle Probleme, die während der Entwicklung der Messanordnung auftraten.  Es wurden unzählige Nachrichten ausgetauscht, und es traten Probleme auf, die selbst den Herstellern der Komponenten neu waren. Dieses Projekt war kein gewöhnlicher Auftrag, sondern ein vollwertiges Forschungs- und Entwicklungsprojekt.

Anforderungen und potenzielle Probleme

Die Entwicklung eines Messsystems, das den Anforderungen des Kunden entsprach, stellte an sich bereits eine erhebliche Herausforderung dar. Der Auftrag umfasste die komplette Lieferung – inklusive Installation, Konfiguration, Inbetriebnahme und Nutzerschulung – einer softwareintegrierten, multisensorbasierten Messausrüstung, die eine 360-Grad-Kartierung und -Aufzeichnung der Fahrzeugumgebung ermöglichen sollte.

Im Rahmen von DARTS-PL sollten gezielt Szenarien (Fahrten) aufgezeichnet werden, die sich auf spezifische Infrastrukturmerkmale oder Verkehrssituationen konzentrieren, die für automatisierte Fahrsysteme problematisch sein können. Dazu zählen etwa ungünstige Wetterbedingungen, unklare Beschilderungen oder gefährdete Verkehrsteilnehmer im Fahrbahnbereich.

Jedes dieser ca. 20 Sekunden langen Szenarien musste aus einer einzelnen, etwa 10-minütigen Aufzeichnung extrahiert werden. Das Messsystem musste alle Parameter bis zu einer maximalen Fahrzeuggeschwindigkeit von 130 km/h präzise aufzeichnen.

DARTS-PL schlug die Sensoranordnung vor, während Envibra und Dewesoft das Messsystem in das Fahrzeug integrierten. Die Messanordnung sollte in einer Dachbox montiert werden, um eine einfache Demontage zu ermöglichen.

Die Teile des Messsystems, die nicht in der Box oder Karosserie untergebracht waren, sollten klebende Montagepads erhalten, um eine einfache Installation an beliebigen Stellen im Fahrzeug zu ermöglichen. Der reibungslose Betrieb des Systems bei geschlossenen Türen und Fenstern musste durch Kabelverbindungen ermöglicht werden, um zu verhindern, dass während der Messungen Wasser und Kälte in den Fahrzeuginnenraum eindringen.

Alle vom Messsystem erfassten Daten, einschließlich der Kameraaufnahmen, mussten mit einem Haupttaktgeber synchronisiert werden. Der Betriebstemperaturbereich des Messsystems reichte von -10 °C bis +40 °C, der Lagertemperaturbereich von -20 °C bis +40 °C. Das System musste unter verschiedenen Wetterbedingungen, einschließlich Starkregen und starkem Wind, mindestens 6 Stunden pro Messtag einwandfrei funktionieren können und staub- sowie partikelresistent sein.

Sensoranforderungen

Kameras

  • Farbvideoaufzeichnung mit einer Auflösung von mindestens 1920 × 1080 Pixeln bei mindestens 25 Bildern pro Sekunde

  • HDR-Technologie mit automatischer Belichtungsregelung, beide Funktionen unabhängig deaktivierbar

  • RAW-Bilder (unkomprimiert)

  • Einstellung und Arretierung von Fokus und Weißabgleich

  • Erfassung von mindestens 20° über dem Horizont bei horizontaler Fahrzeugposition

  • Global-Shutter-Technologie

  • Sensorgröße von mindestens 1/2"

  • Protokollierung der Aufnahmeparameter (Belichtungszeit, Verstärkung) pro Einzelbild

LiDAR – Mittelbereich

  • Mindestens 128 Kanäle

  • Scanfrequenz von mindestens 20 Hz (konfigurierbar ab 10 Umdrehungen pro Sekunde)

  • Reichweite von mindestens 200 m, vertikales Sichtfeld von mindestens 30°, horizontales Sichtfeld von 360° (rotierend)

  • Genauigkeit von 3 cm oder besser, horizontale Winkelauflösung von 0,25° oder besser

LiDAR – Fernbereich

  • Erfassung des Bereichs zentral vor dem Fahrzeug, Montage auf der Fahrzeugachse

  • Scanfrequenz von mindestens 20 Hz (konfigurier)

  • Reichweite von mindestens 200 m, horizontales Sichtfeld von mindestens 20°, vertikales Sichtfeld von mindestens 15°

  • Genauigkeit von 3,5 cm oder besser, horizontale Winkelauflösung von 0,26° oder besser

LiDAR – Nahbereich

  • Empfohlenes horizontales Sichtfeld von 120° oder mehr, empfohlener vertikaler Erfassungsbereich von mindestens -75° bis +15°

  • Scanfrequenz von mindestens 20 Hz (konfigurierbar)

  • Mindestens 64 Kanäle

  • Reichweite von mindestens 30 m

Radarsensoren – Ecken

  • Reichweite von 1 bis 30 m

  • Messfrequenz von mindestens 13 Hz

  • Horizontales Sichtfeld von mindestens 75°, vertikales Sichtfeld von mindestens 15°

Radarsensoren – Front/Heck

  • Reichweite von mindestens 80 m 

  • Messfrequenz von mindestens 13 Hz 

  • Horizontales Sichtfeld von mindestens 60°, vertikales Sichtfeld von mindestens 15°

Trägheitsnavigationssysteme (INS/IMU) und Echtzeitkinematik (RTK)

  • Navigationsgenauigkeit (RTK) mit einer horizontalen Abweichung von maximal 10 cm 

  • Unterstützung der Kursmessung mit einer dynamischen Genauigkeit von mindestens 0,1° 

  • Geschwindigkeitsmessung mit einer Genauigkeit von mindestens 0,05 m/s (bis mindestens 200 km/h)

  • GPS-Abtastrate von mindestens 100 Hz 

  • IMU-Daten:

  • Linearer Beschleunigungsvektor (x, y, z) im IMU-Koordinatensystem (in m/s²)

  • Winkelgeschwindigkeit um die x-, y- und z-Achsen im IMU-Koordinatensystem (in rad/s)

  • Fahrzeugposition: Beschleunigungsvektor (in m/s²) und Rotationsvektor (Orientierung) im EGO-Fahrzeugkoordinatensystem

Wärmebildkamera

  • Auflösung von mindestens 640 × 480 Pixeln

  • Bildrate von mindestens 25 Bildern pro Sekunde

  • Thermische Empfindlichkeit von höchstens 50 mK

Stromversorgung der Sensoren

  • Autonome Stromversorgung eines aktiven Messsystems für mindestens 4 Stunden

  • Kein fester Einbau im Fahrzeug, um eine einfache Entnahme zu ermöglichen

  • Ladung über Netzstrom

  • Keine direkte Versorgung aus dem Bordnetz, Ladung über 12-V-Zigarettenanzünderbuchse (mit Einschränkungen) zulässig

  • Verwendung von reinen Sinus-Wechselrichtern bei Wechselstrombedarf der Geräte im Messsystem

Datenerfassungs- und Messausrüstung

Envibra stattete das Forschungsfahrzeug mit 19 Sensoren aus, deren Anzahl weiter wächst und über die Software DewesoftX integriert wird. Zur Erfüllung der Anforderungen (die in einigen Fällen übertroffen wurden, z. B. beim Nahbereichs-LiDAR OS Dome) wurden folgende Komponenten ausgewählt:

Datenlogger

Datenlogger b-Plus Brick2  mit BMC-Modul und BMC-ETH6000-Karte

Trägheitsnavigation

Trägheitsnavigationssystem NAVION i2 von Dewesoft mit einer Abtastrate von 100 Hz für Echtzeit-Positionsdaten. Das Navion-i2-Modul enthält einen GNSS-Sensor, der durch RTK-Korrektur (über RTK-Basisstationen) eine Positionierungsgenauigkeit von unter 10 cm erreicht.

Bildgebung

Es kommen sieben Hochgeschwindigkeitskameras des Typs Dewesoft DS-CAM-640c zum Einsatz, wobei sechs Kameras ein horizontales 360°-Sichtfeld abdecken und eine zentrale, mit einem anderen Objektiv ausgestattete Kamera für die Fernsicht nach vorne verwendet wird.

Technische Daten der Kameras:

  • Bildsensor: Sony IMX252 CMOS

  • Auflösung 2048 × 1536 Pixel, Bildrate 200 fps

  • Global Shutter (Belichtungszeit: 1 µs bis 60 s)

  • Dynamikbereich: 71 dB

LiDAR-Sensoren

Es wurden vier LiDAR-Sensoren installiert:

  • 1 x Ouster OS1 (zentral auf der Fahrzeugachse, 360°)

  • 360° horizontales Sichtfeld, 45° vertikales Sichtfeld

  • Vertikale Auflösung von 128 Kanälen

  • Horizontale Winkelauflösung von 0,25° mit einer Genauigkeit von ±0,1°

  • Maximale Reichweite von 200 m

  • Eingestellte Rotationsfrequenz von 20 Hz

  • 1 x Ouster OS2 (zentral auf der Fahrzeugachse, für Fernbereich)

  • 360° horizontales Sichtfeld, 22,5° vertikales Sichtfeld

  • Vertikale Auflösung von 128 Kanälen

  • Maximale Reichweite von 350 m

  • Rotationsfrequenz von 20 Hz (konfigurierbar auf 10 Hz)

  • 2 x Ouster Dome (diagonal an den seitlichen Fahrzeugkanten)

  • Vertikales Sichtfeld von 180°

  • Vertikale Auflösung von 128 Kanälen

  • Horizontale Winkelauflösung von 0,7°

  • Maximale Reichweite von 45 m

Radarsensoren

Es wurden sechs Radarsensoren installiert:

  • 2 x DRVEGRD 152 (an Front und Heck, große Distanz)

  • Frequenzband 76–77 GHz

  • Abtastrate von 16,6 Hz

  • Reichweite von mindestens 0,9 m bis höchstens 200 m

  • Horizontales Sichtfeld 100°, vertikales Sichtfeld 20°

  • Tracking von -400 km/h bis +200 km/h

  • Entfernungsgenauigkeit von <0,45 m

  • 4 x DRVEGRD 169 (an den Fahrzeugecken)

  • Frequenzband 77–81 GHz

  • Abtastrate von 16,6 Hz

  • Reichweite von mindestens 0,6 m bis höchstens 56 m

  • Horizontales Sichtfeld 130°, vertikales Sichtfeld 15°

  • Tracking von -340 km/h bis +140 km/h

  • Entfernungsgenauigkeit von <0,3 m

Abb. 2: Links: Nahaufnahme der Kuppel mit Kameras und LiDAR; rechts: Gesamtansicht des Fahrzeugs

Zusätzlich umfasst das System ein REDARC-basiertes Strom- und Batteriemanagementsystem.

Herausforderungen und Lösungen

Die Hardwareanforderungen wurden durch die Auswahl von Komponenten erfüllt, die mit der DewesoftX-Plattform kompatibel sind. Die größte Herausforderung bestand in der Integration der LiDAR- und Radarsensoren, die zuvor noch nicht mit der Software verwendet worden waren.

Zur Lösung entwickelte ein Team aus Ingenieuren von SEARCH, Dewesoft und Envibra gemeinsam ein maßgeschneidertes Plug-in, das die direkte Sensorsteuerung in DewesoftX ermöglichte. Dadurch entfiel die Notwendigkeit, auf Ouster Studio – die native Software der Sensoren – zurückzugreifen. Der Zeitaufwand war erheblich, aufgrund der knappen Dokumentation und der komplexen Koordination mit den für einzelne DewesoftX-Funktionen zuständigen Teams.

Es folgt eine Übersicht über die größten Herausforderungen und deren Lösungen.

Herausforderung 1: Extraktion kurzer Szenarien aus längeren Aufnahmen

Gelöst. DewesoftX unterstützt bereits das Schneiden von etwa 20 Sekunden langen Szenarien aus längeren Aufnahmen (ca. 10 min).

Herausforderung 2: Integration des Messsystems in das Fahrzeug

Gelöst. Wo immer möglich, wurde das System ohne strukturelle Änderungen am Fahrzeug installiert. So wurden die Radarsensoren zum Beispiel hinter den Stoßfängern montiert, ohne das äußere Erscheinungsbild des Fahrzeugs zu beeinträchtigen. Auch die Fahrerassistenzsysteme des Fahrzeugs werden von den installierten Sensoren nicht beeinflusst.

Herausforderung 3: Montage des Systems auf dem Fahrzeugdach in einer abnehmbaren Umhausung

Gelöst. Wir entwarfen eine spezielle Kuppel, die auf einem Rahmen und anschließend auf den vorhandenen Dachreling-Schienen des Fahrzeugs montiert wurde. Dadurch war die gesamte Baugruppe problemlos abnehmbar.

Herausforderung 4: Befestigung externer Komponenten mit klebenden Montagepads

Gelöst. Für die Befestigung von Komponenten außerhalb der Kuppel oder der Fahrzeugkarosserie wurden Klebelösungen eingesetzt. Dieser Ansatz wurde beispielsweise für die Navigationsantennen verwendet.

Herausforderung 5: Synchronisation aller aufgezeichneten Daten mit einem Haupttaktgeber

Gelöst. Alle Komponenten nutzen dieselbe Zeitreferenz. Wir implementierten eine Master-Slave-Architektur, bei der die erste Kamera als Master fungiert und die übrigen Komponenten als Slaves. Wo möglich, erfolgte die Synchronisation über das PTP-Kommunikationsprotokoll.

Herausforderung 6: Kabelverlegung bei geschlossenen Türen und Fenstern

Gelöst. Zur Führung und zum Schutz der Kabel wurde eine spezielle Kabelhülse entwickelt. Die linke hintere Türscheibe wurde entfernt und durch eine Plexiglasplatte mit einer Durchführung für das Kabelrohr ersetzt. Die Konstruktion wurde abgedichtet, und die Kabel wurden mit ausreichend Spiel verlegt, um das problemlose Öffnen der Tür zu ermöglichen. Das Fenster ist dadurch allerdings nicht mehr funktionsfähig.

Herausforderung 7: Betrieb bei Temperaturen von -10 °C bis +40 °C

Teilweise gelöst. Der in der Kuppel installierte 40-W-Heizkörper reichte nicht aus, um die Betriebstemperatur bei sehr kalten Bedingungen aufrechtzuerhalten. In der Praxis bedeutet dies, dass das System nicht unter -5 °C eingesetzt werden kann. Das Lagerungsverhalten wurde bisher nicht verifiziert, obwohl das Fahrzeug in einer Garage untergestellt wird.

Herausforderung 8: Präzise Aufzeichnung bei Geschwindigkeiten bis zu 130 km/h

Gelöst. Die Dachreling ist für Geschwindigkeiten bis zu 130 km/h zertifiziert, was der Anforderung entspricht. Aus Sicherheitsgründen wird das Fahrzeug während des Betriebs jedoch nicht schneller als 110 km/h gefahren.

Herausforderung 9: Zuverlässiger Betrieb unter rauen Wetterbedingungen für bis zu sechs Stunden

Gelöst. Es wurden automobiltaugliche Sensoren, LiDAR- und Radarsysteme verwendet, die für den Außeneinsatz unter anspruchsvollen Wetterbedingungen ausgelegt sind. Die Kameras wurden in einer abgedichteten Metallkuppel untergebracht, um sie vor Feuchtigkeit und Staub zu schützen. Die Kabeldurchführung am Fenster schützte die verlegten Kabel vor Wind und anderen Umwelteinflüssen.

Zusätzliche Herausforderungen

  • Fahrzeuggewicht – Nach der Montage aller Komponenten war das Fahrzeug zu schwer. Es ist daher nun nur noch für drei statt fünf Passagiere zugelassen.

  • Beschlagen der Kameralinsen – Aufgrund des Temperaturunterschieds in- und außerhalb der Kuppel beschlugen die Objektivöffnungen der Kameras. In der Kuppel musste ein Feuchtigkeitsabsorber platziert werden.

  • Zeitumstellung in DewesoftX – Wenn die Zeitquelle von GPS auf den internen Brick2-Oszillator wechselt, schaltet die interne DewesoftX-Zeit von UTC auf TAI um.

  • HDR bei den Kameras – Entgegen den Angaben in den technischen Spezifikationen unterstützten die Kameras kein HDR (12 Bit). Das Problem konnte bisher nicht behoben werden.

  • Fehlende Zeitstempel und Synchronisationsprotokolle der Wärmebildkamera – Eine externe Synchronisation ist möglich, aber instabil.

  • Spontane Änderungen der Weißabgleicheinstellungen bei bestimmten Bedingungen (Nacht, schwaches Licht) – selbst bei deaktiviertem automatischen Weißabgleich. Das Problem trat nur beim Start der Kameras bei sehr schwachem Licht auf und betraf jeweils nur eine Kamera (nicht immer dieselbe und nicht alle gleichzeitig). Eine weiterführende Untersuchung ist erforderlich.

  • Signalverluste – Beim Verlassen von Bereichen ohne GSM-Empfang (z. B. Tunneln) stellt die RTK die GSM-Kommunikation nicht immer selbstständig wieder her, sondern erfordert ein manuelles Zurücksetzen.

  • Automatische Belichtungsanpassung der Kameras bei schwachem Licht – bei gleichzeitiger Verlängerung der Belichtungszeit. Ursprünglich war die maximale Belichtungszeit falsch eingestellt worden (1 s pro Bild), wodurch zu wenig Zeit zum Vollenden eines Bildes vor Beginn des nächsten blieb. Dieser Fehler führte zum Synchronisationsverlust aller Kameras. Das Problem wurde gelöst, indem die maximale Belichtungszeit um 100 Mikrosekunden reduziert wurde.

  • Brick2 nutzt NAVION i2 nicht als Zeitreferenz – Das Konzept musste nach über 1,5 Monaten Test und Entwicklung geändert werden. Jetzt verwendet Brick2 sein eigenes GPS zur Definition der System-Masterzeit, während NAVION i2 als Slave fungiert. Wegen diverser weiterer Probleme wird nun mit der DS-IMU2 gearbeitet.

  • Sporadische Synchronisationsprobleme – Diese führten zu Verlusten von LiDAR-Daten im Subsekundenbereich, obwohl diese für Vorschauzwecke empfangen und aufgezeichnet wurden. Das Problem ist noch nicht gelöst.

Beispiele von Sensoraufzeichnungen

Das DARTS-PL-Projekt wird eine umfassende Lösung für die Entwicklung und Erprobung von Wahrnehmungsalgorithmen für automatisierte Fahrzeuge bieten:

  • Rohdaten und annotierte Daten: Eine umfangreiche Datenbank mit multimodalen Fahrdaten. Am Ende des Projekts (05/2027) werden mindestens 840 Szenarien aus über 100 ausgewählten Infrastrukturabschnitten zur Verfügung stehen.

  • Webportal: Mit Filter- und Download-Optionen für spezifische Szenariotypen (z. B. „Nacht + Fußgänger“).

  • Auto-Annotationssoftware: Proprietäre Tools für Objektnachverfolgung und automatisierte Beschriftung, um den manuellen Aufwand bei der weiteren Datenbankentwicklung zu reduzieren.

Im Projekt nutzen wir DewesoftX für die Erfassung der Szenarien und den Datenexport. Die Software hilft dabei, Daten im Einklang mit den projektspezifischen Regeln zu generieren. Nachfolgend präsentieren wir mehrere Beispielszenen, die in der DewesoftX-Software visualisiert wurden:

Abb. 3: 360°-Kameraaufnahme, erfasst am 13.10.2025 auf der Most Świętokrzyski in Warschau (Polen)
Abb. 4: Ouster-OS1-LiDAR-Daten, erfasst am 13.10.2025 auf der Most Świętokrzyski in Warschau (Polen)
Abb. 5: Zentrale Fernsichtkamera und DS-IMU2, erfasst am 13.10.2025 auf der Most Świętokrzyski in Warschau (Polen)
Abb. 6a: Kamerabild, erfasst am 17.02.2026 auf der Aleja Obrońców Grodna (Route S8) in Warschau (Polen)
Abb. 6b: Radarbild derselben Szene wie in Abb. 6a
Abb. 7: Ouster-OS-DOME-LiDAR-Daten, erfasst am 13.10.2025 in Warschau (Polen)
Abb. 8: Winterszene mit LiDAR, Wärmebildkamera und zentraler Fernsichtkamera: Straße entlang der Eisenbahnlinie, Fußgänger mit Hund; erfasst am 17.02.2026 in der Ulica Tynkarska in Warschau (Polen)



Abb. 9: LiDAR-Aufnahmen (Ouster OS1 und OS2) eines Bahnübergangs; erfasst am 17.02.2026 in der Ulica Strąkowa in Warschau (Polen)

Fazit

DARTS-PL stellt einen hochauflösenden, synchronisierten, polenspezifischen Datensatz bereit, der die Lücke zwischen theoretischem Code und realen Straßenbedingungen schließt. Der Open-Access-Charakter der Datenbank stellt sicher, dass sie in den kommenden Jahren als grundlegende Infrastruktur für die Erprobung der Umfelderfassung autonomer Fahrzeuge in Polen und Europa dienen wird. So fördert sie Innovation und gewährleistet gleichzeitig höchste Sicherheitsstandards.

Aktuell befindet sich das Projekt in der Phase der Datenerfassung, und die ersten Annotationsprozesse laufen an. Die Veröffentlichung der ersten Daten ist für das dritte Quartal 2026 geplant, die vollständige Datenbank soll im ersten Halbjahr 2027 verfügbar sein.

Quellennachweis

  1. Liu, M. ; Yurtsever, E. ; Fossaert, J., et al.: A Survey on Autonomous Driving Datasets: Statistics, Annotation Quality, and a Future Outlook.  In: IEEE Transactions on Intelligent Vehicles. 2024;9(11): 7138-7164. DOI:10.1109/TIV.2024.3394735

  2. Hossain, M. ; Islam, M. Z. ; Islam, M. S., et al.: A Comprehensive Review on Traffic Datasets and Simulators for Autonomous Vehicles. arXiv. Vorabdruck online gestellt am 18. Dezember 2024. DOI:10.48550/arXiv.2412.14207