Die grundsätzliche Zielsetzung von intelligenten Systemen zur Überwachung von Innenräumen
besteht in der automatisierten Interpretation von Aktionen in dem zu betrachtenden Gebiet. Eine
Prämisse hierfür ist die Fähigkeit der Detektion, Lokalisation, Verfolgung und Klassifikation von
Objekten im entsprechenden Zielbereich.
Entscheidend für die Konzeption eines Überwachungssystems ist weiterhin das primäre
Einsatzgebiet. Während für kleine Überwachungsbereiche und unter der Annahme nur weniger
gleichzeitig vorhandener Objekte eventuell die Verwendung eines einzelnen Sensorsystems
ausreicht, bedarf es im Fall größerer Bereiche, mit mehreren gleichzeitig vorhandenen und zu
verfolgenden Objekten, in der Regel einer verteilten und miteinander kooperierenden Sensorik.
Ein in letzter Zeit verstärkt verfolgter Ansatz zur Steigerung der Leistung der Prozesse von
Detektion, Lokalisation und Klassifikation liegt dabei in der Verwendung einer Kombination von
2D- und 3D-Informationen, welche, je nach Anforderung, auf Pixel-, Merkmal- oder
Entscheidungsebene miteinander fusioniert werden. Die Kombination unterschiedlicher Systeme
zu 2D/3D-Messsystemen ist jedoch keineswegs trivial. Zunächst bedarf es im Falle der
Betrachtung beweglicher Objekte einer zeitlichen Synchronisation der anfallenden Daten. Im
Hinblick auf eine effektive Fusion ist weiterhin eine Registrierung der Daten der unterschiedlichen
Quellen notwendig. Tritt zusätzlich die Notwendigkeit einer koordinierten Verwendung mehrerer
Systeme auf, so kann das aufgrund der sich ergebenden Komplexität in Bezug auf die Handhabung
der informationsliefernden Einheiten in einer inakzeptablen Operation des Gesamtsystems
münden.
Die am Zentrum für Sensorsysteme (ZESS) entwickelte MultiCam, ein zurzeit einmaliges
Sensorsystem zur kombinierten Akquisition von CMOS-basierten Intensitäts- (2D) und Time-ofFlight (ToF) basierten Distanzdaten (3D) einer gesamten Szene, erlaubt aufgrund ihres
monokularen Aufbaus eine drastische Vereinfachung der Registrierung der 2D- und 3DInformationen. Weiterhin ermöglicht die interne Logik, untergebracht in einem dedizierten FPGA,
eine akkurate Synchronisation der unterschiedlichen Informationsströme. Durch die Reduktion der
Komplexität der Prozesse der Registrierung sowie Synchronisierung der 2D- und 3D-Daten bietet
sich die Möglichkeit der Kombination einer Vielzahl von simultan operierenden MultiCams zu
einem Überwachungssystem an, mit im Vergleich zu konventionellen 2D/3D-Systemen drastisch
vereinfachter Handhabung.
Bedingt durch den Einsatz der ebenfalls am ZESS entwickelten Beleuchtungseinheiten, erlauben
die im Rahmen dieser Arbeit verwendeten MultiCams die Überwachung eines Distanzbereichs bis
ca. 9 m bei einer Bildwiederholrate von 20 Bildern pro Sekunde. Dieses entspricht einem
Entfernungsbereich, der zurzeit von ToF-Systemen vergleichbarer Art nur unter Einsatz erhöhter
Integrationszeiten und somit reduzierter Bildwiederholraten abgedeckt werden kann. Weiterhin
ergibt sich durch die Verwendung einer Linse mit einer Brennweite von 6mmdie Möglichkeit der
Überwachung von Volumina, in denen sich mehrere Personen simultan aufhalten und miteinander
interagieren können. In Verbindung mit der vorhandenen Zeitauflösung kann damit der
Bewegungsdynamik der Objekte effektiv Rechnung getragen werden. Aufgrund der genannten
Eigenschaften eignet sich die MultiCam somit ideal zur Detektion, Lokalisation, Verfolgung und
Klassifikation von Objekten in Innenräumen.
Durch die Verwendung der Informationen von mehreren, simultan operierenden MultiCams mit
verschiedenen Ausrichtungen und einem sich teilweise überlappenden Sichtbereich, lässt sich
weiterhin eine direkte Erweiterung des Überwachungsbereichs sowie eine Reduktion durch
gegenseitige Objektverdeckungen induzierten Uneindeutigkeiten erreichen und ermöglicht die
Erzeugung von Objekttrajektorien mit einem erhöhten Informationsgehalt.
Dem Problem der anfallenden Datenmenge, die durch die Verwendung mehrerer simultan
operierender MultiCams entsteht, wird durch den Einsatz eines agentenbasierten verteilten
Systems begegnet.
Informationsliefernde Agenten, bestehend aus einer MultiCam mit zugehöriger
Prozessierungseinheit, übernehmen die Erzeugung von lokalen Informationen bzw. Features bzgl.
der aus ihrer Sicht vorhandenen Objekte und senden diese in Form eines Statusvektors an einen
zur Fusion aller Informationen zuständigen Agenten. Weiterhin können aufgrund der gegenseitigen
Unabhängigkeit der informationsliefernden Agenten die Daten der vorhandenen MultiCams
parallel bearbeitet werden, was eine einfache Skalierung des Gesamtsystems erlaubt.