Die Fähigkeit zur Wahrnehmung der Umwelt stellt eine essentielle Voraussetzung für moderne Robotikanwendungen dar. Dieses gilt insbesondere für Systeme, die in natürlichen Umgebungen agieren, da im allgemeinen keine vollständige Beschreibung der Umwelt angegeben werden kann. Um solche Systeme dennoch in die Lage zu versetzen, auch komplexe Aufgaben lösen zu können, müssen zahlreiche Bedingungen an ein Bildverarbeitungssystem gestellt werden. So muss das Bildverarbeitungssystem trotz unvollständiger, unsicherer und ungenauer Information eine robuste Objekterkennung erlauben. Zusätzlich muss die Bildverarbeitung die Fähigkeit besitzen, sich an verschiedene, sich ändernde Umgebungsbedingungen und Aufgabenstellungen anzupassen.
Herkömmliche Bildverarbeitungssysteme können solche Anforderungen im allgemeinen nicht erfüllen, da die verwendeten Methoden häufig für spezielle Anwendungen konzipiert werden und starre monolithische Strukturen besitzen. Um einen Ausweg aus dieser Problematik zu finden, wird in dieser Arbeit ein Ansatz verfolgt, der moderne flexible und robuste Objekterkennungsmethoden mit einer flexiblen Systemarchitektur vereint.
So werden in der Arbeit zunächst zwei verschiedene Verfahren zur Hypothesengenerierung entwickelt: ein geometrisches und ein ansichtenbasiertes Verfahren. Beide Verfahren basieren dabei hauptsächlich auf der sogenannten Invariantentheorie, die es erlaubt, Objektbeschreibungen zu definieren, die nicht durch die intrinsischen und extrinsischen Kameraparameter beeinflusst werden. Das bedeutet, dass die Invariantentheorie Objektbeschreibungen ermöglicht, die unabhängig von den verwendeten Kameras und der jeweiligen Kamerasicht sind.
Das geometrische Verfahren verbindet dabei zusätzlich die Vorteile von invarianten Objektbeschreibungen mit den Modellierungseigenschaften der Fuzzy-Mengen-Theorie. Im Gegensatz zu anderen geometrisch-basierten Verfahren zur Hypothesengenerierung lässt sich das vorgestellte Verfahren auf eine sehr große Bandbreite von geometrischen Invarianten anwenden. Zusätzlich besitzt es, wie anhand von Beispielen gezeigt werden konnte, ein besseres Diskriminationsverhalten gegenüber sehr ähnlichen Objekten und ist dabei noch leicht erweiterbar, indem zusätzliche (auch nicht invariante) Merkmale in die Hypothesengenerierung integriert werden können. Das ansichtenbasierte Verfahren setzt auf der etablierten Hauptachsentransformation zur Musterklassifikation auf. Hier wird die Hauptachsentransformation jedoch nicht direkt auf extrahierte Bildausschnitte angewendet, sondern auf deren invarianten Repräsentationen. Der Vorteil im Gegensatz zu herkömmlichen Verfahren dabei ist, dass der aus unterschiedlichen Perspektiven resultierende Einfluss reduziert wird und weniger Hauptachsen für eine Objektklassifizierung ausreichen. Ebenso wird eine geringere Menge von Bildern zum Training des Systems benötigt. Wie zahlreiche Erkennungsbeispiele demonstrieren, sind die beiden entwickelten Methoden in der Lage, (auch) partiell-verdeckte Objekte in unterschiedlichsten Kamerabildern zu erkennen, ohne dass ein Nachtraining bei Verwendung verschiedener unkalibrierter Kameras notwendig ist.
Zusätzlich zu den Erkennungsverfahren wird in der Arbeit eine agentbasierte Systemstruktur vorgeschlagen, die eine effiziente, parallel arbeitende und dezentralisierte Systemmodellierung erlaubt. Im Gegensatz zu den wenigen vergleichbaren Systemen, besitzt die entwickelte Agentenarchitektur eine übersichtliche Struktur, wobei die einzelnen Agenten mittels einer verständlichen Kommunikationssprache kommunizieren, über die sich die Agenten sogar programmieren lassen, so dass auch zur Laufzeit neue Funktionalität implementiert werden kann. Anhand von Beispielen wird gezeigt, dass das realisierte System in der Lage ist, sich anhand einer gegebenen Aufgabenstellung selbst zu organisieren und generell bessere Erkennungsergebnisse liefert als die zuvor monolithisch implementierten Objekterkennungssysteme.