Autonome Fahrzeuge stellen hochkomplexe, dynamische Systeme dar, für deren Verwirklichung die Forschungsergebnisse vieler Wissenschaftszweige zusammengeführt werden müssen. So sind für die Fahrzeugführung - insbesondere bei hohen Geschwindigkeiten - die Methoden der Regelungstechnik und Systemdynamik unverzichtbar. Zur Messung des Fahrzeugzustands und für die Wahrnehmung von Objekten in der Umgebung müssen die Signale unterschiedlichster Sensoren verarbeitet und fusioniert werden. Inertialsensoren, GPS-Sensoren, Radar und Echtzeitbildverarbeitung sind nur einige mögliche Informationsquellen für ein autonomes Fahrzeug. Mit zunehmender Anzahl von Fähigkeiten des autonomen Fahrzeugs erhöht sich auch die Notwendigkeit einer flexiblen, effizienten Situationsanalyse und Verhaltensentscheidung. Hier benötigt man geeignete Methoden zur Wissensrepräsentation, Verhaltensmodellierung und künstlichen Intelligenz. Die vorliegende Arbeit möchte eine Brücke zwischen den oben genannten Wissenschaftsbereichen sein. Sie stellt ein Gesamtsystem vor, welches es erlaubt, Bildverarbeitung, Fahrzeugführung, Situationsanalyse, Verhaltensentscheidung, Blickrichtungssteuerung und Missionsplanung im \"geschlossenen Kreis\" - d. h. mit Rückkopplung über die reale Welt - zu betreiben und zu testen, so dass alle Komponenten des Systems parallel verbessert werden können. Zu diesem Zweck entwickelte der Autor eine Verhaltensentscheidung für ein autonomes Bodenfahrzeug, welches aus mehreren Systemkomponenten besteht. So repräsentiert das sogenannte \"Fähigkeitennetz\" die einzelnen Fähigkeiten der Systemkomponenten mit ihren unterschiedlichen Abstraktionsgraden und deren Abhängigkeiten untereinander. Das Modul zur Situationsanalyse und Verhaltensentscheidung generiert situationsbeschreibende, linguistische Aussagen, wählt die repräsentierten Fähigkeiten situations- und zielgerecht aus und kontrolliert und koordiniert die Aktivitäten im System. Dabei beschreibt eine Bibliothek unscharfer Regeln das Sollverhalten des Fahrzeugs. Das in der Arbeit vorgestellte autonome Fahrzeug ist kein passiver Beobachter, sondern kann mit seinem multifokalen Fahrzeugauge (MARVEYE) und seiner aktiven Kameraplattform bestimmen, welche Information es über die Umwelt mit welcher Auflösung aufnimmt. Die Arbeit beschreibt den aktuellen Stand der Technik bezüglich der Entwicklung von aktiv sehenden Fahrzeugen und mobilen Robotern. Daraus geht hervor, dass das vorgestellte Kraftfahrzeug das erste seiner Art ist, welches über eine aktive Blickrichtungssteuerung verfügt, die die Bedürfnisse und Eigenschaften der verschiedenen Messprozesse und die Geometrien der wahrzunehmenden Objekte berücksichtigt. Der Autor versucht, die Implementierung der vorgestellten Konzepte möglichst erschöpfend dazustellen. Er bedient sich dazu der inzwischen allgemein anerkannten Unified Modeling Language (UML). Die Verifikation der Konzepte zur Situationsanalyse, Verhaltensentscheidung und Blickrichtungssteuerung geschieht im Rahmen von komplexen, autonomen Missionen, die mit dem Versuchsfahrzeug VAMORS in natürlicher Umgebung durchgeführt wurden. In diesen Missionen navigiert das Fahrzeug auf einem engen Wegenetz und auf unbefestigtem Gelände. Wichtige Elemente sind das autonome Abbiegen und das Ausweichen vor einem Graben.
«Autonome Fahrzeuge stellen hochkomplexe, dynamische Systeme dar, für deren Verwirklichung die Forschungsergebnisse vieler Wissenschaftszweige zusammengeführt werden müssen. So sind für die Fahrzeugführung - insbesondere bei hohen Geschwindigkeiten - die Methoden der Regelungstechnik und Systemdynamik unverzichtbar. Zur Messung des Fahrzeugzustands und für die Wahrnehmung von Objekten in der Umgebung müssen die Signale unterschiedlichster Sensoren verarbeitet und fusioniert werden. Inertialsensor...
»