Situationserkennung als Grundlage der Verhaltenssteuerung eines ...

Ein neuartiges Systemkonzept für verhaltensbasierte mobile Roboter, die ..... damit bei günstigen Bedingungen schnell und zuverlässig auf Hindernisse, z.B. mit ...
143KB Größe 19 Downloads 329 Ansichten
Fachgespräch AMS. München, Oktober 1996

Situationserkennung als Grundlage der Verhaltenssteuerung eines mobilen Roboters Klaus Peter Wershofen und Volker Graefe Institut für Meßtechnik Universität der Bundeswehr München 85577 Neubiberg

Kurzfassung Ein neuartiges Systemkonzept für verhaltensbasierte mobile Roboter, die objektorientierte verhaltensbasierte Navigation, wird vorgestellt. Kernpunkt dabei ist, daß die Verhaltensauswahl situationsgesteuert erfolgt. Der hierfür maßgebliche Situationsbegriff wird erläutert; er ergibt sich im wesentlichen aus den Zuständen der in der Umgebung des Roboters befindlichen körperlichen Objekte und des Roboters selbst. Voraussetzungen für eine Realisierung des Konzepts sind eine leistungsfähige Sensorik und eine angepaßte Wissensrepräsentation. Ein globales Koordinatensystem und eine genaue Kenntnis der geometrischen Gegebenheiten des Einsatzgebiets des Roboters sind dagegen nicht erforderlich. Das Konzept wurde in Form eines mobilen Roboters, der sichtgesteuert in Wegenetzen von Gebäuden navigieren kann, realisiert. Dabei zeigte sich, daß sich auf der Grundlage des vorgestellten Systemkonzepts sowohl eine Lernfähigkeit des Roboters als auch ein hohes Maß an Benutzerfreundlichkeit bei der Kommunikation mit dem Roboter erreichen läßt.

Einführung Verhaltensbasierte Ansätze finden bei der Planung und Koordinierung der Handlungen von autonomen Robotern seit etwa zehn Jahren besonderes Interesse. Während bei klassischer Vorgehensweise ein Roboter vor dem Ausführen einer Bewegung erst einmal eine „optimale” Bahn errechnet und sich dann entsprechend dieser Bahn bewegt, wählt ein verhaltensbasierter Roboter aus einem Repertoire verfügbarer, sozusagen eingebauter, Verhaltensmuster (Anhalten, Abbiegen, Geradeausfahren o.ä.) ein in diesem Moment angemessenes oder erfolgversprechendes aus und führt es sofort aus. Komplexe Missionen, etwa die Fahrt durch ein Wegenetz, werden ausgeführt, indem nacheinander verschiedene Verhaltensmuster aktiviert werden. Gegenüber dem klassischen Ansatz mit der dort üblichen Bahnplanung und -optimierung werden durch einen verhaltensbasierten Ansatz wesentliche Nachteile vermieden, u.a. der hohe typischerweise benötigte Zeitbedarf vor dem Beginn der Bewegung, die Notwendigkeit, zahlreiche kinematische, dynamische und sensorische Systemparameter des Roboters genauestens zu kennen, und die Schwierigkeit, das benötigte interne „Weltmodell” (auch wenn es in Wahrheit nur ein Modell eines kleinen Umgebungsbereichs ist) aus real verfügbaren Sensordaten mit der erforderlichen Vollständigkeit und Genauigkeit aufzubauen. Der verhaltensbasierte Ansatz ersetzt die aufwendige quantitative Optimierungsrechnung und Bahnplanung durch eine qualitative Abwägung zwischen den aktuell ausführbaren Verhaltensmustern, was sehr schnell und in vielen Fällen schon auf der Grundlage ungefährer, qualitativer Sensordaten und ohne Verwendung eines quantitativ genauen Weltmodells geschehen kann.

Fachgespräch AMS. München, Oktober 1996

-2-

Wershofen, Graefe

Ein zentrales Problem bei jedem verhaltensbasierten Ansatz ist, wie und auf welcher Grundlage die fortlaufende Auswahl des jeweils zu aktivierenden Verhaltens geschehen soll. Im folgenden wird hierzu ein Lösungsansatz vorgestellt, der auf der Fähigkeit eines Roboters beruht, Situationen in Echtzeit zu erkennen und die Verhaltensauswahl auf dieser Grundlage situationsabhängig vorzunehmen. Da es die in der Umgebung des Roboters sichtbaren Objekte sind, welche die Situation, und damit die Verhaltensauswahl, wesentlich mitbestimmen, bezeichnen wir unseren Ansatz, zur Abgrenzung von anderen verhaltensbasierten Ansätzen, auch als objektorientiert.

Die Begriffe „Objekt” und „Situation” Bei der objektorientierten verhaltensbasierten Navigation spielen die Begriffe „Objekt” und „Situation” im Zusammenhang mit der Umwelterfassung sowie der Auswahl und der Ausführung von Verhaltensmustern eine wichtige Rolle. Da diese Begriffe häufig mit unterschiedlichen Inhalten verwendet werden, soll hier ihre Bedeutung im Zusammenhang mit der objektorientierten verhaltensbasierten Navigation klargestellt werden.

Hinweistafel

Wand

Hindernis Abzweigung

Objekt

Abb. 1 Ein mobiler Roboter operiert in einer Umgebung, Teile der Versuchsumgebung mit die sich aus körperlichen Gegenständen Beispielen für „Objekte”, die im zusammensetzt. Alle körperlichen Gegenstände Zusammenhang mit der Navigation in (oder Teile davon), die für den Roboter bei der Wegenetzen relevant sind (mit weißem Verhaltenskoordination oder der Ausführung von Kreis markiert). Rechts im Bild ist der Verhaltensmustern von Bedeutung sind, werden nach dem hier beschriebenen Konzept hier als „Objekte” bezeichnet. Welche körperlichen aufgebaute mobile Roboter ATHENE II zu Gegenstände das im Einzelfall sind, ist abhängig sehen. vom Verhaltensrepertoire des Roboters und seinen Möglichkeiten, Verhaltensmuster auszuwählen bzw. zu koordinieren. Somit hängt es von den Fähigkeiten des Roboters ab, welche Teile der Umwelt als „Objekte” angesehen werden. In Abb. 1 sind Beispiele für Objekte, die für einen mobilen Roboter im Zusammenhang mit der Navigation in Wegenetzen von Gebäuden relevant sind, mit einem weißen Kreis markiert. Die dort zu sehenden „Objekte” „Hindernis”, „Abzweigung” und „Wand” sind sowohl zur Verhaltensauswahl als auch zur Verhaltensausführung geeignet, während das Objekt „Hinweistafel” nur für Zwecke der Verhaltenskoordination herangezogen wird. Situation Große Lexika, z.B. [Brockhaus 1989] oder [Meyer 1977] definieren den Begriff „Situation” als „augenblickliche Lage”, eine „Sachlage”, eine „Stellung” oder einen „Zustand”. Eine weitergehende Erklärung, die auch im Hinblick auf die Eingrenzung des Begriffs „Situation” im Zusammenhang mit der objektorientierten verhaltensbasierten Navigation wertvoll ist, erlauben die von beiden Lexika angeführten philosophischen Erläuterungen: „Situation ist im Sinne der Existenzphilosophie der einmalige, unwiederholbare Augenblick, in dem sich für den Einzelnen in der Wechselbeziehung zwischen innerer

Fachgespräch AMS. München, Oktober 1996

-3-

Wershofen, Graefe

Bestimmtheit und äußerer Lage die unmittelbare konkrete Wirklichkeit darstellt. Der in ihm gegebene Entscheidungszwang habe die nun sichtbare Unangemessenheit aller allgemeinen Normativität zu überbrücken. Die Situation sei somit als 'hermeneutische Situation' (M. Heidegger) zugleich Chance und Schranke des Menschen” [Brockhaus 1989]. „In der philosophischen Pragmatik ist Situation ein Konstrukt, das den Komplex von Bedingungen, Möglichkeiten und Determinanten von Handlungen zusammenfassen soll” [Meyer 1977]. Ähnlich wie bei den vorstehenden Definitionen ist auch bei der objektorientierten verhaltensbasierten Navigation der Begriff „Situation” als die Gesamtheit der Umstände, die vom Roboter bei der Auswahl eines in dem jeweiligen Moment geeigneten Verhaltensmusters zu berücksichtigen sind, zu verstehen. Dazu gehören  die wahrnehmbaren Objekte in der Umgebung des Roboters und deren vermutete oder erkennbare Zustände;  der Zustand des Roboters (Bewegungszustand, gerade ausgeführtes Verhaltensmuster etc.);  die Gegebenheiten der Umgebung, welche dem Roboter bekannt sind (z.B. Lageplan), auch wenn diese momentan mit seinen Sensoren nicht erfaßbar sind;  die Ziele des Roboters, und zwar sowohl permanente Ziele (z.B. Überleben, Unfallfreiheit), als auch transiente, die sich aus der aktuellen Mission ergeben (z.B. Fahrtziel, zu befahrende Wege);  das Repertoire an verfügbaren Verhaltensmustern sowie die gegebenen Möglichkeiten, Verhaltensmuster zu koordinieren und zu verketten und so bestimmte Änderungen der Situation herbeizuführen. Die Situation ergibt sich somit nicht direkt aus objektiv vorhandenen externen Gegebenheiten, sondern aus den unvollkommenen internen „Bildern” der externen Gegebenheiten, wie sie im Roboter aus der Sensordatenverarbeitung in Verbindung mit gespeichertem Wissen entstehen, zusammen mit den ebenfalls internen Zielen und Zuständen des Roboters. Der Benutzer spielt insofern indirekt eine Rolle, als er über die Benutzerschnittstelle Ziele vorgeben oder unmittelbar in die Verhaltensauswahl eingreifen kann.

Systemarchitektur Überblick Abbildung 2 gibt einen Überblick über die realisierte Systemarchitektur. Eine ausführliche Beschreibung der Systemarchitektur und ihrer Komponenten findet sich in [Wershofen 1996]. Zentrale Instanz ist das Situationsmodul. Die Situationserkennung spielt bei unserem Ansatz eine zentrale Rolle, weil fast alle Entscheidungen im System auf der Grundlage der vom Roboter erkannten Situation getroffen werden. Die Situationserkennung geschieht durch eine Verknüpfung von Sensordaten mit gespeichertem Wissen über die Umwelt und über die Mission. Eine wesentliche Grundlage der objektorientierten verhaltensbasierten Navigation bilden außerdem elementare sensorische und motorische Fähigkeiten, aus denen, wenn sie in koordinierter Form ausgeführt werden, Verhaltensmuster resultieren. Bei der hier im Vordergrund stehenden Navigation in Wegenetzen zählen zu den sensorischen Fähigkeiten die Erkennung von Wänden, Abbiegemöglichkeiten, Zielobjekten (auf die ggf. zugefahren werden soll) und Landmarken. Aus dem Bereich der motorischen Fähigkeiten ist z.B. das Geradeausfahren oder das Kurvefahren zu nennen.

Fachgespräch AMS. München, Oktober 1996

-4-

Wershofen, Graefe

Die Verhaltensmuster sind Wissensverwaltung wiederum die Basis für Missionsattribuierte topol. Karte beschreibung komplexes Verhalten, welches durch eine situaMissionstionsabhängige Verkettung KartenBenutzerexperte experte der (elementaren) Schnittstelle Verhaltensmuster entsteht. Auch das Abarbeiten vorgEin-/Ausgabe dynamisches Interface Sichtsystem egebener Fahraufträge wird d u r c h d i e Situationserkennung situationsabhängige Verund kettung von VerhaltensVerhaltensauswahl PropriozeptorVerhaltensSystem mustern realisiert. Dazu realisierung wird der erteilte Auftrag in eine Datenstruktur Sensorik Aktorik Situationsmodul (Missionsbeschreibung) umgesetzt, auf die ein Abb. 2 M a n a g e m e n t - P r o z e ß Überblick über die Systemarchitektur der objektorientierten zugreift, welcher das verhaltensbasierten Navigation. Gesamtverhalten – einschließlich der Kommunikation mit dem Benutzer – koordiniert. Drei weitere Module sind somit, neben dem Situationsmodul, wichtige Bestandteile des Systems: eine sehr leistungsfähige Sensorik zur Erfassung der Gegebenheiten der Umwelt als Grundlage der fortlaufenden Situationserkennung, eine Aktorik zur Realisierung der vom Situationsmodul jeweils ausgewählten Verhaltensmuster und eine an die Erfordernisse der Systemarchitektur angepaßte Wissensrepräsentation. Situationserkennung und Verhaltensauswahl Ein Beispiel soll die Funktionsweise dieses Moduls verdeutlichen. Ein Roboter habe die Aufgabe, sich in einem Netz von Korridoren in einem Gebäude zu bewegen. Eine typische Situation ist gegeben, wenn der Roboter sich mitten in einem Korridor befindet. Ein angemessenes Verhaltensmuster wäre in dieser Situation, dem Korridor entlangzufahren; Alternativen wären anzuhalten oder vielleicht auch umzukehren. Das Situationsmodul wird aufgrund der Sensordaten das Bestehen der genannten Situation erkennen und z.B. veranlassen, daß die Aktorik das Verhalten „Korridor Folgen” realisiert. Die Aktorik wird dabei mit den erforderlichen Sensordaten, z.B. Abstand zur Wand, versorgt. Eine neue Situation tritt ein, wenn der Roboter aufgrund einer groben Positionsschätzung erkennt, daß er in die Nähe einer Kreuzung gekommen ist, an der er (zur Erfüllung seiner aktuellen Mission) abbiegen sollte. Da weder eine genaue Grundrißkarte noch ein genau arbeitendes Navigationssystem vorausgesetzt werden soll, muß rechtzeitig vor dem Erreichen der Kreuzung ein Suchverhalten der Sensorik aktiviert werden, mit das Eintreten der wiederum neuen Situation „Kreuzung erreicht” erkannt wird, sobald sie eingetreten ist. Anschließend kann die Kreuzung relativ zum Roboter vermessen werden und das Verhaltensmuster „Abbiegen” aktiviert werden. Durch eine geeignete Verkettung von Verhaltensmustern kann der Roboter so jeden Punkt im Wegenetz erreichen; wichtig ist dabei, daß eine geometrisch ungenaue Karte des Wegenetzes genügt, wenn diese nur die Topologie des Netzes richtig repräsentiert. Weder für die Situationserkennung noch für die Ausführung von Verhaltensmustern muß der Roboter seine Position relativ zu irgendeinem globalen Koordinatensystem kennen, auch nicht zum Passieren von Engstellen. Es genügt, wenn er weiß, in welchem Korridor er sich befindet, in welcher der beiden möglichen Richtungen er sich bewegt, und wann er sich einer in der Karte nur ungenau eingetragenen Kreuzung soweit angenähert hat, daß es sich lohnt, das betreffende Suchverhalten

Fachgespräch AMS. München, Oktober 1996

-5-

Wershofen, Graefe

zu aktivieren. Eine hochgenaue Navigation relativ zu in der Nähe befindlichen Objekten, z.B. Wänden, ist dennoch möglich, nämlich durch Auswertung der aktuellen Sensordaten. Diese Vorgehensweise ist der eines Autofahrers vergleichbar, der mit einer ungenauen Anfahrtsskizze ein Ziel erreicht und dort seinen Wagen in einer engen Parklücke parkt, ohne sich dabei für genaue geographische Koordinaten zu interessieren. Sensorik und Aktorik Wichtige Voraussetzung für eine Situationserkennung ist reichhaltige sensorische Information über die in der Umgebung des Roboters befindlichen Objekte. Grundsätzlich kommen für die Gewinnung derartiger Information die verschiedensten Sensoren in Betracht. Einige Tiere, wie beispielsweise Fledermäuse und Delphine, stellen unter Beweis, daß reine Sonarsysteme sehr leistungsfähig sein können. Andererseits zeigt die Natur, daß das Sehen den akustischen Verfahren in nahezu allen Umgebungen überlegen ist [Graefe 1992a]. Hinzu kommt, daß die momentan für Roboter verfügbaren Sonarsysteme nur schlecht geeignet sind, Objekte zu erkennen und die Informationen zu liefern, die für die Erkennung von nicht-trivialen Situationen notwendig sind. Andererseits konnte gezeigt werden, daß ein Sichtsystem, dessen Architektur auf dem Konzept des in [Graefe 1989] bzw. [Graefe 1991] beschriebenen objektorientierten Sehens basiert, selbst wenn es nur aus gewöhnlichen Mikroprozessoren aufgebaut ist, die Informationen liefern kann, die ein autonomes Straßenfahrzeug benötigt, um Verkehrssituationen auf Autobahnen in Echtzeit zu erkennen [Graefe 1992b]. Neben dem Sichtsystem ist noch ein Propriozeptorsystem vorhanden, das im wesentlichen aus zwei mit den nicht angetriebenen Rädern verbundenen Weggebern besteht. Es dient vor allem dazu, ungefähre Information über Fahrgeschwindigkeiten und zurückgelegte Wege zu gewinnen. Genaue Information ist wegen der unvermeidlichen Meßfehler mit einer solchen Anordnung nicht zu erhalten. Sie ist aber auch nicht erforderlich, denn die Navigation beruht – wie auch beim Menschen – primär auf der visuell gewonnenen Information. Die Aktorik verfügt über ein Repertoire an sozusagen eingebauten motorischen Fähigkeiten, die jeweils als eigene Regler für die Motoren des Roboters realisiert sind. Durch koordinierte Aktivierung solcher motorischer Fähigkeiten in Verbindung mit sensorischen Fähigkeiten ergeben sich die elementaren Verhaltensmuster. Wissensrepräsentation Das für die Situationserkennung und die Steuerung des Roboters erforderliche Wissen ist nicht zentral in einer einzigen Wissensbasis gespeichert, sondern – in Anlehnung an das von [Graefe 1989] vorgeschlagene Konzept der objektorientierten Sichtsysteme – im gesamten System verteilt. Dabei wird das jeweilige Wissen so repräsentiert, wie es zur Lösung der jeweiligen Teilaufgabe optimal ist. Ganz bewußt wird dabei in Kauf genommen, daß dadurch unter Umständen gleiches Wissen zum Teil mehrfach an verschiedenen Stellen im System gespeichert wird. Ein Teil des Wissens, z.B. für die Erkennung von Objekten und Situationen oder für die Regelung des Roboters, ist in Form von prozeduralem Wissen unmittelbar innerhalb der für diese Fähigkeiten zuständigen Module gespeichert. Der andere Teil des Wissens wird in Form von deklarativem Wissen in Datenbasen gespeichert. An deklarativem Wissen benötigt der Roboter bei der objektorientierten verhaltensbasierten Navigation Wissen über die statischen Eigenschaften der Umgebung und Wissen über die auszuführende Aufgabe. Er verfügt deshalb über zwei unterschiedliche Wissensbasen:

Fachgespräch AMS. München, Oktober 1996

-6-

Wershofen, Graefe

 eine attribuierte topologische Karte, die das Wissen über das Operationsgebiet sowie über dort vorhandene Objekte beinhaltet;  eine Missionsbeschreibung, welche die aktuelle Aufgabe des Roboters spezifiziert.

C,E,G

B C

CDE: 60E EDG: 110E GDC: 190E

AF = 20 m

AF

A FA

1m: lm5 ... 3m: lm6 ... ...

D G

Zu jeder der beiden Wissensbasen gehören neben einer E FA = 20 m Datenstruktur zur Speicherung quasi statischen F 2m: lm3 ... 7m: lm4 ... Wissens die für den Zugriff auf das gespeicherte ... Wissen und die Verwaltung der Datenbestände zuständigen Prozeduren. Diese sind hier als Abb. 3 „Missionsexperte” und als „Kartenexperte” Ausschnitt einer attribuierten bezeichnet. topologischen Karte. Attribut-Listen Die beiden Wissensbasen sollen nachfolgend kurz (hier in gekürzter Form angedeutet) sind jedem Knoten und jedem vorgestellt werden. gerichteten Pfad zugeordnet. Attribuierte topologische Karte Eine topologische Karte, die durch geeignete Attribute erweitert ist, hat sich als adäquat erwiesen, um bei der objektorientierten verhaltensbasierten Navigation das zum Agieren in einem Wegenetz benötigte Wissen über die Umwelt zu repräsentieren. Sie wird, wie in [Graefe, Wershofen 1991] vorgeschlagen, „attribuierte topologische Karte” genannt. Die grundsätzliche Struktur der attribuierten topologischen Karte ist aus Abb. 3 ersichtlich. Die Abbildung zeigt einen kleinen Ausschnitt aus einer solchen Karte für ein Wegenetz. Die wichtigsten Eigenschaften der attribuierten topologischen Karte sind:  im Wegenetz vorhandene Kreuzungen und Abzweigungen (z.B. A, B und C) sowie aufgabenrelevante Orte wie etwa Beladestationen (z.B. G) werden als Punkte modelliert;  die Verbindungswege zwischen den Orten werden als Paare von entgegengesetzt gerichteten Pfaden modelliert;  sowohl Punkte als auch Pfade tragen als Attribute Listen, die wichtige Hinweise beinhalten. Ein Vorzug der attribuierten topologischen Karte ist, daß in ihr neben Informationen über die Topologie der Einsatzumgebung auch explizite Hinweise enthalten sein können, die das Bewältigen von Aufgaben erheblich erleichtern. Schon in [Kuhnert 1990], [Kuhnert, Wershofen 1990] und [Thorpe, Gowdy 1990] wird darauf hingewiesen, daß es für einen Roboter von Vorteil ist, nicht nur Informationen bezüglich der Geometrie bzw. Topologie der Einsatzumgebung zu speichern, sondern diese mit Hinweisen zu ergänzen, wie z.B. aufgabenrelevante Orte erkannt werden können oder welche Handlungen an einer bestimmten Stelle ausgeführt werden müssen. Missionsbeschreibung Abhängig von den Fähigkeiten des Roboters kann eine Missionsbeschreibung sehr kompakt oder sehr ausführlich sein. Im günstigsten Fall ist es schon ausreichend, wenn die Missionsbeschreibung den Namen des zu erreichenden Zielortes und optional eine Liste mit den Namen von Zwischenpunkten, an denen vorbeigefahren werden soll, beinhaltet. Im Gegensatz dazu besteht eine detaillierte Missionsbeschreibung aus einer Sequenz von Aktionen, die ausgeführt werden müssen, um die gewünschte Mission auszuführen. Die bei der objektorientierten verhaltensbasierten Navigation möglichen Missionsbeschreibungen können mit Hinweisen verglichen werden, die einem Menschen gegeben werden, wenn ihm erklärt wird, wie er zu einem bestimmten Ort gelangen kann. Dies

Fachgespräch AMS. München, Oktober 1996

-7-

Wershofen, Graefe

bedeutet, daß der Bediener mit dem objektorientierten verhaltensbasierten Roboter auf eine für ihn naheliegende Weise kommunizieren kann. Benutzerschnittstelle Daß die Kommunikation zwischen Bediener und Roboter schon auf einer relativ hochsprachlichen Ebene erfolgen kann, ist ein großer Vorzug der objektorientierten verhaltensbasierten Navigation. Ursächlich dafür ist, daß der Systemarchitektur Konzepte wie „Situation” und „Verhalten” zugrundeliegen und daß dadurch der Roboter ein Kommunikationsverhalten zeigen kann, das in gewissen Grenzen dem eines intelligenten Lebewesens ähnelt. Insbesondere kann die Kommunikation situationsabhängig und unter Bezugnahme auf Sachverhalte und Objekte der Umgebung erfolgen, wie sie für den Benutzer erkennbar sind, und ohne Bezugnahme auf Roboter-interne Gegebenheiten wie etwa Speicheradressen, Variablennamen, Prozeßbezeichnungen o.ä.. Voraussetzung für diese Art der Kommunikation ist, daß das Situationsmodul als zentrale Schaltstelle im System auch an der Steuerung der Kommunikation mit dem Benutzer beteiligt ist. Aufgrund der Tatsache, daß die Handlungen des Roboters auf Verhaltensmustern basieren, können die Anweisungen des Bedieners an den Roboter in sehr kompakter Form erfolgen. Beispiele hierfür sind: „Fahre der Wand entlang” oder „Biege an der nächsten Kreuzung ab”. Die Umweltrepräsentation in Form einer attribuierten topologischen Karte ermöglicht es darüber hinaus, in Fahraufträgen gewohnte Ortsbezeichnungen in Form von Ortsnamen zu verwenden. So ist dem Roboter nicht mitzuteilen, daß er zu irgendeiner Koordinate (x, y) zu fahren hat, sondern der Fahrauftrag lautet z.B.: „Fahre zum Manipulatorlabor”.

Realisierung Am Beispiel der auftragsbezogenen Navigation in hindernisfreien Wegenetzen von Gebäuden erfolgte die Validierung des vorgestellten Ansatzes. Als Experimentiergerät wurde der mobile Roboter ATHENE II (vgl. Abb. 1 bzw. [Wershofen 1996]) eingesetzt. Die Informationsverarbeitung erfolgte mit einem an Bord des Roboters befindlichen PC, der für die Bildverarbeitung mit einer Transputer-Framegrabber-Karte versehen war. Erkennungsprozesse Bei der genannten Anwendung des vorgestellte Konzepts wurden Erkennungsprozesse für Wände, Abbiegemöglichkeiten, Zielobjekte und Landmarken benötigt. Bei der Erkennung von Abbiegemöglichkeiten wird vorausgesetzt, daß der Roboter weiß, daß er sich in der Nähe einer Abzweigung befindet, und in welche Richtung abgebogen werden soll. Diese Information wird aus der Karte bzw. dem Fahrauftrag entnommen. Befindet sich der Roboter in der Nähe einer Abbiegemöglichkeit, schwenkt er seine Kamera quer zur Fahrtrichtung in die erwartete Richtung des abzweigenden Weges und sucht nach dem typischen Erscheinungsbild eines in Längsrichtung gesehenen Korridors. „Zielobjekte” sind z.B. Objekte auf oder am Rand von frei befahrbaren Flächen. Ein Roboter kann solche Objekte für die Navigation auf freien Flächen benutzen. „Landmarken” hingegen dienen nur der Orientierung. Im Rahmen der Implementation des vorgestellten Konzept wurden Erkennungsprozesse für Zielobjekte und Landmarken mit rechteckförmiger Kontur entwickelt.

Fachgespräch AMS. München, Oktober 1996

-8-

Wershofen, Graefe

Verhaltensmuster Verhaltensmuster entstehen, wenn sensorische und motorische Fähigkeiten koordiniert ausgeführt werden. Für ATHENE II wurden „Wand Folgen”, „Abbiegen” und „Anhalten” als einfache Verhaltensmuster implementiert. Beim sichtbasierten Verhaltensmuster „Wand Folgen” wird ATHENE II so gesteuert, daß die Ablage zur Wand einem vorgegeben Wert entspricht. Das realisierte Verhaltensmuster „Abbiegen” gliedert sich in drei Phasen, in denen die Führung des Roboters ohne Sichtrückkopplung erfolgt. Zunächst wird mit geschwenkter Kamera nach der Abbiegemöglichkeit gesucht. Nach erfolgreicher Erkennung wird ihre Position relativ zum Roboter gemessen. Erreicht dieser einen Wert, der unter den gegebenen Umständen ein kollisionsfreies Abbiegen erlaubt, wird durch eine mittels der Propriozeptoren gesteuerte Kurvenfahrt die gewünschte Orientierungsänderung durchgeführt. Die Mitte eines Zielobjektes wird beim Verhaltensmuster „Auf ein Objekt Zufahren” bei nach vorn gerichteter Kamera mit der Bildmitte zur Deckung gebracht. So wird erreicht, daß ATHENE II in Richtung eines Objektes fährt. Situationserkennung und Verhaltensauswahl Grundlage für die Koordination des Gesamtverhaltens ist eine fortlaufende Situationserkennung mit dem Ziel, in jedem Moment das jeweils angemessene Verhaltensmuster auszuwählen. Bei der Navigation in hindernisfreien Wegenetzen von Gebäuden sind die möglichen Situationen weitgehend durch den Fahrauftrag und den jeweils erreichten Ort bedingt. Realisiert ist die Situationserkennung und Verhaltensauswahl in Form eines endlichen Automaten.

Ergebnisse Zur Bestimmung der Leistungsfähigkeit des vorgestellten Ansatzes wurden zahlreiche Experimente und Testfahrten mit dem mobilen Roboter ATHENE II durchgeführt. Die Versuchsfahrten fanden in verschiedenen, willkürlich ausgewählten Teilbereichen des weitläufigen Laborgebäudes der Universität statt, wobei der Roboter sich jeweils in einem mehrfach zusammenhängenden Netz von Korridoren und frei befahrbaren Flächen, die in keiner Weise hierfür besonders hergerichtet worden waren, zu bewegen hatte (Abb. 1). Aufgrund der Abmessungen des Roboters und der Korridore stellten Abbiegemöglichkeiten in der Regel Engstellen dar, die jedoch mit angemessen reduzierter Geschwindigkeit ohne Probleme durchfahren wurden.

Fachgespräch AMS. München, Oktober 1996

-9-

Wershofen, Graefe

Ausführung von Fahraufträgen Fahraufträge können dem Roboter wahlweise als Aktionslisten (Abfolgen von Verhaltensmustern) oder in benutzerfreundlicher Weise als Namenslisten übergeben werden. Abb. 4 zeigt den Verlauf einer typischen Versuchsfahrt, (Abb. 5) die dazu gehörende Missionsbeschreibung, die in diesem Fall dem Roboter als Namensliste vorgegeben wurde. Ortsbestimmung In den Experimenten wurde auch gezeigt, daß selbst wenn Engstellen zu passieren sind, Fahrtziele auch dann problemlos erreicht werden, wenn die Startposition und die metrischen Angaben in der Karte um mehrere Meter falsch sind. Hier zeigt sich ein hohes Maß an Robustheit, und zugleich resultiert im Vergleich zu bisher bekannten Ansätzen eine hohe Aufwandsreduzierung bei der Erstellung der Missionsbeschreibung und der Karte. Weiter konnte gezeigt werden, daß der Roboter ATHENE II in der Lage ist, seinen Standort innerhalb des kartierten Einsatzbereiches, z.B. zu Beginn einer Mission, durch den Vergleich der visuellen Erscheinungsbilder von erkannten Landmarken mit den entsprechenden Einträgen in der Karte selbständig zu bestimmen. Wissenserwerb durch Lernen Die objektorientierte verhaltensbasierte Navigation bildet eine sehr gute Basis zur Realisierung eines lernfähigen Roboters [Wershofen, Graefe 1993]. Der Nachweis hierfür wurde zunächst für das überwachte Erlernen von Kartenwissen erbracht. In Experimenten wurde erstmals demonstriert, daß ein sehender mobiler Roboter die zur selbständigen Navigation benötigte Karte im Rahmen von geführten Erkundungsfahrten erlernen kann. Darüber hinaus wurde in einem ersten Experiment gezeigt, daß auch eine selbständige, von keinem Bediener unterstützte Erkundungsfahrt möglich ist. Um hierbei ähnliche Leistungen wie bei der geführten Erkundungsfahrt zu erreichen, sind allerdings die sensorischen Fähigkeiten von

***NAMENSLISTE*** >>>Tour