Parametrisierte zweidimensionale Modelle für dreidimensionale ...

einen etikettierten Graphen mit Knoten auf definierten Punkten im Gesicht, mit denen ... Experimente zeigen zum einen, daß dieses Modell die Daten qualitativ ...
31KB Größe 2 Downloads 37 Ansichten
Dipl.-Ing. Ingo J. Wundrich Institut f¨ ur Neuroinformatik Ruhr-Universit¨ at Bochum

Parametrisierte zweidimensionale Modelle fu ¨ r dreidimensionale Gesichtserkennung Zusammenfassung der Dissertation Wie bei allen Aufgaben des Computersehens ist auch bei der maschinellen Gesichtserkennung die gewaltige Anzahl an verschiedenen m¨ oglichen Bildern, die von einem gegebenen Objekt aufgenommen werden k¨ onnen, das zentrale Problem. Eine grobe Einteilung der f¨ ur diese Vielzahl verantwortlichen Transformationen bilden die planaren wie Translation, Skalierung oder Drehung in der Bildebene sowie die r¨ aumlichen wie Tiefenrotation (Ansicht) und Beleuchtung. Die letzteren sind in dieser Arbeit von Interesse, da sie sich jeder expliziten und einfachen mathematischen Beschreibung entziehen, was vor allem daran liegt, daß man sich die mit Ansicht und Antwort auf eine Punktlichtquelle parametrisierten Gesichtsrepr¨asentationen auf einer gekr¨ ummten Hyperfl¨ache angeordnet vorstellen muß. Da sich die Akquisition nat¨ urlicher Bilddaten unter Parameterkontrolle nur mit großem technischen Aufwand realisieren l¨aßt, ist die Konstruktion solcher Hyperfl¨achen aus computergraphisch erzeugten Bildern eine interessante Alternative. Der Einsatz von Computergraphik in der 3D-Gesichtserkennung hat in den letzten Jahren eine gewisse Verbreitung gefunden, allerdings bisher ausschließlich auf 3D-Modelle gest¨ utzt, was mit der Schwierigkeit verbunden ist, in der Anwendung diese 3D-Modelle in ihren Parametern an die 2D-Bilddaten anpassen zu m¨ ussen. Der in dieser Arbeit vorgestellte Ansatz basiert daher nicht auf einem computergraphischen 3DModell sondern auf einer Mannigfaltigkeit von 2D-Gesichtsrepr¨asentationen. Ausgehend vom Elastic Graph Matching (EGM) als Basistechnologie handelt es sich bei der Gesichtsrepr¨asentation um einen etikettierten Graphen mit Knoten auf definierten Punkten im Gesicht, mit denen ein vektorieller Texturdeskriptor verkn¨ upft ist. Die Menge derart repr¨asentierter Gesichter ist dabei nicht nur mit Ansicht und Beleuchtung, sondern auch mit einer kontinuierlichen Identit¨at parametrisiert, in der die lokale Texturbeschreibung sogar linear ist, d.h. sich als Linearkomination aus dazu passenden lokalen Texturen verschiedener, auch k¨ unstlich erzeugter, Beispielgesichter zusammensetzt. In analoger Weise lassen sich die Knotenpositionen modellieren. Diese Eigenschaft von Textur und Form gilt f¨ ur jede einzelne Ansicht, deren Modelle immer wieder aus denselben k¨ unstlichen Daten hergestellt sind, so daß die Identit¨ atsbeschreibung in Gestalt der Entwicklungskoeffizienten gegen¨ uber leichter Ansichten¨ anderungen robust ist. Diese Beschreibung erm¨oglicht es, Tiefenrotationen mit diesem 2D-Modell durchzuf¨ uhren, um beispielsweise eine vorliegende Repr¨asentation in eine kanonische Ansicht f¨ ur einen Datenbankvergleich zu drehen. Eine entsprechende Normalisierung oder Identit¨ atsextraktion ist nat¨ urlich auch hinsichtlich nichtfrontaler Beleuchtung des Gesichts in hohem Maße w¨ unschenswert. Dabei wird ein beleuchtetes Gesichtsbild als Linearkombination aus vielen punktbeleuchteten Gesichtsbildern derselben Person angenommen. Die Punktlichtquellen dazu stellt man sich auf einer Kugeloberfl¨ache mit dem Gesicht im Zentrum vor. Um diesen linearen Beleuchtungsraum m¨ oglichst niedrigdimensional zu halten, findet dessen Beschreibung nicht direkt in der Lichtverteilung auf der Kugeloberfl¨ache statt sondern in ihrer diskreten Kugelfl¨achentransformierten. Insgesamt ergibt sich ein bilineares Modell in Identit¨at und Beleuchtung. Experimente zeigen zum einen, daß dieses Modell die Daten qualitativ erkl¨art, aber auch zum anderen, daß die Beleuchtungs- und Identit¨atssch¨atzung bei dem gegebenen Datensatz und den benutzten Optimierungsverfahren noch zu ungenau sind. Die Normalisierung von Ansicht- und Beleuchtung auf realen Daten erfolgt in dem in dieser Arbeit entwickelten Modell an jedem Knoten des Graphen unabh¨ angig. Um daraus wieder eine Repr¨asentation aus miteinander vertr¨aglichen Texturst¨ ucken machen zu k¨ onnen, ist eine von der Statistik aller Gesichter getriebene Filteroperation n¨otig. Allerdings erfahren die computergraphisch gewonnenen Repr¨asentationen damit auch ihre Grenzen hinsichtlich ihrer Variabilit¨ at.