Zum Inhalt
Fakultät für Informatik
Projektgruppe

VIPER - Video-Based Detection and Identification of Persons

Veranstalter: Gernot A. Fink, Thomas Plötz

Kick-off Meeting: 16.2.2006, 14 Uhr, (IRF, R.108)


Motivation

Bei fortgeschrittenen Systemen zur Mensch-Maschine-Interaktion, wie sie z.B. auf mobilen Assistenzrobotern oder in intelligenten Arbeitsumgebungen (sogenannten "intelligenten Räumen") zum Einsatz kommen, ist es noch vor der Führung eines Dialogs mit einem/einer Benutzer:in notwendig, die Anwesenheit potentieller Kommunikationspartner:innen zu detektieren und diese --- sofern dies für das Systemverhalten relevant ist --- als bekannte Individuen zu identifizieren (vgl. z.B. Pentland00:FRF,Haasch2004-BTB). Besonders naheliegend ist dabei die Verwendung optischer Sensorik (d.h. eine oder mehrere Kameras) zur Beobachtung der Umgebung des Roboters oder eines intelligenten Raums. Aus den aufgenommenen Bildsequenzen läßt sich die Anwesenheit von Personen im Beobachtungsbereich feststellen und es können auch deren Bewegungmuster und Aktionen verfolgt werden. Außerdem lassen sich Personen auf der Basis von individuellen Gesichtsmerkmalen identifizieren. Eine solche Vorgehensweise bietet den Vorteil, dass den potentiellen Benutzern:innen keine Restriktionen --- wie z.B. das Tragen spezieller Identifikationsmerkmale oder -geräte (z.B. RFID-Tags) oder bestimmte An- und Abmeldeprozeduren --- auferlegt werden müssen. Allerdings ist die Interpretation von Sensordaten (wie hier von Bildsequenzen) immer mit Unsicherheiten behaftet, so dass mit --- idealerweise nur sehr wenigen --- Fehlern bei der Interpretation gerechnet werden muß. Allerdings hätte im Gegensatz zu einem Überwachungsszenario (vgl. z.B. Hampapur05:SVS) oder der biometrischen Zugangskontrolle auch eine Fehldetektion oder -identifikation kaum störende Auswirkungen auf die Funktionsweise einer intelligenten Mensch-Machine-Schnittstelle.


Ziel

Im Rahmen dieser Projektgruppe soll ein System zur automatischen Detektion, Verfolgung und Identifikation von Personen auf der Basis von Videodaten erstellt werden. Als Szenario soll ein intelligenter Raum betrachtet werden, wie er im Laborbereich der Abteilung Intelligente Systeme am Institut für Roboterforschung aufgebaut wird. In diesem Kontext ist es Ziel des Personenerkennungssystems, die Anwesenheit der Teilnehmenden bei Besprechungen automatisch zu protokollieren bzw. Personen beim Betreten des Raums namentlich zu begrüßen. Die Aufgabenstellung läßt sich daher grob in die Hauptarbeitsbereiche Datenerfassung, Personendetektion, Personenverfolgung und Identifikation gliedern. Für die Erstellung eines lauffähigen Gesamtsystems ist außerdem die Integration der einzelnen Komponenten zu leisten.


Literatur

  • D. Comaniciu, V. Ramesh, P. Meer: Kernel-Based Object Tracking, IEEE Trans. on Pattern Analysis and Machine Intelligence, Bd. 25, Nr. 5, 2003, S. 564 577.
  • G. A. Fink: Developing HMM-based Recognizers with ESMERALDA, in V. MatouÇsek, P. Mautner, J. Ocel´1kov´a, P. Sojka (Hrsg.): Text, Speech and Dialogue, Bd. 1692 von Lecture Notes in Artificial Intelligence, Springer, Berlin Heidelberg, 1999, S. 229 234.
  • A. Haasch, S. Hohenner, S. Hüwel, M. Kleinehagenbrock, S. Lang, I. Toptsis, G. A. Fink, J. Fritsch, B. Wrede, G. Sagerer: BIRON - The Bielefeld Robot Companion, in E. Prassler, G. Lawitzky, P. Fiorini, M. Hägele (Hrsg.): Proc. Int. Workshop on Advances in Service Robotics, Fraunhofer IRB Verlag, Stuttgart, Germany, May 2004, S. 27 32.
  •  A. Hampapur, L. Brown, J. Connell, A. Ekin, N. Haas, M. Lu, H. Merkl, S. Pankanti, A. Senior, C.-F. Shu, , Y. L. Tian: Smart video surveillance: Exploring the concept of multiscale spatiotemporal tracking, IEEE Signal Processing Magazine, Bd. 22, Nr. 2, 2005, S. 38 51.
  •  F. Lömker: iceWing - A graphical plugin shell, 2005.
  •  F. Lömker, S. Wrede, M. Hanheide, J. Fritsch: Building Modular Vision Systems with a Graphical Plugin Environment, in Proc. Int. Conf. on Computer Vision Systems, New York, 2006.
  • B. Moghaddam, W. Wahid, A. Pentland: Beyond Eigenfaces: Probabilistic Matching for Face Recognition, in Proc. Int. Conf. Automatic Face and Gesture Recognition, Nara, Japan, 1998, S. 30 35.
  • A. Pentland, T. Choudhury: Face Recognition for Smart Environments, IEEE Computer, Bd. 33, Nr. 2, 2000, S. 50 55.
  • T. Sim, S. Baker, M. Bsat: The CMU Pose, Illumination, and Expression Database, IEEE Trans. on Pattern Analysis and Machine Intelligence, Bd. 25, Nr. 12, 2003, S. 1615 1618.
  • M. Turk, A. Pentland: Eigenfaces for Recognition, Journal of Cognitive Neuro Science, Bd. 3, Nr. 1, 1991, S. 71 86.
  • P. Viola, M. Jones: Robust Real-time Object Detection, in Proc. IEEE Int. Workshop on Statistical and Computational Theories of Vision, Vancouver, Canada, 2001.
  • X. Wang, X. Tang: A Unified Framework for Subspace Face Recognition, IEEE Trans. on Pattern Analysis and Machine Intelligence, Bd. 26, Nr. 9, 2004, S. 1222 1228.
  • M.-H. Yang, D. J. Kriegman, N. Ahuja: Detecting Faces in Images: A Survey, IEEE Trans. on Pattern Analysis and Machine Intelligence, Bd. 24, Nr. 1, 2002, S. 34 58.