Face Recognition
Verfasst: Freitag 4. Juni 2010, 17:37
Hallo Community!
Heute hab ich eine theoretische Frage an euch:
Ich arbeite gerade an einem Gesichtserkennungssystem und ein gutes System sollte natürlich auch Face Recognition beinhalten, also das Vergleichen mit einer vorgegebenen Datenbank und das aufgenommene Bild jemandem zuordnen können.
Ich habe mit OpenCV bisher eine Face Detection, also Gesichtserkennung programmiert und nun würde ich gerne wissen, ob man mit einem ganz einfachen Algorithmus (bitte kein Eigenface!) einen Vergleich machen kann.
Ich dachte zuerst an die Methoden cvAbsDiff und cvThreshold. Also will ich über die Pixel der Bilder iterieren und sie somit vergleichen, in welchen Pixeln sie sich unterscheiden und dann das mit der höchsten Übereinstimmung als Resultat ausgeben lassen. Nun hab ich aber nach logischem Überlegen die Befürchtung, dass dies nicht gehen wird, denn sogar bei leichter Veränderung der Umstände sieht jedes Pixel anders aus und kein Bild stimmt somit überein!
Findet ihr diesen Ansatz auch falsch? Was würdet ihr mir für Vergleichsalgorithmen vorschlagen? Eigentlich kommt in der Hierarchie nach der reinen Erkennung ja die Feature Extraction, indem man wie bei Eigenfaces markante Merkmale extrahiert und PCA anwendet, etc. Geht es einfacher ohne diesen Schritt oder nur teilweise?
MFG
Heute hab ich eine theoretische Frage an euch:
Ich arbeite gerade an einem Gesichtserkennungssystem und ein gutes System sollte natürlich auch Face Recognition beinhalten, also das Vergleichen mit einer vorgegebenen Datenbank und das aufgenommene Bild jemandem zuordnen können.
Ich habe mit OpenCV bisher eine Face Detection, also Gesichtserkennung programmiert und nun würde ich gerne wissen, ob man mit einem ganz einfachen Algorithmus (bitte kein Eigenface!) einen Vergleich machen kann.
Ich dachte zuerst an die Methoden cvAbsDiff und cvThreshold. Also will ich über die Pixel der Bilder iterieren und sie somit vergleichen, in welchen Pixeln sie sich unterscheiden und dann das mit der höchsten Übereinstimmung als Resultat ausgeben lassen. Nun hab ich aber nach logischem Überlegen die Befürchtung, dass dies nicht gehen wird, denn sogar bei leichter Veränderung der Umstände sieht jedes Pixel anders aus und kein Bild stimmt somit überein!
Findet ihr diesen Ansatz auch falsch? Was würdet ihr mir für Vergleichsalgorithmen vorschlagen? Eigentlich kommt in der Hierarchie nach der reinen Erkennung ja die Feature Extraction, indem man wie bei Eigenfaces markante Merkmale extrahiert und PCA anwendet, etc. Geht es einfacher ohne diesen Schritt oder nur teilweise?
MFG