ich recherchiere gerade zum Thema Gesichtserkennung.
Wie es aussieht sind die Algorithmen von Facebook (DeepFace) und Google (FaceNet) große Konkurrenten, wobei FaceNet wohl besser ist.
Eine Sache verstehe ich vielleicht nicht ganz:
In DeepFace wird ein 3D-Schritt benutzt um das Gesicht auf dem Bild richtig zu zentrieren, hierfür werden wohl in zwei Schritten Kontrollpunkte erkannt (Auge, Nase, Mund etc.).
Im zweiten Schritt werden 67 weitere Kontrollpunkte erkannt, die nötig sind um das Gesicht in Flächen zu unterteilen und es auf das 3D-Modell abzubilden. Nun wird das Erkennen der 67 Kontrollpunkte automatisch gemacht, aber das Platzieren des Gesichtes auf das 3D-Modell geschieht manuell
Zitat:
Bei FaceNet gibt es keine manuellen Schritte, wie kann hier überhaupt von Konkurrenz gesprochen werden?As a 3D generic shape model, we simply
take the average of the 3D scans from the USF Human-ID
database, which were post-processed to be represented as
aligned vertices vi = (xi; yi; zi)ni
=1. We manually place
67 anchor points on the 3D shape,
DeepFace erreicht zwar eine hohe Genauigkeit, aber manuellen Setzten von Punkten würde ja bei dem Datensatz (4 Mio. Bilder, die zu 4000 Perosnen gehören) ewig dauern?
Bei Inputbildern, die erkannt werden sollen muss das auch manuell geschehen, aber beim 4 Mio Bildern? Oder verstehe ich etwas falsch, vielleicht ist hier der ein oder andere Facerecognition Experte