Das Problem ist, dass die Gesichtserkennung die Symmetrie und Größenverhältnisse auswertet um Gesichter zu erkennen. Dabei werden auch bestimmte Fixpunkte im jeweiligen Gesicht angelegt. Wenn man nun immer Frontalbilder einer Person bestätigt werden die daraus folgenden Vergleichswerte für iPhoto immer präziser - die Folge ist eine immer höhere Trefferquote. Hat man aber z.B. Seitenprofile, Auf- oder Draufsichten eines Gesichtes (Gesicht von unten herauf bzw. oben herab photografiert), verändern sich wegen der Zweidimesionalität eines Photos auch die entsprechenden Verhältnisse
der Vergleichswerte. Damit verwässert man gewissermaßen wieder die Vergleichswerte, die das System zuerst angelegt hat, mit der Folge, dass die Trefferquote wieder sinkt. Das liegt dann daran, dass die Toleranzbereiche für die entsprechenden Verhältnisse wieder größer werden und so die potentielle Personengruppe ebenso. Umso größer der Toleranzbereich, desto größer das Einzugsgebiet aus Ihrem Photofundus.
Die Lösung des Problems, mit der ich mir geholfen habe, ist, dass ich Seitenprofile und Frontansichten einer Person dann unterteilt habe in z.B.: "Mustermann - F" für die Frontansicht und "Mustermann - S" für die Seitenansicht. Nachdem ich zu einer Person dann die getrennten Gruppen für Seiten- und Frontsichten hatte, konnte ich bei Bedarf die Gruppen zusammenlegen, damit arbeiten und danach die zusammengelegten Gruppen wieder trennen (damit die Trefferquote sich nicht wieder durch vermischen der "Vergleichswerte" verschlechtert).
Etwas umständlich, aber mehr gibt das System nicht her.
Wahrscheinlich müsste man noch vor der Berechnung der Vergleichwerte aus mehreren Photos ein dreidimesionales Modell berechnen und dann erst die Vergleichswerte festlegen. Dann wäre der Winkel aus dem photografiert würde egal, das Programm aber wohl auch teurer.