Gesichtbasierte Altersschätzung ist in vielen Anwendungen zentral, wie z. B. in der Kriminalitätsbekämpfung, Identitätsverifizierung, Jugendschutz und auch im medizinischen Bereich. Systeme zur Altersschätzung zeigen häufig unterschiedliche Performance auf Subgruppen (z. B. bzgl. Alter, Geschlecht, ethnische Zugehörigkeit). Gründe sind auf der einen Seite die Verfügbarkeit bzw. Ausgewogenheit der Trainingsdaten und auf der anderen Seite klassische Trainingsverfahren, die globale Metriken optimieren und Probleme in gewissen Subgruppen ignorieren.
Techniken wie Oversampling oder probabilistisches Sampling versuchen durch eine statistische Analyse im Vorhinein eine Balanciertheit der Trainingsdaten zu erzeugen mit der Hoffnung, dass dies eine gleichmäßige Performance auf allen Subgruppen erzeugt. Das Ergebnis der Maßnahme fließt jedoch üblicherweise nicht zurück in den Trainingsprozess, dieser bleibt davon unberührt.
Ziel dieser Masterarbeit ist die Entwicklung und systematische Evaluation von Trainingstrategien, die dynamisch zur Laufzeit abhängig von der momentanen Performance auf den Subgruppen den Trainingsprozess anpassen.
Die entwickelten Verfahren sollen es erlauben, ausgeglichene, aber auch spezialisierte Computer‑Vision‑Modelle zu trainieren, insbesondere im Bereich der gesichtsbasierten Altersschätzung. Es werden geeignete und erfolgreiche Maßnahmen präsentiert, Leitlinien, wann welche Strategie (oder Kombination) wirkt, aber auch Einschränkungen, Fallstricke und unerwartete Ergebnisse. Die Verfahren werden anhand von frei verfügbaren Benchmark‑Datensätzen evaluiert und mit existierenden Verfahren verglichen. Der verwendete Code ist gut dokumentiert, wiederverwendbar und die Ergebnisse sind reproduzierbar.
(1) Sagawa et al., Distributionally Robust Neural Networks for Group Shifts (GroupDRO) Liu et al., Just Train Twice: Improving Group Robustness Without Training Group Information (JTT) Hacohen, Weinshall (2019). On the Power of Curriculum Learning in Training Deep Networks Roh et al., FairBatch: Batch Selection for Model Fairness — Ren et al., Learning to Reweight Examples for Robust Deep Learning — Cui et al., Class‑Balanced Loss Based on Effective Number of Samples — Hashimoto et al., Fairness Without Demographics in Repeated Loss Minimization —
Wir wertschätzen und fördern die Vielfalt der Kompetenzen unserer Mitarbeitenden und begrüßen daher alle Bewerbungen – unabhängig von Alter, Geschlecht, Nationalität, ethnischer und sozialer Herkunft, Religion, Weltanschauung, Behinderung sowie sexueller Orientierung und Identität. Schwerbehinderte Menschen werden bei gleicher Eignung bevorzugt eingestellt. Unsere Aufgaben sind vielfältig und anpassbar – für Bewerber*innen mit Behinderung finden wir gemeinsam Lösungen, die ihre Fähigkeiten optimal fördern.
Fraunhofer‑Institut für Sichere Informationstechnologie SIT
82685 Bewerbungsfrist:
Bereit für Veränderung? Dann bewirb Dich jetzt, und mach einen Unterschied! Nach Eingang Deiner Online‑Bewerbung erhältst Du eine automatische Empfangsbestätigung. Dann melden wir uns schnellstmöglich und sagen Dir, wie es weitergeht.
#J-18808-LjbffrVeröffentlichungsdatum:
23 Jan 2026Standort:
DarmstadtTyp:
VollzeitArbeitsmodell:
Vor OrtKategorie:
Erfahrung:
2+ yearsArbeitsverhältnis:
Angestellt
Möchtest über ähnliche Jobs informiert werden? Dann beauftrage jetzt den Fuchsjobs KI Suchagenten!







