Research Fokus
Biases in Data and Systems
Kognitive und soziale Verzerrungen (Biases) in der Wahrnehmung und im Verhalten von Menschen werden von KI-basierten Systemen erfasst, reflektiert und potenziell verstärkt. Häufige Beispiele sind die Förderung von Popularitäts-Biases und Polarisierung in Online-Informationen oder die Übernahme von geschlechtsspezifischen Vorurteilen in Suchmaschinen. Unsere Forschung zielt auf das Verstehen solcher kognitiver und sozialer Biases in Benutzerinteraktionen und anderen Formen von KI-Trainingsdaten.
Fairness in Algorithmic Decision Support
Um höchstmögliche Transparenz in Systemen unserer Partner zu schaffen, erforschen wir die Gründe für soziale und kognitive Verzerrungen (Biases) in Algorithmen und entwickeln spezielle Modellierungstechniken für einzelne (Gruppen von) Nutzer:innen. Dies wird zu einem Ökosystem beitragen, in dem ein hohes Maß an Transparenz und Fairness durch personalisierte Algorithmen erreicht wird.
Privacy-aware Recommendations
Empfehlungssysteme/Recommender Systems benötigen typischerweise viele persönliche und private Daten um personalisierte Empfehlungen berechnen zu können. Wir erarbeiten Datenschutzkonzepte für Recommender Systems und geben den Benutzer:innen die Kontrolle darüber, wie viele Daten sie weitergeben. Mit hochinnovativen „Verschleierungstechniken“, die mit unseren Partnern in sensiblen Umgebungen wie dem Gesundheitswesen evaluiert werden, halten wir die Balance zwischen Genauigkeit der Daten und Datenschutz.