Detailansicht

Investigating fairness in recommender systems
a systematic review
Klara Larissa Prema Howorka
Art der Arbeit
Masterarbeit
Universität
Universität Wien
Fakultät
Fakultät für Sozialwissenschaften
Studiumsbezeichnung bzw. Universitätlehrgang (ULG)
Masterstudium Gender Studies
Betreuer*in
Katta Spiel
Volltext herunterladen
Volltext in Browser öffnen
Alle Rechte vorbehalten / All rights reserved
DOI
10.25365/thesis.75806
URN
urn:nbn:at:at-ubw:1-30466.22044.585440-2
Link zu u:search
(Print-Exemplar eventuell in Bibliothek verfügbar)

Abstracts

Abstract
(Deutsch)
Fairness in Empfehlungssystemen ist ein Forschungsproblem, das in den letzten Jahren viel Aufmerksamkeit erregt hat, insbesondere mit der weit verbreiteten Verwendung von Recommender Systems, die auf Machine Learning basieren. Das Ziel, diese Systeme fair zu halten, hat viele Strategien zur Milderung von Biases hervorgebracht, die zur Diskriminierung von Personen auf Ebene von geschützten Merkmalen wie race oder gender führen. Diese Masterarbeit untersucht, auf welche Art und Weise Begriffe wie „Fairness“, „Bias“ und „Gender“ derzeit in der Empfehlungssystemforschung definiert werden, welche Biases am häufigsten behandelt werden und welche Arten von Strategien zur Bias-Minderung am meisten verwendet werden. Diese systematische Kategorisierung wurde mittels einer deduktiven qualitativen Inhaltsanalyse an einem Korpus bestehend aus 24 Forschungsarbeiten durchgeführt, die sich explizit mit dem Problem der Fairness und Bias-Minderung in Empfehlungssystemen befassen. Die Ergebnisse dieser Analyse zeigen, dass Fairness in diesem Bereich tendenziell als benutzerseitige Gruppengerechtigkeit definiert wird und dass die Geschlechtsvariable häufig undefiniert bleibt oder in einem binären Kontext operationalisiert wird. Darüber hinaus können die Arten von Bias, die am häufigsten behandelt werden, der Kategorie des demographic bias zugeordnet werden und stammen tendenziell aus der Modellbildungs-Pipeline. Strategien zur Bias-Minderung kommen am häufigsten während und nach der Verarbeitung durch das Modell zum Einsatz. Die Offenlegung dieser Tendenzen der Definition, Instrumentalisierung und Quantifizierung sozialer bzw. sozial konstruierter Konzepte trägt dazu bei, zu kontextualisieren, wie Wissen und Bedeutung im Bereich der Empfehlungssystemforschung produziert werden.
Abstract
(Englisch)
Fairness in recommender systems is a research problem which has gained a lot of attention in recent years, especially with the widespread use of machine learning based recommender systems. The aim to keep these systems fair has yielded many strategies to mitigate biases which result in discrimination of individuals who belong to protected attribute groups such as race or gender. This master thesis explores how terms such as ‘fairness’, ‘bias’ and ‘gender’ are currently defined in recommender system research, which biases are most commonly treated, as well as which types of bias mitigation strategies are used the most. The systematic review was conducted via a deductive Qualitative Content Analysis on a corpus consisting of 24 research papers which explicitly deal with the problem of fairness and bias mitigation in recommender systems. The results of this analysis show that fairness in this field is generally defined as user-side group fairness and that gender is usually operationalized within a binary context or not defined at all. Moreover, the types of biases which are most commonly treated stem from the model building pipeline and can be more broadly categorized as demographic bias, with in- and post-processing bias mitigation strategies being used the most. Revealing these tendencies of definition, instrumentalization and quantification of social and socially constructed concepts helps to contextualize how knowledge and meaning is produced in the field of recommender system research.

Schlagwörter

Schlagwörter
(Deutsch)
Recommender Systems Empfehlungssysteme Fairness Gender Bias Bias-Minderung Geschlechtsforschung Empfehlungssystemforschung Inhaltsanalyse Literaturanalyse Machine Learning Künstliche Intelligenz
Schlagwörter
(Englisch)
recommender systems fairness gender bias bias mitigation recommender system research gender studies algorithmic fairness content analysis research paper analysis machine learning artificial intelligence
Autor*innen
Klara Larissa Prema Howorka
Haupttitel (Englisch)
Investigating fairness in recommender systems
Hauptuntertitel (Englisch)
a systematic review
Paralleltitel (Deutsch)
Eine systematische Analyse von Fairness in Empfehlungssystemen
Publikationsjahr
2024
Umfangsangabe
103 Seiten : Illustrationen
Sprache
Englisch
Beurteiler*in
Katta Spiel
Klassifikationen
50 Technik allgemein > 50.14 Technik in Beziehung zu anderen Gebieten ,
70 Sozialwissenschaften allgemein > 70.03 Methoden, Techniken und Organisation der sozialwissenschaftlichen Forschung
AC Nummer
AC17183878
Utheses ID
70760
Studienkennzahl
UA | 066 | 808 | |
Universität Wien, Universitätsbibliothek, 1010 Wien, Universitätsring 1