Detailansicht

Who (… or what) is to decide?
what AI influence means for human decisions
Laura Crompton
Art der Arbeit
Dissertation
Universität
Universität Wien
Fakultät
Fakultät für Philosophie und Bildungswissenschaft
Studiumsbezeichnung bzw. Universitätlehrgang (ULG)
Dr.-Studium der Philosophie (Dissertationsgebiet: Philosophie)
Betreuer*innen
Mark Coeckelbergh ,
Hans-Bernhard Schmid
Volltext herunterladen
Volltext in Browser öffnen
Alle Rechte vorbehalten / All rights reserved
DOI
10.25365/thesis.72512
URN
urn:nbn:at:at-ubw:1-11650.02149.306172-2
Link zu u:search
(Print-Exemplar eventuell in Bibliothek verfügbar)

Abstracts

Abstract
(Deutsch)
Der Einsatz von KI in menschlichen Entscheidungssituationen wächst stetig. KI soll Entscheidungsprozesse vereinfachen, und dem Menschen helfen bessere und effizientere Entscheidungen zu treffen. Ich bezeichne dies als "AI as decision support": KI, die menschenzentrierte Praktiken auf so eine Art und Weise automatisiert, dass die* menschliche Akteurin* wesentlich in den Entscheidungs- und Handlungsprozess eingebunden ist; die* menschliche Akteurin* ist die entscheidende und handelnde Instanz. AI as decision support wird in einer Vielzahl von Bereichen eingesetzt, beispielsweise in der Werbebranche, in der Strafverfolgung, oder in der Sozialarbeit. Diese Dissertation konzentriert sich auf den Einfluss, den solche KI Systeme auf ihre menschlichen Nutzerinnen* haben können. KI Einfluss ist, vereinfacht gesagt, das Ergebnis bestimmter Mechanismen, die eine Veränderung im Verhalten der* menschlichen Nutzerin* hervorrufen. Solche Mechanismen können entweder aktiv eingesetzt werden, oder sie können ein weitgehend unbeabsichtigtes Nebenprodukt der jeweiligen Mensch-KI Interaktion. Es ist also hilfreich zwischen Fällen zu unterscheiden, in denen KI Einfluss als beabsichtigt verstanden werden kann ("intended AI influence"), und Fällen, in denen er als unbeabsichtigt verstanden werden kann ("unintended AI influence"); diese Arbeit konzentriert sich in erster Linie auf letzteres. Ich argumentiere, dass die Mechanismen hinter unintended AI influence zu einer problematischen Verschiebung von Machtdynamiken führen können. Mit unintended AI influence können wir nicht mehr sagen, dass die Handlung, die aus einer Mensch-KI-Interaktion resultiert, tatsächlich das Ergebnis einer menschlichen Entscheidung ist. Ich nenne dies das "decision-point-dilemma": wir wissen nicht, wo die menschliche Entscheidung aufhört, und wo die KI-Entscheidung beginnt; die KI wird Teil der menschlichen Entscheidung. Für eine angemessene Charakterisierung von Mensch-KI-Interaktion müssen wir also die jeweilige KI in die Gleichung einbeziehen. Wir müssen unsere Charakterisierung von Mensch-KI-Interaktion so erweitern, dass zwei Entitäten, Mensch und KI, Teil der Entscheidung und der Handlung sind. Hier kommt der Begriff von "extendedness" ins Spiel: wenn wir die Interaktion zwischen Mensch und KI als eine Form von "extended agency" sehen, können wir viele der Probleme vermeiden, die sich durch das decision-point-dilemma ergeben. Extendedness gibt uns eine theoretische Grundlage, die es uns ermöglicht, KI Einfluss in die Entscheidungen und Handlungen, die sich aus der Interaktion zwischen Mensch und KI ergeben, einzubeziehen.
Abstract
(Englisch)
AI has grown to play an increasingly important role in the decision environments of human agents. It's supposed to enhance human decision processes, and help human agents make “better” decisions more efficiently. I call such AI "AI as decision support": AI that automates human-centred practices in such a way, that the human user is meaningfully involved in the decision process; the human user is the deciding and acting entity. AI as decision support can be found throughout a variety of fields, such as advertising, law-enforcement, and social work. This thesis focuses on the influence such AI as decision support can have on its human users. More generally, I take AI influence to be the consequence of certain mechanisms, that evoke a change in the human user's behaviour. These mechanisms can either be put into place actively, or they can be an unintended side-product that arises within the interaction of human and AI. It is along these lines that I differentiate between intended and unintended AI influence in decision support; this thesis mainly concentrates on the latter. I argue that the mechanisms behind unintended AI influence can lead to a shift of power dynamics in human-AI interaction, which then, further down the line, has important implications on the way we usually characterise human-AI interaction. With the unintended influence AI can have on its human users, we can no longer say that the action that results from human-AI interaction, is the result of a human decision. I introduce this as the decision- point-dilemma: we cannot say where the human decision ends and the “AI decision” starts; the AI becomes part of the human decision. Based on this, I believe that, in order to appropriately characterise human-AI interaction, we need to take the respective AI into the equation; we need to reframe our characterisation of human-AI interaction in such a way, that it allows for two entities, human agent and AI, to form a decision and perform an action. This is where the notion of extendedness enters the picture: taking human-AI interaction as a form of extended agency addresses many of the challenges that arise through AI influence.

Schlagwörter

Schlagwörter
(Deutsch)
KI Ethik Mensch-KI Interaktion KI Einfluss beabsichtigter KI Einfluss unbeabsichtigter KI Einfluss menschliche Entscheidung menschliche Handlung Verantwortung Extendedness
Schlagwörter
(Englisch)
AI Ethics human-AI interaction AI influence intended AI influence unintended AI influence human decision human action responsibility extendedness
Autor*innen
Laura Crompton
Haupttitel (Englisch)
Who (… or what) is to decide?
Hauptuntertitel (Englisch)
what AI influence means for human decisions
Paralleltitel (Deutsch)
Wer (... oder was) entscheidet?
Paralleluntertitel (Deutsch)
was der Einfluss künstlicher Intelligenz für menschliche Enstcheidungen bedeutet
Publikationsjahr
2022
Umfangsangabe
x, 148 Seiten : Diagramme
Sprache
Englisch
Beurteiler*innen
Virginia Dignum ,
Karina Vold
Klassifikation
08 Philosophie > 08.38 Ethik
AC Nummer
AC16665052
Utheses ID
63079
Studienkennzahl
UA | 792 | 296 | |
Universität Wien, Universitätsbibliothek, 1010 Wien, Universitätsring 1