Detailansicht

Artificial Intelligence and counter-terrorism
challenges and chances for human rights
Alrun Cohen-Soyer
Art der Arbeit
Master-Thesis (ULG)
Universität
Universität Wien
Fakultät
Postgraduate Center
Studiumsbezeichnung bzw. Universitätlehrgang (ULG)
Universitätslehrgang Human Rights (LL.M.)
Betreuer*in
Ralph Janik
Volltext herunterladen
Volltext in Browser öffnen
Alle Rechte vorbehalten / All rights reserved
DOI
10.25365/thesis.72379
URN
urn:nbn:at:at-ubw:1-26795.54828.505046-2
Link zu u:search
(Print-Exemplar eventuell in Bibliothek verfügbar)

Abstracts

Abstract
(Deutsch)
Die Logistik von Terrorist:innen hat sich erheblich verändert. Kommunikationskanäle wurden technisch versierter, Briefe und Telefone wurden durch hoch technologisierte geheime Kommunikationsmittel ersetzt. Der Ausschuss für Terrorismusbekämpfung des UN-Sicherheitsrates stellt eine wachsende Besorgnis über den ‚Missbrauch digitaler Technologien‘ durch Terrorist:innen fest, um Anschläge zu begehen, für solche zu rekrutieren oder diese zu planen. Diese Entwicklung geht einher mit einem neuen Phänomen des Terrorismus, dem sogenannten einsamen Wolf Terrorismus: dieser bezeichnet Personen, die alleine als Einzeltäter:innen Anschläge verüben, ohne Teil einer Terrororganisation zu sein. Allerdings sind sie kaum völlig isoliert, sondern werden in Online-Netzwerken radikalisiert und unterrichtet. Die Geheimdienste versuchen den technologischen Trends nachzukommen. Sie müssen ihre Strategien rasch anpassen, vor allem bei der Informationsbeschaffung. Dadurch wurde die Überwachung sozialer Netzwerke zu einem wichtigen Bereich der Terrorismusbekämpfung. Da die riesigen Datenmengen nicht von Menschen ausgewertet werden können, nutzen Behörden eine Reihe von Instrumenten künstlicher Intelligenz (KI) und Algorithmen, um potenzielle Täter:innen im Voraus zu erkennen. Die ‚prädiktive Analytik‘ analysiert personenbezogene Daten wie Alter, Wohnort, Bildung, Familie, Freunde und Gesundheit von Personen, um Verdächtige sowie Gruppenmuster zu identifizieren. Algorithmen erkennen Schlüsselwörter in sozialen Medien, die mit extremistischen Ideologien assoziierbar sind. Schließlich messen automatische Bewertungssysteme die Gefährlichkeit einer Person und das Risiko eines Anschlags und sind in der Lage, Ort und Zeitpunkt vorherzusagen und eine Vorentscheidung zu treffen. Dabei wird KI mit biometrischen Methoden kombiniert, einer Wissenschaft, die sich mit der Messung biologischer und verhaltensbezogener menschlicher Merkmale befasst. Sie erfasst und klassifiziert Fingerabdrücke, Iris-Scans oder DNA und nutzt etwa Gesichtserkennung, ein Instrument zur Kategorisierung von Personen anhand ihrer Gesichtsgeometrie sowie Stimmerkennung, um Personen zu kennzeichnen, die einem Terroristenprofil entsprechen. Solche Daten sind hoch sensibel, da eine Person zwar ihren Namen, nicht aber ihre DNA ändern kann. In dem hohen Nutzen solcher Methoden liegt zugleich der Kern ihrer Problematik. Ihr Einsatz steht im Spannungsverhältnis mit Grundrechten. Während Staaten Terroranschläge verhindern müssen, um das Leben ihrer Bürger:innen zu schützen, müssen sie gleichermaßen die Menschenrechte potenzieller Verdächtiger wahren. Die Arbeit analysiert daher die Risiken und Chancen des Einsatzes von Künstlicher Intelligenz. Sind KI-Systeme für den Einsatz in der Terrorismusbekämpfung geeignet und welche rechtlichen Garantien sind einzuhalten? Welche Rechtsschutzlücken sind in Bezug auf die Erhebung, Speicherung und Verarbeitung von Daten zu erkennen? Der Fokus liegt dabei auf der Europäischen Menschenrechtskonvention und damit der Rechtsprechung des Europäischen Gerichtshofs für Menschenrechte, insbesondere auf dem Recht auf Achtung des Privatlebens (Art. 8). Außerdem können diskriminierende Ergebnisse von KI-Systemen gegen das Diskriminierungsverbot (Art. 14) verstoßen. Von Bedeutung sind auch das Recht auf einen wirksamen Rechtsbehelf (Art. 13) und auf ein faires Verfahren (Art. 6), vor allem wegen fehlender Transparenz. Da Algorithmen oft vertraulich sind, wissen die Betroffenen möglicherweise nicht einmal, dass sie von einem Algorithmus identifiziert wurden, aber selbst wenn, bleibt die Frage, wie der Algorithmus sie ausgewählt hat, Teil einer Blackbox, was sie daran hindert, die Entscheidung angemessen zu bekämpfen. Gleichzeitig untersucht die Arbeit, inwieweit KI-Systeme Chancen im Hinblick auf den Schutz der Menschenrechte potenzieller Verdächtiger mit sich bringen können. Ein wichtiger Vorteil der KI ist ihre Fähigkeit, bestehende diskriminierende Strukturen aufzudecken und eine Voreingenommenheit in der Entscheidungsfindung durch Menschen abzuschwächen, wenn die Daten sorgfältig ausgewählt werden. Da Algorithmen dazu fähig sind, rasch große Datenmengen zu analysieren, können sie auch dazu beitragen, vorauszusagen, welche Personen in Zukunft wahrscheinlich dieselben Gruppen unterstützen werden, Ähnlichkeiten und Korrelationen zum sozialen Umfeld finden und die Genauigkeit und Präzision von Entscheidungen erhöhen. Dabei stellt sich die spannende Frage, ob KI dazu dienen kann, Personen zu deradikalisieren? Durch ihre Fähigkeit zur frühzeitigen Erkennung von Eigenschaften sowohl von Gruppenmustern als auch terroristischer Einzelgänger, können Algorithmen den Grad der Radikalisierung erkennen. Einige Systeme erkennen die Geneigtheit zu gewalttätigen extremistischen Ideologien. Beispielsweise erkennt die ‚Redirect-Methode‘ Nutzer von Video-Sharing-Seiten, die für die Propaganda terroristischer Gruppen anfällig sind, und verbindet sie mit einem anderen (positiven) Narrativ. In dieser Methode kann eine große Chance gesehen werden. Schließlich werden auf der Grundlage der Analyse der Rechtsprechung des EGMR Vorschläge entwickelt, die den Versuch wagen, die Herausforderungen und Vorteile des Einsatzes von KI in der Terrorismusbekämpfung miteinander in Einklang zu bringen.
Abstract
(Englisch)
Logistics of terrorists have changed significantly. Communication channels have become more technically adept, letters and phones have been replaced by high-tech clandestine communication. The UN Security Council Counter Terrorism Committee notes a growing concern over the ‘misuse of digital technologies’ by terrorists to commit, recruit for or plan attacks. This development is accompanied by a new phenomenon of terrorism, lone-wolf terrorism: Persons who carry out attacks individually without being part of a terror organisation. However, they are hardly completely isolated, but radicalized and taught in online networks. Intelligence agencies try to keep up with technological trends. They must quickly adapt their strategies, especially in information gathering. Social network surveillance has become an important area of counterterrorism. As the huge amount of data is impossible to be analysed by humans, authorities use a variety of Artificial Intelligence (AI) and algorithm-based tools to identify potential terrorists in advance. ‘Predictive intelligence’ analyses personal data such as age, residence, education, family, friends and health of persons in order to identify suspects as well as patterns of groups. Algorithms detect keywords on social media linked to extremist ideologies. Eventually, automatic scoring systems measure the danger of a person and the risks of an attack, while being able to predict their place and timing and prepare a pre-decision. Thereby AI is combined with biometric methods, a science concerned with measurements related to biological or behavioural human characteristics. For instance it collects and classifies fingerprints, iris scans or DNA and uses facial recognition, a tool to categorize persons based on their facial geometry as well as voice recognition to flag individuals who match terrorist profiles. Such data is highly sensitive, as a person can change their name, but not their DNA. However, the high benefit of such methods is at the same time the core of their problematic nature. Their use is in tension with fundamental rights. While states must prevent terror attacks to protect their citizens‘ lives, they also have to protect the human rights of potential suspects. The thesis analyses the risks and chances of the use of AI. Are AI systems suitable for the use in counterterrorism and which legal safeguards must be observed? Which gaps in legal protection can be identified with regard to the collection, retention and processing of data? Thereby the thesis focusses on the European Convention on Human Rights and thus on the European Court of Human Rights’ case law, in particular on the right to respect for private life (Art 8). Further, discriminatory outcomes of biased AI systems may violate the prohibition from discrimination (Art 14). Of importance are also the right to an effective remedy (Art 13) and to a fair trial (Art 6), especially due to the lack of transparency. Since algorithms often are confidential, persons concerned might not even know that they have been identified by an algorithm, but even if so, the question how the algorithm has chosen them, stays in a black box, which hinders them to challenge the decision properly. At the same time, the thesis analyses to what extent AI systems can bring chances with regard to the human rights protection of potential suspects. An important advantage of AI would be its ability to reveal existing discriminatory structures and mitigate human bias in decision making, if data is selected carefully. As algorithms can rapidly analyse large amounts of data, they can also help to predict who would be likely to support the same groups in the future, find similarities and correlations to the social environment and increase the accuracy and precision of decisions. Thereby, an intriguing question is, if AI can serve to deradicalize individuals? Through their ability of an early detection of group patterns as well as lone-wolf terrorist characteristics, algorithms can detect levels of radicalization. Some systems identify the susceptibility to violent extremist ideologies. For instance, the ‘Redirect Method’ detects users of video-sharing sites that may be susceptible to the propaganda of terrorist groups and links them to another (positive) narrative. A great opportunity can be seen in this method. Finally, based on the analysis of the ECtHR case law, the thesis develops proposals that attempt to reconcile the challenges and benefits of using AI in counterterrorism.

Schlagwörter

Schlagwörter
(Deutsch)
Europäischer Gerichtshof für Menschenrechte EGMR EMRK Menschenrechte Grundrechte Recht auf Privatsphäre Recht auf Privatleben Recht auf eine effektive Beschwerde Verbot der Diskriminierung Transparenz black box künstliche Intelligenz Algorithmus Gesichtserkennung Datenspeicherung Datenaufbewahrung Datenanalyse Überwachung Biometrik ISIS Extremismus Deradikalisierung Terror
Schlagwörter
(Englisch)
European Court of Human Rights ECHR ECHR human rights right to private life right to an effective remedy prohibition of discrimination transparency black box terrorism terrorist counterterrorism counter-terrorism artificial intelligence algorithm data storage data retention data analytics surveillance facial recognition biometrics ISIS extremism deradicalization data protection
Autor*innen
Alrun Cohen-Soyer
Haupttitel (Englisch)
Artificial Intelligence and counter-terrorism
Hauptuntertitel (Englisch)
challenges and chances for human rights
Paralleltitel (Deutsch)
Künstliche Intelligenz und Terrorismusbekämpfung
Paralleluntertitel (Deutsch)
Herausforderungen und Chancen für Menschenrechte
Publikationsjahr
2022
Umfangsangabe
98 Seiten : Illustrationen
Sprache
Englisch
Beurteiler*in
Ralph Janik
Klassifikationen
86 Recht > 86.36 Strafprozessrecht ,
86 Recht > 86.44 Staatsrecht, Verfassungsrecht: Allgemeines ,
86 Recht > 86.45 Grundrechte ,
86 Recht > 86.84 Völkerrecht: Allgemeines ,
86 Recht > 86.85 Menschenrechte ,
86 Recht > 86.86 Europarecht: Allgemeines ,
86 Recht > 86.91 Recht der internationalen Organisationen ,
86 Recht > 86.95 Internationale Gerichtsbarkeit
AC Nummer
AC16637078
Utheses ID
64498
Studienkennzahl
UA | 992 | 891 | |
Universität Wien, Universitätsbibliothek, 1010 Wien, Universitätsring 1