EN

Veranstaltung

(Generative) KI und Recht [SS242400194]

Typ
Seminar (S)
Präsenz/Online gemischt
Semester
SS 2024
SWS
2
Sprache
Deutsch
Termine
2
Links
ILIAS

Dozent/en

Einrichtung

  • IIWR Boehm

Bestandteil von

Veranstaltungstermine

  • 16.04.2024 15:00 - 16:00
  • 26.06.2024 08:00 - 18:00 - Room: 07.08 SR 313

Anmerkung

Das Thema "generative Künstliche Intelligenz" prägt die wissenschaftliche und juristische Diskussion in vielerlei Hinsicht. Gemeinsam soll im Rahmen des Seminars ein Blick auf verschiedene Schwerpunkte des Datenschutz- und Immaterialgüterrechts geworfen werden. Sowohl aus technischer wie rechtlicher Perspektive sollen Modelle, Regulierungsansätze und Angriffe untersucht und diskutiert werden.

Folgende Themenschwerpunkte stehen dafür zur Auswahl:

1. Grundrechtsfähigkeit künstlicher Intelligenz
Künstliche Intelligenz wird zunehmend mit Menschen gleichgesetzt. Gesellschaftlich stellt sich daher immer wieder die Frage: Könnten Formen und Modelle künstlicher Intelligenz wirklich wie Menschen behandelt werden und Grundrechte geltend machen? Zu untersuchen sind die dogmatischen und verfassungsrechtlichen Gesichtspunkte und Kriterien.


Lit.: Neuhöfer: Grundrechtsfähigkeit Künstlicher Intelligenz.

2. KI als Werkzeug zum Schutz der Privatsphäre?
Eine mögliche Chance zum Einsatz von KI besteht darin, mit Verfahren des Machine Learning und Deep Learning sog. Privacy Enhancing Technologies (PETs) zu entwickeln. Ansätze wie Privacy-preserving AI und jüngere Bezüge zu generativen Modellen sollen im Rahmen der Arbeit dargestellt und auf ihren Nutzen unter der DSGVO eingeordnet werden.

Lit.: Oprisanu/Gascon/De Cristofaro: Evaluating Privacy-Preserving Generative Models in the Wild – https://emilianodc.com/PAPERS/PPGM-report.pdf;  Chang/Zhuang/Samaraweera: Privacy-preserving Machine Learning.

3. Urheberrechtliche Aspekte von Data Poisoning
Mit der massenhaften Verbreitung von bildgenerativen KI-Modellen ist die gesellschaftliche wie juristische Diskussion entbrannt, ob ihr Einsatz eine Gefahr für Künstler:innen ist. Doch, wie weit greift das Urheberrecht die künstlich generierte Kunst auf? Und wie ist dabei die aktivistische Offensive, eigene Kunstwerke durch Data Poisoning zu schützen und KI-Modelle zu verwirren, einzustufen? Dargestellt werden sollen neben einem Überblick auch mögliche Konsequenzen des Data Poisoning.

Lit.: Heikkila: MIT Technology Review zum Programm "Nightshade", Artikel vom 23.10.2023 – https://www.technologyreview.com/2023/10/23/1082189/data-poisoning-artists-fight-generative-ai/; de la Durantaye: »Garbage in, garbage out« – Die Regulierung generativer KI durch Urheberrecht, ZUM 2023, 645; Pesch/Böhme: Artpocalypse now? – Generative KI und die Vervielfältigung von Trainingsbildern, GRUR 2023, 997.

4. Datenschutz vs. Profiling in Künstlicher Intelligenz
Nach Ansicht des Europäischen Gerichtshofs ist es für ein Profiling relevant, dass "ein auf personenbezogene[n] Daten zu einer Person gestützter Wahrscheinlichkeitswert in Bezug auf deren Fähigkeit zur Erfüllung künftiger Zahlungsverpflichtungen [...] automatisiert erstellt wird". Vor dem Hintergrund dieses Schufa-Urteils und der Literatur zu Art. 22 DSGVO soll analysiert werden, ob und wie die Verarbeitung personenbezogener Daten in generativen KI-Modellen einem Profiling gem. Art. 22 DSGVO entspricht. Hierbei stellt sich auch die Frage, ob eine Nutzung generativer KI-Modelle unabhängig von ihrem Nutzungsszenario stets mit einem Profiling einhergeht und daher dem Datenschutz entgegenwirken könnte. Daher sind nicht nur generative KI-Modelle (z.B. ChatGPT) einzubeziehen, sondern auch Ansätze der privacy-enhancing Künstlichen Intelligenz.

Lit.: EuGH, Az. C-634/21 – Urteil vom 7.12.2023 – Schufa; Pesch/Böhme: Verarbeitung personenbezogener Daten und Datenrichtigkeit bei großen Sprachmodellen, MMR 2023, 917.

5. Überblick zu Chancen/Risiken für IT-Sicherheit durch Künstliche Intelligenz
Generative Modelle wie ChatGPT oder der GitHub Copilot helfen dabei, ohne eigene Programmierkenntnisse für alltägliche Lösungen kleine Skripte zu entwickeln. Auch können sie als Tutoren für bessere Programmierkenntnisse eingesetzt werden. Dabei besteht jedoch die Gefahr, dass Programmierfehler durch die KI in fremden Code eingeschleust werden können – sei es durch bewusst falsches Training per Angriff auf die KI oder sog. Halluzinationen. Im Rahmen der Arbeit soll ein Überblick erarbeitet werden, wie diese Fehler entstehen können und zu welchen Konsequenzen sie potenziell führen. Soweit möglich, sollen auch Beispiele zur Mitigation möglicher Folgen (z.B. präventiv) eingearbeitet werden.

Lit.: Gupta et al.: From ChatGPT to ThreatGPT: Impact of Generative AI in Cybersecurity and Privacy.

6. Rechtliche und ethische Aspekte von Facial-Recognition-Systemen
Einer der umfangreichen Streitpunkte in der Abstimmung des AI Acts war die Regelung zur Verarbeitung von Daten zur automatisierten Gesichtserkennung (Facial Recognition) – netzpolitik.org berichtete. Die Arbeit sollte daher zunächst den aktuellen Stand in den Verhandlungen des AI Acts zusammenfassen. Anschließend – und hauptsächlich – soll sich die Arbeit mit möglichen Folgen einer Gesichtserkennung aus Perspektive des Datenschutzes, der Privatheit und rechtsethischen Aspekten auseinandersetzen.

Lit.: Bomhard/Siglmüller: AI Act – das Trilogergebnis, RDi 2024, 45; Kalbhenn: Der Vorschlag der Europäischen Kommission zu einer KI-VO als Erweiterung der medienrechtlichen Plattformregulierung, ZUM 2021, 663; Martini: Gesichtserkennung im Spannungsfeld zwischen Freiheit und Sicherheit, NVwZ 2022, 30.

7. Überblick zum aktuellen Stand des Europäischen AI Act
Die Regulierung künstlicher – auch generativer – Intelligenz wird als Lösung möglicher Gefahren dieser Technik propagiert. Im Rahmen der Arbeit soll ein Überblick des aktuellen Entwurfes erarbeitet werden. Dabei soll auch der aktuelle Diskussionsstand dargestellt werden, ob und inwieweit sich diese Regulierung für generative Modelle eignet. Dazu kann auch auf den Vergleich zwischen einzelnen Entwurfsversionen eingegangen werden.

Lit.: AI Act – Entwurf Januar 2024: [Link](https://artificialintelligenceact.eu/wp-content/uploads/2024/01/AI-Act-FullText.pdf); Becker/Feuerstack: Der neue Entwurf des EU-Parlaments für eine KI-Verordnung, MMR 2024, 22; Hacker/Berz: Der AI Act der Europäischen Union – Überblick, Kritik und Ausblick, ZRP 2023, 226.

8. Besonderheiten rechtlicher Risiken von multimodalen generativen KI-Modellen
Das Jahr 2023 war von generativen KI-Modellen geprägt, die sich hauptsächlich einer einzelnen Domäne bedienen: ChatGPT reagiert rein textbasiert, bildgenerative Modelle wie Stable Diffusion oder Midjourney gegen dagegen nur Bilder auf Grundlage des Prompts aus. Beispiele wie "Sora" von OpenAI zeigen aber, dass der Trend zu multimodalen generativen Modellen geht. Ein einzelnes KI-Modell soll verschiedene Medienformen ausgeben und miteinander vermischen können. Im Rahmen der Arbeit ist zu untersuchen, ob sich hieraus neue Gefahren ergeben, und ob sie von aktueller Regulierung (inklusive dem kommenden AI Act) umfasst ist.

Lit.: Schürmann: Datenschutz-Folgenabschätzung beim Einsatz Künstlicher Intelligenz, ZD 2022, 316.

9. Eine KI ohne Bias: rechtlich und/oder technisch möglich?
Die Analyse umfangreicher Datensätze führt regelmäßig zu strukturellen Diskriminierungen und Voreingenommenheit. Aus rechtlicher und technischer Perspektive soll diese Arbeit untersuchen, ob Bias und Diskriminierung durch die Anpassung des KI-Modells gänzlich vermeidbar oder zumindest minimiert werden können.

Lit.: Publikationen des EU-Projektes NoBIAS, siehe https://nobias-project.eu/publications/; Lauscher/Legner: Künstliche Intelligenz und Diskriminierung, ZfDR 2022, 367.

10. Künstliche Intelligenz im Wahlkampf: eine Gefahr für die Demokratie?
Mit den Möglichkeiten generativer KI und der Erstellung von Deep Fakes wird im Wahljahr 2024 immer wieder die Sorge laut: Wahlwerbung kann durch Verfahren künstlicher Intelligenz gefälscht werden und ist selbst für erfahrene und medienkundige Personen nicht zu erkennen. Die Arbeit soll daher mögliche Gefahrenszenarien (z.B. Interviews mit Deep Fakes; falsche Darstellung von Konkurrent:innen) entwerfen und sich mit rechtlichen Risiken auseinandersetzen. Neben dieser Folgenabschätzung soll die Arbeit aber auch auf mögliche Lösungsansätze zur Prävention und zum Schutz demokratischer Wahlen auseinandersetzen.

Lit.: Bueno de Mesquita et al.: Preparing for Generative AI in the 2024 Election: Recommendations and Best Practices Based on Academic Research; Rabitsch et al.: Policy Paper on Artificial Intelligence’s (AI) Impact on Freedom of Expression in Political Campaign and Elections (April 2021)

Das Seminar richtet sich ausschließlich an Master-Studierende, die Teilnehmendenzahl ist auf 10 Personen begrenzt.

Die Vorbesprechung mit Themenvergabe findet online am Dienstag, 16.04.2024, von 15.00-16.00 Uhr statt. Die Teilnahme an der Vorbesprechung ist verpflichtend.Das Seminar findet in Präsenz am Mittwoch, 26.06.2024 ganztägig am ZAR, Vincenz-Prießnitz-Str. 3, Geb. 07.08, 3.OG, Seminarraum 313, statt.