Regulierung generativer KI
Mehr Chancen durch weniger Risiken
Die gegenwärtige Debatte um generative Künstliche Intelligenz (KI) ist von Extremen geprägt: Die einen sehen in ihr ein Allheilmittel, andere beschwören Endzeitszenarien. Ich werbe für einen ausgewogeneren Blick auf die Technologie. Ich bin davon überzeugt, dass wir mit KI Mehrwerte für alle stiften können – bei uns, aber auch global. Denn KI kann unsere Arbeit erleichtern, individuelles Lernen fördern, die Pflege von Menschen unterstützen und die Medizintechnik deutlich nach vorne bringen – also unser Leben besser, leichter, gesünder machen.
Gleichzeitig sehe ich aber auch massive Risiken, die von generativer KI ausgehen. Dazu zählen zum Beispiel Falsch- und Desinformation, die die Systeme schnell und billig produzieren können, Verstärkung von Diskriminierung und Marginalisierung oder die Verbreitung persönlicher Informationen, die den Anwendungen bereits entlockt werden konnten. Wie kommt es dazu und was können wir dagegen tun?
Maßgeblich für den Output der Anwendungen generativer KI sind einerseits die Trainingsdaten. Sogenannte Large Language Models (LLM) wie ChatGPT werden mit riesigen Datenmengen trainiert. Besonders sprachlich und inhaltlich hochwertige Texte wie beispielsweise wissenschaftliche Publikationen sind allerdings knapp – mit der Folge, dass auch auf weniger wertige Inhalte zurückgegriffen wird. Bei GPT-3 etwa sind laut OpenAI 82 Prozent der Trainingsdaten nicht genauer definierte „verschiedene Kompilationen von Internetinhalten“. Das können zum Beispiel Texte aus Internetforen sein, wo auch etwa Sexismus, Rassismus, Rechtsextremismus, Antisemitismus oder Queerfeindlichkeit präsent sind. All das wird dann von den Systemen – abhängig von Menge und Gewichtung im Trainingsprozess – reproduziert.
Kreative bleiben auf der Strecke
Ein weiteres strittiges Thema ist außerdem das der Diversität: Wenn ein System, das auf Basis von Wahrscheinlichkeiten arbeitet, nur von einer einzigen Lebensrealität ausgeht, finden viele Menschen in den Antworten generativer KI nicht statt. Das verstärkt Marginalisierung. Wir wollen Pluralität, wir wollen Vielfalt. Dabei helfen können Standards, die mit Blick auf die Trainingsdatenqualität formuliert werden.
Bislang ungeklärt ist außerdem die Frage des Urheberrechts: Gegenwärtig werden die Daten ohne Einwilligung, Kenntlichmachung oder Bezahlung genutzt – Kreative bleiben da auf der Strecke. Die aktuell diskutierte Verpflichtung der Anbieter, das im Prozess genutzte urheberrechtlich geschützte Material offenzulegen, kann hier nur der Anfang sein.
Fehlende Transparenz
Ausschlaggebend für den Output sind außerdem die Trainingsprozesse: Durch manuelle Eingriffe können Leitplanken gesetzt und so unerwünschte oder gefährdende Antworten verhindert werden. Hier begegnen wir aber gleich mehreren Herausforderungen: Anbieter lassen uns weder am Wissen zu den Leitplanken noch an den Aushandlungsprozessen teilhaben. Entscheidungen zum Sagbaren und Unsagbaren liegen so in der Hand einiger Weniger – mit Demokratie hat das nichts zu tun. Was wir brauchen, sind breite Transparenz und Mitbestimmung.
Transparenz fehlt aber auch beim Thema Arbeitsbedingungen: Recherchen haben aufgedeckt, dass OpenAI sein Training in den Globalen Süden verlegt hat. Dort sichten Clickworker:innen für wenige Dollar am Tag traumatisierendes Material von sexueller Gewalt bis Tierquälerei, um schädliche Daten frühzeitig aus den Datensätzen zu entfernen. Dieser Ausbeutung müssen wir entschlossen entgegentreten.
Weltweit erste umfassende Regulierung Künstlicher Intelligenz
Lange Zeit war KI eher ein Nischenthema. Der Hype, den ChatGPT und Co. ausgelöst haben, schafft nun ein politisches Momentum, um breitere Aufmerksamkeit auf laufende Debatten zu lenken. Um die Risiken generativer KI einzuhegen, werden aktuell international mehrere Möglichkeiten diskutiert. Dazu zählen zum Beispiel ein Entwicklungsstopp, der von einer Sammelbewegung aus Wirtschaft und Politik vorgeschlagen worden ist oder allgemeine Verbotsdebatten. Vorbehalte und Ängste gegenüber einer sich derart rasant entwickelnden Technologie müssen wir ernst nehmen. Die Antwort auf die Risiken generativer KI kann aber nicht Stillstand sein. Denn selbst, wenn wir uns zurückziehen, wird es andere Akteure wie China geben, die das nicht tun werden. Keine Verbote, kein Moratorium: Vertrauenswürdige KI kann es nur durch Regulierung geben.
An einer solchen Regulierung arbeiten wir gerade in der EU: Mit dem Artificial Intelligence Act (AIA) entsteht aktuell die weltweit erste umfassende Regulierung Künstlicher Intelligenz. Mithilfe eines risikobasierten Ansatzes werden diejenigen Anwendungen, die ein hohes Risiko für Gesundheit, Sicherheit und Grundrechte darstellen, strengen Regeln unterworfen. Anwendungen, von denen ein inakzeptables Risiko ausgeht, werden verboten. Die große Mehrheit der KI-Anwendungen – nämlich die, die in den niedrigsten Risikostufen eingeordnet werden – müssen keine oder nur wenige Auflagen erfüllen. So regulieren wir zielgenau und lassen weiterhin Raum für Innovation.
Kennzeichnung ist zentrales Thema
Nachdem der Kommissionsentwurf aus dem Frühjahr 2021 keinen Hinweis zu generativer KI enthalten hat und der Rat in seiner allgemeinen Ausrichtung Ende 2022 erste Vorschläge für den Umgang mit generativer KI gemacht hat, hat das Europäische Parlament im Juni deutlich nachgelegt und weitreichende Ideen zur Regulierung generativer KI präsentiert. Für die heiße Phase – den Trilog, in den der AIA gerade eingetreten ist – setzen wir uns neben einigen allgemeingültigen Punkten auch für Regelungen speziell zu generativer KI ein. Dazu gehört zum Beispiel eine faire Verteilung der Verantwortung zwischen den Akteur:innen entlang der KI-Wertschöpfungskette. Zentral ist für uns außerdem das Thema Kennzeichnung: Wir beobachten, dass die Produkte von Anwendungen generativer KI immer eloquenter, immer realitätsnaher, immer glaubwürdiger daherkommen. Das stellt uns vor Herausforderungen.
Als wenig hilfreich, weil wenig treffsicher haben sich in diesem Kontext Tools erwiesen, die KI-generierte Inhalte detektieren sollen. Wir brauchen daher eine Kennzeichnungspflicht, die KI-generierte Inhalte anzeigt und über die Grenzen und Gefahren, die von den Systemen ausgehen, informiert. Das schafft Bewusstsein und befähigt zu einer informierten Einschätzung zur Vertrauenswürdigkeit eines generierten Inhalts. So schützen wir nicht nur demokratische Werte, sondern geben auch ein Stück Kontrolle an diejenigen zurück, die von den Chancen Künstlicher Intelligenz besonders profitieren sollen: die Menschen.
Unser Gastautor
Parsa Marvi, MdB
Parsa Marvi (*1982 in Teheran, Iran) ist seit 2021 Abgeordneter der SPD im Bundestag. Als Mitglied des Ausschusses für Digitales und Berichterstatter für den Artificial Intelligence Act setzt er sich unter anderem für eine Regulierung von Künstlicher Intelligenz ein, die den Diskriminierungs-Potenzialen von Künstlicher Intelligenz wirksam begegnet, Potenziale der Technologie hebt und die Rechte von Bürgern, Arbeitnehmern und Verbrauchern schützt.