Wasch mir den Pelz, aber mach mich nicht naß. So könnte man das Ergebnis der EU-Bemühungen um die Regulierung von künstlicher Intelligenz zusammenfassen. Der Entwurf für ein neues A.I. Act, das von der EU am Freitag beschlossen wurde, ist ein typisches Stück politischem Dillitantismus, der niemanden recht zufriedenstellen kann.
Einerseits fürchteten sich die Politische Entscheidungsträger der Europäischen Union vor der biometrischen Gesichtserkennung a la Chinas Social Scoring. Andererseits haben sie den Forderungen ihrer eigenen Gesetzeshüter nachgegeben, in „begründeten Ausnahmefällen“ genau das zu tun, nämlich eine nachträgliche automatisierte Suche nach Gewalttätern mithilfe von Gesichtserkennung. „Zeitlich und örtlich begrenzt“ soll es möglich werden, Bilder von Personen, die durch massenhafte Überwachung ium öffentlichen Raum entstanden sind, zur gezielten Suche nach Opfern von Entführungen, Menschenhandel und sexueller Ausbeutung oder zur Abwehr „einer konkreten und gegenwärtigen terroristischen Bedrohung“. Als weiterer Zweck wird die Suche nach Verdächtigen genannt, denen eine schwere Straftat wie Terrorismus, Mord, Vergewaltigung, bewaffneter Raubüberfall, Beteiligung an einer kriminellen Vereinigung oder Umweltkriminalität zur Last gelegt wird.
Unklar bleibt, wer zu entscheiden hat, ob oder ob nicht. Und völlig offen ist, was geschehen soll, wenn jemand doch…
Die Hersteller der größten universellen KI-Systeme, wie die, die den Chatbot ChatGPT antreiben, sollen neuen Transparenzanforderungen unterliegen. Chatbots und Software, die manipulierte Bilder wie „Deepfakes“ erstellt, müssten laut EU-Beamten und früheren Entwürfen des Gesetzes deutlich machen, dass das, was die Menschen sehen, von KI erzeugt wurde. Wie das in der Praxis funktionieren soll, ist völlig offen. Werden künftig KI-Systeme suich selbst ein Gütesiegel verpassen, so eine Art „Echtheits-Garantie“. Auf Quora tauchen bereits heute Antworten auf, die gekennzeichnet sind als das Ergebnis einer Suche bei ChatGPT. Allerdings ist das bislang noch im Ermessen des Einzelnen.
Vor einem Jahr wußten die meisten EU-Politiker nicht, was Generative KI überhaupt ist. Heute wollen sie es regulieren. Oder auch nicht. Herausgekommen ist ein Gesetz, dass niemand richtig ernst nehmen kann, das aber zumindest in Europa die Entwicklung von KI scharf ausbremsen wird.
Gleichzeit glaubt man jenseits des Atlantiks, durch einen präsidialen Federstrich das Problem in den Griff zu bekommen. Präsident Biden hat eine Durchführungsverordnung unterzeichnet, die „umfassende Maßnahmen“ zum Schutz der Amerikaner vor den potenziellen Risiken von KI-Systemen vorsieht: Die Entwickler der leistungsstärksten KI-Systeme sollen verpflichtet werden, ihre Sicherheitstestergebnisse und andere wichtige Informationen mit der US-Regierung zu teilen. Mit wem dort, und wie kleine Regierungsbeamte überhaupt die Tragweite dessen erkennen sollen, was die hellsten Köpfe in der KI-Entwicklung sich ausgedacht haben, weiß niemand. Hauptsache, Biden kann sich auf die Schulter klopfen und sagen: „Wir haben etwas gemacht“.
Was passiert, wenn beispielsweise auf Twitter, das jetzt „X“ heisst, eine KI-gesteuerte Fake News auftaucht, ist ohnehin ein Rätsel. Elon Musk hat ja bekanntlich seine Qualitätskontrolleure alle in die Wüste geschickt, weil er seine ultra-libertinäre Vorstellung von totaler Meinungsfreiheit durchsetzen will. Er zeigt damit sowohl den Europäern wie seiner eigenen Regierung den Stinkefinger, und gnauso werden es andere machen. Inzwischen stecken die EU-Entscheider ihre Finger in den Deich und hoffen, damit die Sintflut stoppen zu können.
KI wird ihren Weg machen – egal was die Politiker sagen. Das ist eine gute und eine schlechte Nachricht zugleich.
Ich selbst bin an einem Projekt eines Herstellers großer, KI-gestützter Übersetzungsprogramme beteiligt. Tag für Tag sitze ich da und vergleiche englisch-deutsche Übersetzungen, die von KI generiert worden sind, und sortiere die schlechten aus. So lernt das Programm über Zeit, was eine richtige und was eine falsche Übersetzung ist. Das ist eine Kärnerarbeit, aber anders geht es nicht, wenn wir uns nicht das Gesetz des Handelns aus der Hand nehmen wollen. Ein A.I. Act ist dafür kein Ersatz.
Das einzig Gute: Das Europäische Parlament will erst im nächsten Jahr über den „AI Act“ abstimmen, der nicht vor 2025 in Kraft treten kann.