Einigung zum "AI Act" EU will KI-Anwendungen streng regulieren
Die EU bekommt Regeln für den Einsatz von Künstlicher Intelligenz. Nach zähen Verhandlungen haben sich Unterhändler von Europaparlament und EU-Staaten auf Grundzüge des "AI Act" geeinigt. Raum für Innovation soll aber bleiben.
Für den Einsatz von Künstlicher Intelligenz (KI) sollen in der EU künftig strengere Regeln gelten. Unterhändler von Europaparlament und EU-Staaten verständigten sich in Brüssel nach langen Verhandlungen auf den "AI Act". Nach Angaben des EU-Parlaments handelt es sich um das weltweit erste KI-Gesetz.
EU-Binnenmarktkommissar Thierry Breton bezeichnete die Vereinbarung im Kurzbotschaftendienst X, früher Twitter, als "historisch". Die EU werde der allererste Kontinent, der klare Regeln für die Nutzung von KI setzen würde. EU-Kommissionspräsidentin Ursula von der Leyen erklärte, das Rahmenwerk würde Sicherheit und Grundrechte von Menschen und Unternehmen" schützen.
Verschärfte Vorgaben für "risikoreiche" Anwendungen
Die beiden Seiten werden in den kommenden Tagen Einzelheiten aushandeln, die die Form der endgültigen Rechtsvorschriften verändern könnten. Das Europaparlament und die Staaten müssen dem Vorhaben noch zustimmen, das gilt aber als Formsache. Die Regeln sollen unter anderem die Qualität der für die Entwicklung der Algorithmen verwendeten Daten gewährleisten und sicherstellen, dass bei der KI-Entwicklung keine Urheberrechte verletzt werden.
Außerdem müssen Entwickler klar kenntlich machen, dass durch Künstliche Intelligenz geschaffene Texte, Bilder und Töne auf dieser Technologie beruhen. Verschärfte Vorgaben soll es für "risikoreiche" Anwendungen geben, etwa bei kritischer Infrastruktur, Sicherheitsbehörden und Personalverwaltung. Dort sollen eine Kontrolle durch den Menschen über KI, eine technische Dokumentation und ein System zum Risikomanagement festgeschrieben werden.
Die Hoffnung ist, dass die EU-Regeln weltweit Nachahmer finden. Die meisten anderen Staaten haben bislang vor allem Verordnungen und Dekrete erlassen. Außerdem könnte der "AI Act" als Blaupause für diejenigen dienen, denen die Regelungen der USA zu locker und die Auflagen Chinas zu restriktiv sind.
OpenAI als Technologievorreiter
Künstliche Intelligenz bezeichnet meist Anwendungen auf Basis maschinellen Lernens, bei denen eine Software große Datenmengen nach Übereinstimmungen durchforstet und daraus Schlussfolgerungen zieht. Sie werden schon jetzt in vielen Bereichen eingesetzt.
Zum Beispiel können solche Programme Aufnahmen von Computertomografen schneller und mit einer höheren Genauigkeit als Menschen auswerten. Auch selbstfahrende Autos versuchen so, das Verhalten anderer Verkehrsteilnehmer vorherzusagen. Und Chatbots oder automatische Playlists von Streaming-Diensten arbeiten ebenfalls mit KI.
Das Thema Künstliche Intelligenz hatte vor rund einem Jahr durch die Veröffentlichung des Chatbots ChatGPT durch das US-Unternehmen OpenAI an Prominenz gewonnen. Das Programm ist in der Lage, mit Hilfe von Künstlicher Intelligenz aus sehr kurzen Eingabeaufforderungen beispielsweise Essays, Gedichte oder Unterhaltungen zu generieren. ChatGPT machte die Möglichkeiten der KI damit schlagartig einem großen Publikum bewusst. Zugleich wuchsen die Befürchtungen über mögliche Gefahren der Technologie.
EU-Staaten beharrten auf Ausnahmen
Die EU-Kommission hatte das Gesetz im April 2021 vorgeschlagen. Zuletzt wären die Verhandlungen allerdings fast gescheitert - an der Frage der Regulierung von sogenannten Basismodellen. Das sind sehr leistungsfähige KI-Modelle, die mit einem breiten Satz an Daten trainiert wurden. Sie können die Grundlage für viele andere Anwendungen sein. Dazu zählen etwa GPT.
Deutschland, Frankreich und Italien hatten zuvor gefordert, dass nur konkrete Anwendungen von KI reguliert werden sollten, nicht aber die Basis-Technologie an sich. Aber auch die geplanten Regeln zur Gesichtserkennung durch KI, etwa zu Zwecken der Nationalen Sicherheit, sorgten für Streit. Die EU-Staaten beharrten auf Ausnahmen.
Digital- und Verkehrsminister Volker Wissing appellierte an die EU, international abgestimmt vorzugehen und "keinen Alleingang" zu wagen. So gibt es Befürchtungen, Start-Up-Unternehmen wie Aleph Alpha aus Deutschland und Mistral AI in Frankreich könnten in ihrer Entwicklung behindert werden.