Die EU Kommission will nach mehr als zwei Jahren Bedenken und zähen Verhandlungen das weltweit erste KI Gesetz verabschiedet. Darin soll festgelegt werden, wann ein KI System zur Bedrohung werden kann. Der “AI Act“ oll laut EU Kommissionspräsidentin von der Leyen „… Sicherheit und Grundrechte von Menschen und Unternehmen schützen“. Doch es fehlen noch Details und Experten warnen vor gefährlichen Anwendungen, die nicht per Gesetz reguliert und für Personen und Gesellschaft zum ernsten Sicherheitsrisiko werden können.
Zähe Verhandlungen um Details im „ AI Act“
Anfang Dezember hatte sich die EU Kommission wieder zu einer Verhandlungsrunde zum neuen KI Gesetz versammelt. Das wichtige Thema : „Biometrische Überwachung von Personen im öffentlichen Raum mittels KI“. Laut Gesetzentwurf ist die automatisierte Gesichtserkennung mittels KI ausgeschlossen. Doch die Ländern fordern Ausnahmen für den Bereich der nationalen Sicherheit und militärische KI Anwendungen. So wurde es dann in den Entwurf geschrieben.
Eine weitere Diskussion entstand um die Frage der Reduzierung der Leistung von starken KI Basismodellen, die danach für verschiedene Anwendungen eingesetzt werden. Soll die Quelle, als die grundlegende Einstellung am Basismodell oder nur die entsprechende Anwendung reguliert werden? Hier sind besonders die Länder skeptisch, in denen Unternehmen die Basismodelle herstellen und einen Wettbewerbsnachteil mit den Marktführern aus Fernost oder den USA befürchten.
Es gibt Einigkeit darüber, KI Anwendungen zu reglementieren oder zu verbieten, die „ mit hohen Risiken für die Sicherheit Einzelner und der Gesellschaft verbunden sind“. Doch welche Maßstäbe sollen dafür angesetzt werden? Die Kommission hat den Vorschlag aufgenommen, als Kriterium zur Regulierung der Basismodelle die Zahl der Rechenschritte, die zum Training einer KI notwendig sind, heranzieht. Eine Regulierung soll demnach erfolgen, wenn 10 hoch 26 Rechenschritte als Training im PC durchgeführt wurden.
Kritiker sehen Mängel in der Regulierungsgröße
Kritiker bemerken, dass in Europa kein so großes KI Modell existiert und sogar das als marktführend bekannte Sprachmodell ChatGPT der US-Firma OpenAI hat weniger Trainingsschritte, würde also nicht in die Regulierung fallen.
Die renommierte Professorin Sandra Wachter vom Internet Institute der University of Oxford hat dazu eine klare Meinung:
„Auch von kleineren KI-Modellen kann bereits eine Gefahr ausgehen“ und benennt kleinere KI-Systeme zum Erkennen von menschlichen Emotionen oder das das sogenannte Predictiv policing – also die Steuerung von Polizeieinsätzen durch von KI erstellte Prognosen als Hochrisiko-Technologie.
DieExpertin fordert eine Einzelprüfung der Systeme unabhängig von der Trainingsleistung und mehr Transparenz, um Diskriminierungen beim Einsatz einer KI zu unterbinden.
Professor Philipp Hacker von der Europa-Universität Viadrina Frankfurt (Oder) sagt zur geplanten Kennzeichnungspflicht für Texte, Bilder und Videos, die durch KI generiert werden. Seine Meinung dazu ist klar: „Das Problem dabei ist, dass es in der Regel nicht
genügend Zeit gibt, um die KI-System ausreichend zu testen. Wir brauchen unbedingt mehr Sicherheitsforschung.“
Auch muss zwingend die „ KI-gestützte Informationsbeschaffung mit dem Ziel einer kriminellen und terroristischen Nutzung“ unterbunden werden. Die KI Systeme dürfen auf keinen Fall Informationen geben, wie Bomben oder Biowaffen gebaut und benutzt werden. Hacker sieht eine Lösung im Einbau von generellen Sicherheitsstrukturen in KI Systeme. Das würde Open-Source KI Systeme ausschließen, bis der Quellcode einer Künstlichen Intelligenz allgemein bekannt ist und eine Reduzierung der Sicherheitsmaßnahmen für diesen Sonderfall ermöglicht.
Es gibt also noch viel zu besprechen auf dem Weg zum „AI Act“ und die EU Kommission wäre gut beraten, auf Experten zu hören, denn KI ist weder ein Spaß noch ein einfaches Programm, das sich nach Belieben löschen lässt.