Bislang ist die künstliche Intelligenz (KI) in ihrem Tun beinahe uneingeschränkt. Lediglich die Programmierer oder die Unternehmen hinter der KI entscheiden, wo diese KI in ihrem Tun eingeschränkt wird. Beispielsweise beantwortet ChatGPT gewisse Fragen mit einer vorprogrammierten Antwort und nicht mit der Antwort auf die Fragen. Bislang kann auch jede Art künstlicher Intelligenz entwickelt und veröffentlicht werden. Damit soll aber nun Schluss sein. Das EU-Parlament hat sich auf einen Gesetzesentwurf geeinigt, mit dem es erstmals Regeln für die KI gibt.

Der Gesetzesentwurf der EU

Das EU-Parlament hat diesen Gesetzesentwurf allerdings nicht aufgrund des Hypes um die künstliche Intelligenz oder aufgrund des Wettbewerbs zwischen Google und OpenAI in die Wege geleitet. Vielmehr wird dieser Gesetzesentwurf seit einem Vorschlag aus April 2021 im EU-Parlament besprochen und diskutiert. Großes Thema der Diskussion war vor allem die Frage, wie stark die EU zukünftig die Technologie der künstlichen Intelligenz einschränken soll. Gerade im Hinblick auf den Wettbewerb und möglichen Wettbewerbsnachteilen gab es da ordentlich Diskussionsstoff.

Jetzt Kontakt aufnehmen!

Nach dem „Artificial Intelligenz Act“ oder auch „AI Act“ sollen KI-Systeme in verschiedene Risikogruppen eingeteilt werden. Anwendungen, die aufgrund eines viel zu hohen Risikos die Menschenrechte, die Demokratie, die Sicherheit oder die Umwelt zu schädigen, werden als besonders riskant eingestuft. Diese erhalten die höchsten Auflagen, die sie alle einhalten müssen.

Die Risikogruppen

Die EU sieht mehrere Risikogruppen vor. Teil dieser Risikogruppen werden aber nur die KI-Anwendungen, die die Grundrechte schwerwiegend verletzen könnten oder andere Risiken bergen könnten. KI-Systeme, die dies nicht machen, werden von der Klassifizierung nicht betroffen sein und werden somit auch nicht erfasst.

Für KI-Anwendungen, bei denen zumindest ein gewisses Risiko dahingehend besteht, müssen keine starken Auflagen befürchten. Für diese Anwendungen würden geringere Transparenzpflichten gelten, wie bspw. anzugeben, dass gewisse Inhalte von einer künstlichen Intelligenz generiert worden sind. Dadurch wird den Nutzern die Möglichkeit gegeben, fundierte Entscheidungen auf Basis dieses Wissens zu treffen.

Anders sieht das bei KI-Systemen aus, die als Hochrisiko-System eingestuft werden. Diese dürfen zwar nach wie vor zugelassen werden und auch auf den EU-Markt kommen, müssen sich aber an strenge Auflagen halten. So dürfen die Daten, die für das Training dieser KI genutzt worden sind, nicht zu einer Diskriminierung bestimmter Gruppen führen. Ebenso müssen sämtliche Entscheidungen einer solchen Hochrisiko-KI immer von einem Menschen überwacht werden.

KI-Systeme, die in die letzte Gruppe klassifiziert werden, sind in der gesamten EU verboten und werden nicht auf dem EU-Markt zugelassen. Das Risiko dieser Anwendungen ist inakzeptabel und nicht tragbar, wodurch diese direkt verboten werden. Zu diesen KI-Anwendungen zählen zum Beispiel Systeme, die zur Manipulation des kognitiven Verhaltens genutzt werden, die für Social Socring (dem Klassifizieren von Menschen aufgrund ihrer Merkmale oder ihres Verhaltens) oder Systeme, die in Echtzeit oder nachträglich Personen erkennen und kategorisieren können.

Ausnahmen bei der Strafverfolgung

Auch wenn diese Regeln für die KI, also jedes einzelne System gilt, so gibt es dennoch eine Ausnahme. Die Strafverfolgung ist ein wichtiges und nicht zu ersetzendes Mittel gegen die Gefahrenabwehr und ist auf die Nutzung von künstlicher Intelligenz angewiesen. Somit dürfen in der Strafverfolgung auch KI-Anwendungen für eine biometrische Identifizierung eingesetzt werden, welche normalerweise als inakzeptabel eingestuft werden. Gleiches gilt für Anwendungen, die die Auflagen der Hochrisiko-Klassifizierung nicht bestanden haben.

Doch trotz dieser Ausnahmen, untersteht die Nutzung besonderer Vorkehrungen. So ist die Nutzung von diesen KI-Anwendungen bzw. genau von KI-Systemen für Fernidentifizierungen nur dann gestattet, wenn diese für die Strafverfolgung zwingend notwendig sind. Außerdem sollen die Systeme nur für eine begrenzte Zeit und auf einen begrenzten Ort genutzt werden dürfen. Die Systeme dürfen auch nur für die Suche nach Opfern von bestimmten Straftaten, wie dem Menschenhandel, zur Prävention von Terrorbedrohungen oder zur Lokalisierung und Identifizierung von Straftätern, die eine bestimmte Straftat, wie Menschenhandel, Mord oder Vergewaltigung, begangen haben.

Gibt es auch für große Sprachmodelle Regeln?

Zu den großen Sprachmodellen bzw. den KI-Basismodellen gehören unter anderem GPT-4 von Open AI, Gemini von Google oder Llama 2 von Meta und Microsoft. Diese Basismodelle werden mit riesigen Datenmengen trainiert, bevor sie speziell auf einen Anwendungsbereich optimiert werden.

Die Regeln aus dem AI Act für diese KI beziehen sich vor allem auf die Trainingsdaten. Dabei sollen die Unternehmen hinter dieser generativen KI-Anwendungen transparent sein und offenlegen, welche Daten für das Training genutzt worden sind. Außerdem müssen diese Daten mit den Datenschutz- und Urheberrechtsbestimmungen der EU übereinstimmen und das Urheberrecht muss gewahrt werden. Ebenso muss dokumentiert werden, welche Testverfahren durchgeführt worden sind.

Für Basismodelle mit Risiken, können auch schärfere Auflagen durchgesetzt werden. Wenn bestimmte Kriterien für systemische Risiken erfüllt sind, sollen diese Modelle verbessert werden, die Systemrisiken müssen bewertet und gemildert werden, die Cybersicherheit muss gewährleistet sein und der EU-Kommission muss über schwere Vorfälle berichtet werden. Über eine Einstufung in diese Klasse entscheidet die Größe der für das Training genutzte Rechenleistung.

Was sind die Strafen für den Einsatz verbotener KI?

Das steht ebenfalls im AI Act und richtet sich, wie ehemalige EU-Gesetze an den weltweiten Jahresumsatz der Unternehmen. Der Einsatz von verbotenen KI-Systemen wird mit einer Geldstrafe von mindestens 35 Millionen Euro oder sieben Prozent des Vorjahresumsatz bestraft.

Sollten Unternehmen, welche KIs entwickeln, gegen die im AI Act festgehaltenen Verpflichtungen verstoßen, so müssen Sie mindestens 15 Millionen Euro oder drei Prozent des Vorjahresumsatz zahlen. Bei der Bereitstellung von Fehlinformationen müssen die Unternehmen 7,5 Millionen Euro oder 1,5 Prozent des Vorjahresumsatz bezahlen.

Aber keine Sorge. Diese Strafen gelten nur für die Big Player, die großen Unternehmen. Start-Ups sowie KMU werden zwar ebenfalls bestraft, allerdings nicht mit so hohen Summen. Für die kleinen Unternehmen wird verhältnismäßigere Obergrenzen und Strafen geben.

Was ändert sich durch den AI Act?

Was genau sich alles ändern wird, kann niemand vorhergesagen. Die EU hat mit dem AI Act zum ersten Mal überhaupt umfassende Regeln und Regelungen für KI und KI-Anwendungen aufgestellt und definiert. Kein anderes Gesetz dieser Art und vor allem von diesem Umfang existiert derzeit auf der Welt. Allein dadurch kann sich einiges ändern und das Gesetz könnte zu einer Vorlage für weitere Gesetze zur Regulierung von KI-Anwendungen werden. So plant derzeit auch die USA Regeln für die KI.

Nachdem der Entwurf verabschiedet wurde, muss der finale Gesetzestext noch geschrieben und anschließen angenommen werden. Erst dann tritt der AI Act in Kraft. Wann das so weit ist, lässt sich noch nicht genau sagen.

Ihr Agenturteam von Lenner Online Marketing