Die neue KI-Verordnung der EU
Kann die geplante KI-Verordnung der EU das Vertrauen der Bürger in Sicherheit, Gesundheit und Grundrechte stärken? Die DGRI gab hierzu eine informative Einführung durch die Gastrednerin Laura Jugel, Legal Officer bei der EU-Kommission.
Viele nutzen bereits heute bei der täglichen Arbeit KI-Anwendungen, insbesondere textbeasierte KI wie ChatGPT (Chat Generative Pre-trained Transformer), die auf menschenähnliche Weise auf Texteingaben reagieren und in verschiedenen natürlichsprachlichen Anwendungen wie Chatbots, Textverständnis und Generierung von menschenähnlichem Text eingesetzt werden kann. Aber kann man dieser künstlichen Intelligenz vertrauen?
In einer sehr informativen Veranstaltung der Deutschen Gesellschaft für Recht und Informatik (DGRI) erläuterte Frau Laura Jugel, Legal Officer bei der EU-Kommission, die geplante KI-Verordnung in ausgesprochen verständlicher Weise. Die auf Artikel 114 AEUV gestützte Verordnung soll im Kern gerade das Vertrauen in die KI-Anwendungen gewährleisten. Im Zentrum stehen Bedürfnisse der EU-Bürger wie Gesundheit, Sicherheit und Grundrechte. Nachfolgend ein paar Snippeds aus dem hervorragenden Vortrag:
Risikobasierter Regelungsansatz der KI-Verordnung
Die KI-Verordnung folgt einem risikobasierten Ansatz mit verschiedenen, teils über Anhäge ("Annexes") ergänzten, komplexen Regelungen, zu denen Verbote eines Einsatzes, aber auch Anbieterpflichten wie Dokumentations- und Transparenzpflichten gehören. Welche Regelungen im Einzelfall gelten, hängt von dem Verwendungszweck der KI und einer Riskoeinschätzung ab. Bei einem unannehmbaren Risiko für die genannten Schutzgüter (Gesundheit, wird nach der Systematik der KI-Verordnung die Anwendung von vornherein verboten. Das ist beispielsweise bei Social Scoring oder Scraping der Fall. Hier werden klare rote Linien gezogen. Kern der Verordnung sind die Anwendungen mit einem hohen Risiko. Das ist beispielsweise beim Einsatz in der Medizin oder beim Recruiting der Fall. Welceh Anwendungsfälle dies im Einzelnen betrifft wird in einem Annex zur Verordnung geregelt, ähnlich der Systematik des BSiG. Auf nächstniedriger Stufe wird ein Transparenzrisiko von Anwendungen gesehen, welches zb bei Chatbots relevant ist.
Regelungsmechanismen
Zu den Regelungsmechanismen gehören bei unanehmbaren Risiken natürlich Verbote für entsprechend Anwendungen der KI.
Für die anderen Risikoklassen wird es unter anderem Dokumentationspflichten geben. Das gilt insbesondere für Anwendungen wir ChatGPT, wobei die Quelle der Trainingsdaten zu dokumentieren ist. Das ist insbesondere mit Blick auf das uirheberrecht relevant.
Interessant ist auch der Ansatz, das der Verwendungszweck vom Anbieter selbst bestimmt wird. Bei großen sprachbasierten KI-Anwendungen dürfte dieserwegen der nahezu allumfassenden Einsatzmöglichkeiten allerdings kaum zu begrenzen sein.
Ausblick
Derzeit wird noch an Details gefeilt. Frau Jugel war anzumerken, dass der Druck beim Verordnungsgeber angesichts der rasanten Entwicklung sehr hoch ist. Es bleibt zu hoffen, dass die Verordnung mit der fortschreitenden technischen Entwicklung Schritt halten kann.