Schnell, schneller, KI: Neue Entwicklungen im Bereich künstlicher Intelligenz (KI) verzögern Gesetzesvorhaben. Eine vom Bundestag beauftragte Studie sieht Chancen und Risiken für den Bildungsbereich.
Unter Politikern besteht Einigkeit darüber, dass der Einsatz von KI nicht nur Vorteile hat. ChatGPT weiß das auch. Auf Nachfrage listet er, ohne zu zögern, Nachteile wie den Verlust von Arbeitsplätzen durch die Anwendung von KI und eine erhöhte Gefahr von Datenschutzverletzungen auf. Als Vorteil führt er unter anderem an, KI könne Aufgaben schneller und genauer erledigen als Menschen. Seit mehr als zwei Jahren berät die EU darüber, wie ein Gesetz gestaltet sein muss, das Chancen und Risiken gleichermaßen Rechnung trägt. Wegen ChatGPT steht die bisherige Planung auf dem Prüfstand, weil der Chatbot neue, bisher nicht bedachte Fähigkeiten mitbringt. Auch im Deutschen Bundestag wird über ChatGPT diskutiert. Grundlage ist eine kürzlich veröffentlichte Studie über mögliche Auswirkungen auf den Bildungsbereich.
EU-Gesetzesentwurf unterscheidet nach Risikostufen
Um Chancen zu fördern und Risiken zu vermindern, schlägt die EU-Kommission ein vierstufiges System zur Regulierung von KI-Systemen vor. Bereits am 21. April 2021 legte sie dem Europäischen Parlament (EP) ihren Entwurf für das Gesetz über künstliche Intelligenz (KI-Gesetz), auch Artificial Intelligence (AI Act) genannt, vor. Vereinfacht lässt sich sagen, je höher das Risiko einer Anwendung ist, desto strenger sind die rechtlichen Anforderungen.
Verboten würden KI-Systeme mit unannehmbarem Risiko, die die Europäischen Grundrechte und Werte besonders stark beeinträchtigen. Dazu zählten unter anderem solche, die Menschen unterschwellig außerhalb ihres Bewusstseins beeinflussen, Social-Scoring-Systeme und Gesichtserkennungsprogramme.
Als Hochrisiko-KI-Systeme definiert die Kommission solche, die „erhebliche schädliche Auswirkungen auf die Gesundheit, die Sicherheit und die Grundrechte von Personen in der Union haben“. Unterfallen Anwendungen dieser Stufe, müssten Anbieter umfangreiche Anforderungen erfüllen, beispielsweise Risikomanagementsysteme einrichten. Zur Einordnung in diese Gruppe nennt die Kommission bestimmte Bereiche, zum Beispiel „die Verwaltung und den Betrieb kritischer Infrastrukturen“, „allgemeine und berufliche Bildung“ sowie „Rechtspflege und demokratische Prozesse“. KI-Programme mit einem „besonderen Risiko in Bezug auf Identitätsbetrug oder Täuschung“ zählen als KI-Systeme mit geringem Risiko. Für ihre Anbieter, Anwender und Nutzer würden bestimmte Transparenz- und Informationspflichten gelten. In diese Gruppe fallen auch KI-Systeme, die zur Interaktion mit Menschen programmiert wurden. Dass Nutzer es bei diesen Anwendungen nicht mit einem Menschen zu tun haben, muss offensichtlich sein (Transparenzpflicht). Ist es das nicht, müssen Anbieter die KI so programmieren, dass die Systeme diesen Umstand dem Nutzer mitteilen (Informationspflicht). KI-Systeme, die nicht in eine der genannten Risikogruppen fallen, werden als Anwendungen mit minimalem Risiko bezeichnet und müssten keine besonderen Regelungen erfüllen. Die Kommission schlägt Anbietern jedoch vor, freiwillig Verhaltensregeln zu entwerfen und diese einzuhalten.
Für Verstöße gegen Verbote oder die für Hochrisiko-KI-Systeme geltenden Anforderungen drohen Geldstrafen von bis zu 30.000 Euro. Für Unternehmen können es auch bis zu sechs Prozent ihres gesamten weltweiten Jahresumsatzes sein, wenn dieser Betrag höher ist.
Rat der EU will Programme wie ChatGPT im KI-Gesetz regeln
Der Gesetzesentwurf der Kommission enthält keine Regelungen für Anwendungen wie ChatGPT. Der Grund liegt darin, dass das Sprachverarbeitungsprogramm erst seit dem 30. November 2022 für jeden kostenfrei nutzbar ist. Zu dieser Zeit lag ihr Vorschlag dem Europäischen Parlament bereits vor. Dort wird nun über die Einordnung solcher generativer KI-Systeme beraten. Generative KI-Systeme nutzen Algorithmen, die in der Lage sind, neue Inhalte zu erschaffen. Am 6. Dezember 2022 brachte der Rat der EU seine Änderungsvorschläge (sog. Gemeinsamer Standpunkt) ein. Er spricht sich dafür aus, einen Abschnitt über KI-Systeme mit allgemeinem Verwendungszweck in das KI-Gesetz aufzunehmen. Darunter fiele auch das Sprachverarbeitungsprogramm ChatGPT, weil es nicht nur auf einen Anwendungsbereich begrenzt ist. Der Chatbot kann zum Beispiel Softwarecodes generieren, Gedichte schreiben und Businesspläne erstellen.
Auch darüber, wie KI-Systeme definiert werden sollen, herrscht Uneinigkeit. Der Gesetzesentwurf der Kommission umfasst neben Software, die mit Konzepten des maschinellen Lernens entwickelt wurde, auch Software mit logik- und wissensgestützten sowie statistischen Ansätzen. Diese Definition geht dem Rat der EU zu weit. Er schlägt vor, sie auf Systeme einzugrenzen, die anhand von Konzepten des maschinellen Lernens sowie logik- und wissensgestützten Konzepten entwickelt wurden.
Aktuell berät das Parlament über die Änderungsvorschläge. Billigt es den gemeinsamen Standpunkt, kommt das KI-Gesetz zustande. Ändert es ihn ab, beraten die drei Gesetzgebungsorgane der EU (Rat, Kommission und EP) darüber im Trilog-Verfahren (lateinisch „tri“: drei, Abwandlung von Dialog).
Wie ChatGPT funktioniert
ChatGPT steht für Chatbot Generative Pre-trained Transformer. Es handelt sich um ein Sprachverarbeitungsprogramm, das auf KI basiert und von dem kalifornischen Unternehmen OpenAI entwickelt wurde. Auf Anfragen reagiert der Chatbot mit scheinbar menschlicher Intelligenz. Dafür trainierten die Entwickler ChatGPT im ersten Schritt mit circa 300 Milliarden, überwiegend von Menschen geschriebenen, Textbestandteilen. Um auf dieser Basis eigene Texte zu erstellen, nutzt der Chatbot so genannte Deep Learning-Algorithmen. Sie sind darauf ausgelegt, Muster und Zusammenhänge in Daten zu erkennen. Im zweiten Schritt gaben die Entwickler dem Chatbot menschliches Feedback zu dessen Antworten. So lernte ChatGPT, menschenähnliche Dialoge zu führen. Auf die Frage, wie KI reguliert werden soll, antwortet der Chatbot ohne Zögern. Er rät dazu, dass Länder und internationale Organisationen zur Regulierung Gesetze erlassen sollten, damit „KI-Systeme transparenter und verantwortungsvoller eingesetzt werden“.
Vom Bundestag beauftragte Studie benennt konkrete Chancen und Risiken KI-basierter Anwendungen
Wie eine Untersuchung des Büros für Technikfolgenabschätzung (TAB) ergab, können sprachverarbeitende Systeme wie ChatGPT Lernende, Lehrende und Institutionen unterstützen. Sie bergen aber auch Gefahren. Der Bildungsausschuss im Bundestag hat die selbstständige wissenschaftliche Einrichtung damit beauftragt, Anwendungsmöglichkeiten und gesellschaftliche Auswirkungen solcher Systeme zu untersuchen. Das TAB berät das Parlament und seine Ausschüsse bereits seit 1990 in Fragen des wissenschaftlich-technischen Wandels.
Wie es in einem Hintergrundpapier zur Studie heißt, könne ChatGPT als Tutor agieren und individuelle Lernangebote erstellen. Ein Risiko sieht das TAB darin, dass Lernende durch die häufige Nutzung sprachverarbeitender Programme wichtige Kompetenzen, wie ein gutes schriftliches Ausdrucksvermögen, nicht selbst entwickelten. Lehrende könnten KI-basierte Programme bei der Unterrichtsplanung und im Inklusionsbereich unterstützen. Denkbar sei, dass sprachverarbeitende Programme automatisiert Texte in unterschiedlichem individuellen Sprachniveau erzeugten, auch in einfacher Sprache. Institutionen könnten Verwaltungsaufgaben wie Studienberatungen mit der Unterstützung KI-basierter Chatbots schneller erfüllen. Aber auch für Lehrende weist das TAB auf Gefahren hin. Es benennt unter anderem Risiken für den Schutz personenbezogener Daten und die Gefahr von Diskriminierung. Hinsichtlich einer rechtlichen Regulierung sind die Ausführungen des TAB eher vage. In Bezug auf die Entwicklung und Anwendung sprachverarbeitender KI-Modelle sei „eine staatliche Festlegung der Rahmenbedingungen angemessen und ggf. angebracht“. Weil nicht absehbar ist, wann das KI-Gesetz der EU in Kraft treten wird, stellt das TAB die Frage, inwiefern akut bestehende Regelungslücken bereits jetzt geschlossen werden müssten.
TAB-Studie als Grundlage eines Fachgesprächs
Mitglieder des Bildungsausschusses diskutierten am 26. April gemeinsam mit Experten auf der Basis der TAB-Studie über sprachverarbeitende Programme wie ChatGPT in einer öffentlichen Sitzung. Darin warnt Dirk Engling vom Chaos Computer Club e.V. vor Manipulation durch Microtargeting im Rahmen politischer Kampagnen. Der Begriff meint die gezielte (Online-)Ansprache eng ausgewählter Gruppen von Menschen, bei der jede beliebige (Werbe-)Botschaft konkret auf ihre Interessen abgestimmt wird.
Einen anderen Blickwinkel nimmt Tina Klüwer vom KI Bundesverband e.V. ein, indem sie nicht auf die Risiken abstellt, sondern einen „chancenorientierten Blick auf KI in Europa“ fordert. Doris Weßels, Professorin für Wirtschaftsinformatik an der Fachhochschule Kiel, sieht Schulungsbedarf bei Systemen wie ChatGPT. „Ich erlebe immer noch Lehrende an Hochschulen in Deutschland, für die das Thema neu erscheint.“
Lehrerverband sieht mangelndes Schulungsangebot
Heinz-Peter Meidinger vom Deutschen Lehrerverband (DL) würde Lehrerinnen und Lehrern gerne Unterstützung anbieten. Das Problem bestehe darin, dass es zwar einen großen Bedarf an Fortbildungen gebe, dieser aber momentan nicht gedeckt werden könne. „Das Thema KI und ChatGPT ist noch so neu, dass es zu wenige Experten gibt, die Lehrerinnen und Lehrern Hilfsmittel an die Hand geben können“, erklärt er. Von Seiten des Verbandes gebe es bisher keine offiziellen Leitlinien zur Anwendung von Systemen wie ChatGPT im Unterricht. Es seien jedoch bereits Arbeitsgruppen gebildet worden, die an Beschlüssen und Empfehlungen zum Umgang mit KI arbeiteten, teilt Meidinger mit.
Der DL ist außerhalb der Gewerkschaften des Deutschen Gewerkschaftsbundes (DGB) die größte Lehrerorganisation in Deutschland und vertritt 165.000 Lehrer und Lehrerinnen. Auf die Frage, ob zum jetzigen Zeitpunkt rechtlicher Regulierungsbedarf bestehe, meint Meidinger: “Meine persönliche Ansicht als Bürger, nicht als Amtsträger, ist, dass die Politik sich die Entwicklung genau ansehen sollte, bevor sie durch Gesetze tief in wirtschaftliche Prozesse eingreift.“
Deutsche Politiker nach Italiens Vorstoß alarmiert
Während die EU noch darüber berät, auf welche Weise generative KI-Systeme rechtlich geregelt werden sollen, geht Italien im Umgang mit ChatGPT eigene Wege. Wie es auf der Webseite der italienischen Datenschutzbehörde Garante per la protezione dei dati personali (GPDP) mit Sitz in Rom heißt, verhängte die italienische Regierung eine „sofortige vorübergehende Beschränkung der Verarbeitung italienischer Nutzerdaten durch OpenAI“. Die GPDP kritisiert, personenbezogene Daten würden unrechtmäßig erhoben und es gebe kein Altersüberprüfungssystem für Kinder.
In Deutschland hatte sich die Politik zunächst zurückgehalten. Nach Italiens Vorstoß und wachsender Kritik am Sprachverarbeitungsmodell ChatGPT werden auch hier in verschiedenen Bereichen Stimmen laut, solche KI-Anwendungen seien dringend zu beschränken. Gesundheitsminister Karl Lauterbach fordert in einem Interview mit der Funke Mediengruppe, man müsse KI-Systeme wie ChatGPT im Gesundheitsbereich unbedingt regulieren. Er sagt, sie müssten „geprüft und zuverlässig sein“. Dass die Zeit für rechtliche Rahmenbedingungen dränge, meint auch der Minister für Digitales und Verkehr, Volker Wissing (FDP). In einem Interview mit der Bild am Sonntag sagt er, man müsse jetzt klug reagieren und künstliche Intelligenz vernünftig regulieren. Wissing begründet dies mit dem Schutz von Grundrechten und warnt vor Manipulation durch KI.
Meinung von Unternehmern und Fachleuten gespalten
Zwischen Unternehmern und Fachleuten gehen die Meinungen über den Umgang mit KI-basierten Anwendungen auseinander. Kritik an den Regulierungsvorschlägen der EU kommt von Patrick Glauner, Professor für Angewandte Informatik an der Technischen Hochschule Deggendorf. Während einer öffentlichen Anhörung im Digitalausschuss des Bundestags sagte er, die Definition von KI sei im Entwurf zu weit gefasst. Sie beinhalte sogar einen Taschenrechner, der natürlich keine KI sei.
Unterdessen fordern einige Unternehmer und Wissenschaftler ein 6-monatiges Moratorium für die Weiterentwicklung von KI. Dies geht aus einem offenen Brief hervor, den das Future of Life Institute am 22. März veröffentlichte. In dem Text, den unter anderen Apple-Mitbegründer Steve Wozniak und Tesla-Mitbegründer Elon Musk unterschrieben haben, heißt es „KI-Systeme mit menschlich-kompetitiver Intelligenz können tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen“. Sie fordern, KI-Labore und unabhängige Experten sollten ein Moratorium nutzen, um „eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliches KI-Design und Entwicklung zu entwickeln und zu implementieren“.
Unternehmensberater Christof Horn glaubt nicht, dass es zu einem solchen Moratorium kommen wird. „Wir Menschen sind schlecht darin, einfach die Pause-Taste zu drücken“, sagt er während einer Veranstaltung im Futurium in Berlin zum Thema „Eine kurze Reise durch die KI – Mensch oder Maschine“. Horn berät als Mitarbeiter des Unternehmens umlaut Firmen aus der Automobilindustrie. Häufig geht es dabei um den richtigen Umgang mit disruptiven Technologien, die andere etablierte Technologien verdrängen, zum Beispiel um den auf KI basierenden Bereich des autonomen Fahrens. Horn sieht vor allem Vorteile in der schnellen Entwicklung von KI und meint: „Wir sind bei der Geburt einer neuen Basistechnologie dabei. Die Nutzbarkeit einer solchen KI, die zuvor Spezialisten vorbehalten war, ist jetzt für alle zugänglich.“ Auch Stephanie Schiedermair, Professorin für Öffentliches Recht, Europa- und Völkerrecht an der Universität Leipzig und Mitherausgeberin des European Review of Digital Administration & Law-Journals ist gegen ein Moratorium, aber für eine gesetzliche Regulierung von KI. Dabei sieht sie die EU auf einem guten Weg. „Der Entwurf der Kommission ist ein mutiger erster Schritt und gibt mit dem risikobasierten Ansatz die notwendige Grundstruktur vor. Wegen der schnellen Entwicklungen im KI-Bereich werden wir erst in zwei oder drei Jahren sehen, was eventuell daran geändert werden muss“, erklärt sie. Auf die Frage, ob KI uns zukünftig besser regieren könne als die Politik, meint Schiedermair: „Das ist eine gute Frage, da müsste ich in die Glaskugel sehen. Man muss dabei bedenken, dass KI kein Alien ist, sondern vom Menschen gemacht. Sie muss angestoßen werden und wird nie vollkommen automatisiert ein Land regieren können. Vorgelagert sollten wir uns aber die Frage stellen, ob wir das wollen.“
Junia Greb-Georges
Die Autorin ist Volljuristin und ausgebildete Journalistin.
Ihren Bericht über die Ansätze, künstliche Intelligenz auf EU-Ebene und innerhalb Deutschlands zu regulieren,
schrieb sie während ihres Studiums an der Freien Journalistenschule (FJS) als Abschlussarbeit.
Derzeit absolviert sie ein Praktikum bei den Stadtrand-Nachrichten
.