Person tippt auf Laptoptastatur, auf dem Bildschirm ist das Programm ChatGPT geöffnet.

KI und Recht: Neue Technologie, neue rechtliche Fragestellungen

Spätestens seit der Veröffentlichung von ChatGPT werden Einsatzmöglichkeiten und Grenzen generativer Künstlicher Intelligenz (KI) diskutiert. Mit der Entwicklung von KI-Sprachtechnologien stellen sich nun auch einige rechtliche Fragen: Wer ist Urheber*in KI-generierter Inhalte oder was ist aus rechtlicher Sicht bei der Nutzung von KI-Tools zu beachten?

Erste Auskunft zur rechtlichen Situation gibt das Gutachten zu didaktischen und rechtlichen Fragestellungen, das vom Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen in Auftrag gegeben wurde.

Es wurde im Rahmen des von uns hier am ZfW koordinierten Projekts KI:edu.nrw erstellt.

Deckblatt des Gutachtens "Didaktische und rechtliche Perspektiven auf KI-gestütztes schreiben in der Hochschuldbildung" von Peter Salden und Jonas Leschke.
Auf drei Ebenen können demnach rechtliche Belange relevant werden, auf datenschutzrechtlicher, urheberrechtlicher und auf der Ebene der guten Regeln wissenschaftlicher Praxis. Dem Gutachten lässt sich entnehmen, dass die Regeln guter wissenschaftlicher Praxis selbst keine verbindlichen rechtlichen Regelungen darstellen (Gutachten, S. 30f). Sie wurden von verschiedenen Forschungseinrichtungen entwickelt und in der Folge haben sie Eingang in Prüfungsordnungen gefunden. Daher rührt ihr rechtsverbindlicher Charakter. Im Gegensatz dazu existieren im Fall des Datenschutz- und des Urheberrechts gesetzliche Regelungen.

Urheber*innenschaft ade?

Auf der urheberrechtlichen Ebene lässt sich als Erstes feststellen, dass mittels KI-Tools generierte „Werke“ keine Urheber*innenschaft beanspruchen können. Denn aus urheberrechtlicher Sicht ist eine menschliche Person notwendig, damit Urheber*innenschaft in Anspruch genommen werden kann. Strittig bzw. anhand des Einzelfalls zu beurteilen ist, inwieweit und wann menschliche Zusatzhandlungen, erweitertes Prompting beispielsweise, dazu führen können, dass so viel menschlicher Einfluss da ist, um Urheber*innenschaft zu behaupten. Hier ist keine rechtliche Eindeutigkeit gegeben, was die praktische Anwendung erschwert.
Die Grenzen zwischen KI-generierten Inhalten und eigenem Zutun verschwimmen.
Allerdings ist dies nicht erst eine Eigentümlichkeit von KI-generierten Inhalten. Mit der Digitalisierung ist der Zugriff auf und die Inkorporation per Copy & Paste fremder, in der Regel urheberrechtlich geschützter Werke daher im Prinzip verboten, doch weitgehend ohne Hindernisse möglich. Die KI-Tools liefern diese Inhalte nun nur etwas direkter und passgenauer.

Über Nachweise und Pattsituationen

Die Behauptung von Urheber*innenschaft steht damit vor einer veränderten Gemengelage und wahrscheinlich ist mehr zu tun, um diese zu behaupten und ggf. zu verteidigen, d.h. im Zweifelsfall ist der Nachweis unumgänglich, dass ich ein Werk selbst geschaffen habe und nicht habe generieren lassen. Schon jetzt treten im Hochschulkontext Fälle auf, dass Studierenden beispielsweise die eigene Leistung abgesprochen wird, nach dem Motto: „Das kann nicht selbst geschrieben sein“ und demzufolge Studierende unter Umständen Beweisnot haben.
Doch wie weist jemand nach, KI nicht genutzt zu haben? Das dürfte in der Praxis schwierig bis unmöglich sein. Doch auch der umgekehrte Weg schafft keine Beweise:
Derzeit gibt es keine Tools, die den Nachweis erbringen können, dass ein Text KI-generierte Passagen enthält oder vollends KI-generiert ist.
Dies schafft sozusagen eine Pattsituation, aus der noch niemand einen wirklich praktikablen Ausweg gefunden hat. Empfohlen wird hier die offene Kommunikation mit den Studierenden, die Klärung von Erwartungen und natürlich die Anwendung und Erprobung von KI-Tools im eigenen Fach bzw. innerhalb von Lehrveranstaltungen.

Woher kommen Trainingsdaten?

Ein weiteres urheberrechtliches Problemfeld ist, dass KI-Tools auch urheberrechtlich geschützte Werke als „Futter“ für ihr Training brauchen. Die Legalität des Trainierens mit Daten, die urheberrechtlich geschützte Werke enthalten, ist umstritten bzw. wird anhand erster Klagen in den USA auf die Probe gestellt.

Daran schließt sich an, dass die KI-Erzeugnisse, d.h. die Antworten auf Anfragen an beispielsweise ChatGPT, Teile urheberrechtlich geschützter Werke enthalten können. Dies wird aufgrund der statistischen Rekombinationen jedoch teilweise für eher unwahrscheinlich gehalten. Dennoch können hier potenziell Urheberrechtsverletzungen entstehen.

Kennzeichnungspflicht

Viele Fragen drehen sich auch um eine Kennzeichnungspflicht KI-generierter Inhalte. Aus urheberrechtlicher Sicht ist keine Kennzeichnung notwendig, wenn es keine Urheberschaft gibt. In der Hochschule existieren aber außerdem die genannten Regeln guter wissenschaftlicher Praxis, die über die Anforderung des Urheberrechts hinausgehen:
„Somit kann allein das Vorliegen eines Urheberrechtsschutzes an den KI-generierten Texten nicht maßgeblich dafür sein, ob ein wissenschaftliches Verhalten zu bejahen ist oder nicht. Darüber hinaus ist der Sinn und Zweck dieser Regelung, dass Wissenschaftler:innen für Dritte nachvollziehbar angeben sollen, welcher Inhalt den eigenen Gedanken entspringt und welche Sätze fremden Quellen entnommen wurden.“
Gutachten, S. 31
Die Regelungen hierzu können sehr unterschiedlich sein und sind es auch, s.a. den Beitrag aus Sicht eines Studierenden zu den Richtlinien an deutschen Hochschulen (Von klaren Ansagen und offener Kommunikation – Zum Beziehungsstatus zwischen KI-Tools und den deutschen Hochschulen von Jasper Beyermann)
Hinzu kommt, dass es unterschiedliche Nutzungspraktiken von KI-Tools geben kann, von bloßer Inspiration, über Umarbeitungen generierter und eigener Texte bis hin zu wortwörtlichen Übernahmen. Wahrscheinlich kommt es hier, wie bei vielen anderen Dingen auch, auf das Maß an. Ein Gradmesser könnte sein, ab welchem Punkt die Nutzung von KI-Tools ein solches Maß annimmt, dass eine eigene Leistung nicht mehr angenommen werden kann. Das hängt von den gestellten Aufgaben und der Leistungsfähigkeit der KI-Tools ab und ist auch Bestandteil der weiteren technologischen und gesellschaftlichen Entwicklung.

Augen auf beim Datenschutz

Vorsicht und Augenmaß ist bei der Nutzung von KI-Tools in der Hochschullehre aus datenschutzrechtlicher Sicht geboten. Die Anforderungen der DSGVO sind leider nur unzureichend erfüllt. Für eine Nutzung ist eine Registrierung unter Angabe persönlicher Daten notwendig. Es sollten darüber hinaus möglichst keine persönlichen Daten eingegeben werden. Insbesondere kann eine Weiternutzung der eingegebenen Daten nicht wirksam ausgeschlossen werden. Wie eine datenschutzkonforme Nutzung von ChatGPT aussehen kann, zeigt das Beispiel der Hochschule für angewandte Wissenschaft und Kunst in Hildesheim, Holzminden und Göttingen (HAWK), die eine Schnittstelle zu ChatGPT entworfen hat, die datenschutzkonform arbeitet.
Angeklickt
Unsere Beratungsangebote im ZfW zum Thema "Künstliche Intelligenz in Studium und Lehre"

Unser Veranstaltungstipp: Konferenz Learning AID | Learning Analytics, Artificial Intelligence & Data Mining in der Hochschulbildung

Mehr zu KI:edu.nrw

Bildnachweis:
Beitragsbild: pexels | Matheus Bertelli
Deckblatt Gutachten: ZfW

Neuigkeiten aus dem ZfW per E-Mail erhalten

Kathrin Braungardt
Kathrin Braungardt
Kathrin Braungardt ist Mitarbeiterin im Bereich eLearning des Zentrums für Wissenschaftsdidaktik und beschäftigt sich u. a. mit den Themen Open Educational Resources (OER), der Lernplattform Moodle, ePortfolios, kollaborativen Tools, Zoom, und Fragen rund um das Urheberrecht beim Einsatz digitaler Elemente in der Lehre. Sie berät grundlegend zum Thema eLearning an der RUB, ist an dem Studienmodul eTutoring beteiligt und betreut die Plattform OpenRUB für offene Lehr- und Lernmaterialien.

Archiv

Ältere Beiträge rund um das Thema E-Learning finden Sie im Net[t]working-Blog.
Logo des eLearning-Blogs der RUB.

RSS-Feed