Die Integration Künstlicher Intelligenz ist kein Zukunftsszenario mehr, sondern gelebte Realität im akademischen Alltag. Doch anstatt diesen Wandel offen zu gestalten, agieren wir oft in einer Atmosphäre des Misstrauens, gefangen in einem Narrativ der Krise. Diese Haltung ist unproduktiv. Unrealistisch ist die Annahme, KI würde nicht genutzt; lähmend ist die Angst vor Kontrollverlust und Täuschung. Wir müssen diesen Kreislauf durchbrechen. Unsere Position ist daher nicht, blindes Vertrauen in eine Technologie zu fordern, sondern eine universitäre Kultur zu schaffen, die Vertrauen untereinander – zwischen Studierenden und Lehrenden – in den Mittelpunkt stellt; ein Vertrauen in unsere gemeinsame Fähigkeit, mit KI (umwelt)kritisch, transparent und verantwortungsvoll umzugehen. Es geht nicht darum, ob wir KI nutzen, sondern darum, ein gemeinsames Verständnis davon zu entwickeln, wie und vor allem warum.
Der erste und grundlegendste Schritt auf diesem Weg ist die Schaffung klarer und fairer Leitplanken. Studierende und Lehrende benötigen einen verlässlichen Orientierungsrahmen, der definiert, für welche Aufgaben der Einsatz von KI in welchem Umfang erlaubt ist und wie er transparent dokumentiert werden muss. Solche Regeln sind keine Fesseln, sondern die Voraussetzung für eine ehrliche Lehr-Lern-Beziehung und ermöglichen es Studierenden, KI mit gutem Gewissen als Werkzeug zu nutzen. Doch ein Vertrauensklima ist mehr als die Einhaltung von Vorschriften. Es stellt die unbequeme Frage, ob eine Kultur, die auf Überprüfung und Kontrolle setzt, überhaupt Vertrauen atmen kann. Wahres Vertrauen entsteht nicht durch die neueste Plagiatssoftware, sondern durch einen Dialog, der die Distanz zwischen Technik und Mensch verringert und den Fokus vom Misstrauen gegenüber der Maschine auf die Verantwortung des Menschen verlagert. Es befähigt uns, in Arbeitsgruppen offen zu kommunizieren, wofür KI genutzt wurde, und schafft so neue Perspektiven, anstatt den Prozess des Denkens auszulagern.
„Wahres Vertrauen entsteht nicht durch die neueste Plagiatssoftware, sondern durch einen Dialog, der die Distanz zwischen Technik und Mensch verringert und den Fokus vom Misstrauen gegenüber der Maschine auf die Verantwortung des Menschen verlagert.“
Die tiefgreifendste Ebene eines solchen Klimas des Vertrauens ist jedoch die Ermöglichung einer gemeinsamen, kritischen Auseinandersetzung. Ein Vertrauensvorschuss enttabuisiert die Nutzung von KI und schafft erst den Raum, die wirklich wichtigen Fragen zu stellen. Wir müssen einen Dekonstruktionsauftrag ernst nehmen und hinterfragen, warum KI so unreflektiert einen zentralen Platz in unserem Leben eingenommen hat. Wir müssen über Machtverhältnisse, Bias, Urheberrecht und Umweltkonsequenzen sprechen. Vor allem aber müssen wir den Dialog darüber führen, wann und warum Studierende zu KI greifen. Geschieht es aus einer Überforderung heraus, aus einem Mangel an Selbstvertrauen oder aus dem Wunsch, negative Gefühle bei der Bewältigung einer schweren Aufgabe zu vermeiden? Der Dichter Joseph Fasano fragt eine Person, die KI nutzte: „But what are you trying to be free of? The living? The miraculous task of it? Love is for the ones who love the work.“ Hier liegt der Kern: Eine Vertrauenskultur erlaubt uns, ohne Verurteilung über diese Motive zu sprechen und zu erkennen, dass der Austausch mit Lehrenden und Mitstudierenden oft der fruchtbarere Weg ist. Sie erinnert uns an die fundamentalen Prinzipien, die schon 1979 bei IBM formuliert wurden: „a computer can never be held accountable therefore a computer must never make a management decision“.
Letztlich ist die Schaffung einer Vertrauenskultur ein aktiver Prozess, der nicht die Technologie normalisiert, sondern unsere Verantwortung ihr gegenüber. Es geht nicht darum, dass KI die Lehre übernimmt, sondern darum, dass wir souverän bleiben. Wir appellieren daher an die Studierenden und Lehrenden der Ruhr-Universität Bochum und darüber hinaus: Machen wir den ehrlichen Austausch über KI zur Norm. Fragen wir uns und einander, was wir mit diesen Werkzeugen bezwecken (wollen). Fördern wir eine Kultur, in der die Dokumentation von KI-Nutzung kein Eingeständnis, sondern ein Zeichen wissenschaftlicher Redlichkeit ist. Nur wenn wir aufhören, einander zu misstrauen, können wir gemeinsam die kritische Kompetenz entwickeln, die wir brauchen, um die Chancen der KI zu nutzen, ohne ihre Risiken und ihre tiefgreifenden gesellschaftlichen, aber auch ökologischen Implikationen zu ignorieren. Schaffen wir einen Raum, in dem wir nicht die Technik verteufeln, sondern uns gegenseitig in unserer menschlichen Urteilskraft bestärken.