Künstliche Intelligenz in Studium & Lehre
Unsere Fokusthemen
Alles zur Einführung von GPT@RUB
Unsere Aktivitäten rund um KI in Studium und Lehre
Rechtsgutachten zu generativer KI im Hochschulkontext
Klarheit zu didaktischen und rechtlichen Fragestellungen bringt nun unser jüngst veröffentlichtes Rechtsgutachten zu generativer KI im Hochschulkontext. Das Gutachten wurde vom Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen in Auftrag gegeben und im Rahmen des von uns koordinierten Projekts KI:edu.nrw erstellt. Es handelt sich um die erste ausführliche rechtliche Bewertung der Thematik.
Gutachten zum Datenschutzrahmen für die Lerndatenanalyse
Ein kritischer Erfolgsfaktor für die Umsetzung von Learning Analytics an Hochschulen ist ein reflektierter und korrekter Umgang mit Datenschutzfragen und die Einhaltung rechtlicher Vorgaben. Die Erstellung des Gutachtens wurde gefördert vom Land Nordrhein-Westfalen im Rahmen unseres Projekts KI:edu.nrw. Die Federführung hatte das Datenschutzteam der Ruhr-Universität Bochum und des Projekts, Dr. Kai-Uwe Loser und Christopher Lentzsch, die die umfassende rechtliche Bewertung durch die Datenrecht Beratungsgesellschaft koordinierten.
Tools wie ChatGPT unterstützen beim Verfassen, Analysieren, Strukturieren oder Zusammenfassen von Texten, erzeugen Programmiercode, prüfen Rechtschreibung und Grammatik, übersetzen Texte in andere Sprachen, erzeugen Bildmaterial und können bei kreativen Aufgaben und bei der Ideenfindung helfen. Die Chatverläufe können vorgehalten oder auch exportiert werden.
Mit GPT@RUB stellt die RUB nun allen Studierenden, Lehrenden und Bediensteten der RUB eine datenschutzfreundliche Möglichkeit zur Verfügung, ChatGPT und künftig auch weitere Sprachmodelle kostenfrei zu nutzen. Denn: wenn zum Beispiel Studierende den Umgang mit den Tools im Studium lernen sollen, brauchen sie einen verlässlichen Zugang.
Generative Technologien lassen sich in Lehre, Studium, Forschung und Verwaltung vielfältig und sinnvoll einsetzen. Allerdings stellen sich auch viele Fragen im Zusammenhang mit dem Einsatz: Was können Hochschulangehörige mit GPT@RUB machen? Was ist prüfungsrechtlich erlaubt? Was nicht?
Das ZfW begleitet die Einführung von GPT@RUB mit einer Vielzahl an Informations- und Schulungsangeboten und bietet außerdem bei Fragen individuelle Beratung an.
FAQ: Generative Künstliche Intelligenz an der RUB
Letzte Aktualisierung (last update): 09.04.2024
Grundlagenfragen
Einige Anbieter für Plagiatserkennungssoftware werben damit, dass ihre Programme KI-generierten Text erkennen können. Erfahrungsberichte und eine Studie zeigen, dass das nur unzureichend gelingt. Zudem wird als Ergebnis der Analyse zwar eine Wahrscheinlichkeit angegeben (zum Beispiel: „Dieser Text wurde mit einer Wahrscheinlichkeit von XX% KI-unterstützt erstellt“), es besteht dann aber immer noch eine Nachweispflicht auf Seiten der Lehrenden. In einem Gerichtsurteil der TU München über einen Täuschungsversuch bei einem Essay im Rahmen eines Zulassungsverfahrens wurde die Analyse durch eine Software nicht als ausreichende Begründung anerkannt. Stattdessen wurde jedoch die Erfahrung der bewertenden Professoren, die durch den Vergleich mit den Texten anderer Studierender auf Unregelmäßigkeiten hinwiesen, als Begründung akzeptiert. Software-Analysen können darüber hinaus den Effekt haben, Misstrauen zwischen Lehrenden und Studierenden zu schüren: Selbst durch geringe Prozentzahlen in der Wahrscheinlichkeit kann suggeriert werden, dass prinzipiell die Möglichkeit besteht, der Text könne von einer KI generiert sein, und die Beurteilung der Lehrenden könnte dadurch beeinflusst werden. Studierende äußern entsprechend die Sorge, ihre selbstgeschriebenen Texte könnten fälschlicherweise als KI-generiert eingestuft werden und fürchten unberechtigte negative Konsequenzen.
Aber auch jenseits von Fragen der Umsetzbarkeit und Genauigkeit erscheint es perspektivisch nicht sinnvoll, Software einzusetzen, um KI-generierten Text aufzudecken: Wenn textgenerierende KI-Anwendungen produktiv genutzt und bald auch in gängige Textverarbeitungsprogramme integriert werden – wie es zum Teil bereits der Fall ist – dann kann sie Teil der alltäglichen Textproduktion werden, sodass hybride Texte entstehen und die Frage, ob der Text von einem Menschen oder einer KI stammt, (bei angemessener Transparenz und in angemessenem Kontext) nicht mehr kritisch zu bewerten ist.
Zum Thema Plagiate und Plagiatsprävention finden Sie hier weitere Informationen.
Didaktische Fragen (mit rechtlichem Bezug)
Ein vollständiges Verbot generativer KI erscheint im Allgemeinen nicht umsetzbar und auch nicht sinnvoll, wenn KI-Anwendungen Teil des professionellen Handelns in Wissenschaft und anderen Berufsfeldern werden sollten. Entsprechend sollte auch während des Studiums ein reflektierter Umgang mit solchen Tools thematisiert werden.
Das bedeutet aber nicht, dass es nicht Situationen und Kontexte geben kann, in denen die Nutzung untersagt wird. Beides schließt die Nutzung oder das Verbot von KI-Tools für das Verfassen von Hausarbeiten, Abschlussarbeiten oder anderen vergleichbaren, schriftlichen Prüfungsformaten ein. Bei der Entscheidung müssen sich Lehrende überlegen, was das Lernziel der Veranstaltung ist und wie dieses – mit oder ohne KI-Anwendungen – erreicht werden kann, und ob zum Beispiel der reflektierte Einsatz oder die Bewertung KI-erzeugter Texte zu den Lernzielen der Veranstaltung gehört. Ist die Nutzung von KI-Anwendungen für bestimmte Aufgaben untersagt, sollte dies eindeutig, etwa in den Hinweisen für die Erstellung der Arbeit transparent gemacht werden – so, wie dies auch für andere erlaubte oder nicht erlaubte Hilfsmittel üblich ist. Zwischen den sonstigen Hilfsmitteln und generativer KI besteht in formaler Hinsicht kein Unterschied.
Da das Erkennen KI-generierter Texte in Zukunft nur schwer möglich sein wird (siehe: „Kann man KI-generierte Texte erkennen?“), sollten mit Blick auf Prävention wissenschaftlichen Fehlverhaltens die Maßnahmen genutzt werden, die auch vor generativer KI hierfür empfohlen wurden. Dazu zählen Transparenz hinsichtlich der Zulässigkeit von Hilfsmitteln, das Vermitteln von Werten guter wissenschaftlicher Praxis und akademischer Integrität sowie Übungsmöglichkeiten, bei denen Studierende lernen können, wie der produktive Einsatz solcher Tools aussehen kann und wie sie die Nutzung kennzeichnen sollten.
Für die sinnvolle Integration von KI-Anwendungen sollten sich Lehrende zunächst die Frage stellen, was die Lernziele ihrer Veranstaltung sind. Davon ausgehend können sie überlegen, ob KI-Anwendungen sinnvoll zum Einsatz kommen und vielleicht sogar selbst Lerngegenstand sein können. Hilfreich kann eine Reflexion in Form einer Gegenüberstellung sein: Was lernt ein*e Studierende*r, wenn sie ohne Hilfsmittel die Aufgabe löst? Was lernt der*die Studierende bzw. wie verändern sich die Lernziele, wenn Studierende eine KI-Anwendung zur Unterstützung nutzen? Studierende können Lehrende auch dazu anregen, KI-Anwendungen in einer Lehrveranstaltung zu thematisieren und diese gemeinsam auszuprobieren.
In jedem Fall sollte für den*die Studierende transparent sein, warum KI-Anwendungen in der Lehrveranstaltung oder der zugehörigen Prüfung gegebenenfalls erlaubt oder nicht erlaubt sind. Zudem ist es wichtig, Regeln aufzustellen, die durchaus situativ und kontextgebunden sein können (etwa: In dieser Sitzung verzichten wir auf Hilfsmittel, weil…; oder: Wenn Sie generative KI für diese Aufgabe nutzen, kennzeichnen Sie es bitte auf diese Weise: …).
Da die Technologie für alle Beteiligten neu ist, müssen Regeln – wie beispielsweise Kennzeichnungspflichten – noch ausgehandelt werden. Dies ist aber auch eine Chance für Lehrende und Studierende, in den Austausch zu kommen und sich über die Anforderungen und Erwartungen in einer Lehrveranstaltung zu verständigen. Es empfiehlt sich, dass sich Fakultäten auf einheitliche Regeln für alle Studiengänge der Fakultät oder auch studiengangsbezogen verständigen. Das Zentrum für Wissenschaftsdidaktik berät Lehrende gern zu Fragen bezüglich der didaktischen Gestaltung von Lehrveranstaltungen und das Dezernat 1 zu der Festlegung von Regeln.
Rechtliche Fragen (mit didaktischem Bezug)
Für die RUB gehen wir davon aus, dass prüfungsrechtliche Vorschriften mit Blick auf generative KI nicht oder nicht umfangreich angepasst werden müssen. Eigenständigkeitserklärungen sehen in der Regel schon heute vor, dass alle Hilfsmittel anzugeben sind. Dies gilt auch für generative KI. Empfehlenswert ist allerdings eine entsprechende Präzisierung in den Hinweisen, die Studierende zu den Prüfungen über erlaubte und unerlaubte Hilfsmittel erhalten.
Darüber hinaus muss vor dem Hintergrund der Lernziele in den einzelnen Lehrveranstaltungen entschieden werden, ob und in welcher Weise der Einsatz generativer KI zulässig ist. Sofern dies für die Prüfungen relevant ist, muss den Studierenden die Regelung zu Beginn der Veranstaltung mit den anderen Informationen zur Prüfung mitgeteilt werden. Sie ist dann auch für die Lehrenden bindend.
Falls Lehrende ergänzende, mündliche Prüfungen zu schriftlichen Aufgaben planen, muss die Prüfungsordnung dies zulassen und dies entsprechend in der Modulbeschreibung ausgewiesen werden.
Hier gilt die klassische Regelung für Täuschungen: „Versucht die Kandidatin oder der Kandidat das Ergebnis einer Prüfungsleistung oder Studienleistung durch Täuschung oder Benutzung nicht zugelassener Hilfsmittel zu beeinflussen, gilt die betreffende Prüfungsleistung oder Studienleistung als mit „nicht ausreichend" (5,0) bewertet. Die Feststellung wird von der jeweiligen Prüferin oder von dem jeweiligen Prüfer oder von der oder dem Aufsichtführenden aktenkundig gemacht. Die Bewertung erfolgt durch den Prüfungsausschuss. Im Falle eines mehrfachen oder sonstigen schwerwiegenden Täuschungsversuches kann die Kandidatin bzw. der Kandidat nach zuvor erfolgter Anhörung von der Erbringung weiterer Prüfungsleistungen ausgeschlossen und exmatrikuliert werden.
Konkret bedeutet dies, dass Sie als Prüfer*in entscheiden müssen, ob der*die Studierende KI als nicht zulässiges Hilfsmittel genutzt hat bzw. die Nutzung nicht kenntlich gemacht hat. Dies ist abhängig von den Hilfsmitteln, die Sie als zulässig für diese Prüfung ausgewiesen haben. Die formale Entscheidung, ob ein Täuschungsversuch vorliegt, trifft der Prüfungsausschuss.
Prüfungsleistungen, die über stark vorstrukturierte Formen wie z. B. Multiple Choice-Klausuren hinausgehen (also z. B. Abschlussarbeiten), sind urheberrechtlich geschützt. Werden die als Prompt eingegebenen Daten – wie im Fall von ChatGPT – gespeichert und weiterverwendet, ist die Eingabe einer Prüfungsleistung eine nicht zulässige Vervielfältigung und deshalb eine Urheberrechtsverletzung.
Aus prüfungsrechtlicher Perspektive darf darüber hinaus eine Bewertung nur durch die Prüfer*innen vorgenommen werden, nicht durch eine Software. Es ist deswegen aus prüfungsrechtlicher Sicht zwar möglich, KI-Anwendungen als Hilfsmittel im Bewertungsprozess zu nutzen. Das Ergebnis muss aber kritisch geprüft werden und auch die Festlegung der Note kann ausschließlich durch den für die Bewertung zuständigen Menschen erfolgen.
Unterstützung
An der RUB erhalten Sie sowohl Unterstützung bei didaktischen als auch bei prüfungsrechtlichen Fragen.
Viele der Fragen, die sich durch KI-Anwendungen stellen, berühren didaktische Grundlagen, die auch vor der Veröffentlichung von ChatGPT schon relevant waren, zum Beispiel: Wie können Studierende das wissenschaftliche Schreiben lernen? Wie verhindere ich Plagiate? Wie gestalte ich ein Seminar, um die intendierten Lernziele zu erreichen? Zu diesen und ähnlichen Fragen berät Lehrende gerne das Zentrum für Wissenschaftsdidaktik.
Studierende laden wir herzlich ein, sich vom Schreibzentrum der RUB beraten zu lassen.
Andere Fragen betreffen rechtliche Aspekte, also zum Beispiel: Wie kann ich den Einsatz von generativer KI in meiner Veranstaltung rechtssicher regeln? Wie muss ich die Änderung einer Prüfungsform prüfungsrechtlich absichern? Zu derartigen Fragen berät Sie die Abteilung 1 im Dezernat 1 der Verwaltung.
Kommen Sie mit Ihren Anliegen gerne auf uns zu!
English FAQ on Generative AI
What is generative AI?
Generative AI refers to technical systems that are able to generate content – e.g. texts, images, music or videos. The best-known example at present is ChatGPT: in response to an input (a so-called ‘prompt’), suitable text segments are generated in natural (human-like) language. Artificial Intelligence (AI) is the established term for models and systems developed with the help of various machine learning methods. These models are ‘trained’ using large amounts of data to generate content based on probabilities.
Are AI-generated texts factually correct?
Large Language Models – like ChatGPT – are primarily probability distributions: They calculate which word is likely to follow another in a given context. As a result, the generated output is not always factually correct. For very general and well-known facts, the generated answers are usually valid, but once it becomes more specific, false content is generated more frequently (so-called ‘data hallucinations’). False answers, however, are presented in the same linguistically plausible form, making a distinction not possible at first glance and a critical examination is necessary.
Is it possible to detect AI-generated texts – for example with the help of special software?
Some providers of plagiarism detection software advertise that their programmes can detect AI-generated texts. User experience and a study show that this is only insufficiently successful. Additionally, the results of the analysis are presented as a probability (e.g.: “There is a probability of XX % that this text was AI-generated”), so teachers would still be obligated to prove the use of AI, which is difficult. In a court ruling by the Technical University of Munich regarding an alleged cheating attempt concerning an essay written for an admission procedure, the software analysis was not recognised as sufficient justification. However, the experience of the evaluating professors, who pointed out irregularities by comparing the texts with those of other students, was accepted as justification. AI detection analyses can also have the effect of fuelling mistrust between teachers and students: Even low percentages in the probability analysis may suggest the possibility that the text could have been generated by an AI, thus possibly influencing the teacher’s assessment. Students express concern that the text they wrote themselves could be wrongly classified as AI-generated and fear unwarranted negative consequences.
Even beyond questions of feasibility and accuracy, it does not seem to make sense perspectively to use software to detect AI-generated texts: If text-generating AI applications are used sensibly and if they soon also become integrated into common text processing software – which is already happening – it might become part of everyday text production, paving the way for hybrid texts and making the question of whether the text originates from a human or an AI irrelevant (given appropriate transparency and the right context).
Should the use of ChatGPT and other such tools be prohibited?
A complete ban on generative AI does not seem feasible in general and does not make sense at all if AI applications will become part of a professional conduct in science and other fields. Accordingly, students should be guided in learning how to use it and how to work with it productively.
This does not mean, however, that there cannot be situations and contexts in which the use is prohibited. Both include the use or prohibition of AI tools for writing assignments, theses or other comparable written examination formats. When deciding whether to allow the use of these tools or not, teachers need to consider the intended learning outcomes of their courses and how these can be achieved – with or without AI applications – and whether, for example, reflecting the use or critically revising AI-generated texts is part of the intended learning outcomes. If the use of AI applications for certain assignments is prohibited, it should be made transparent, e.g. in the instructions for the preparation of the assignment or similar – just like the permission or prohibition for other aids in their respective subjects is issued. There is no formal difference between other tools and generative AI.
Since it will be difficult to recognise AI-generated texts in the future (cf. “Is it possible to detect AI- generated texts?”), the measures that were recommended for preventing academic misconduct in the past can be used in connection to AI as well. These include transparency regarding the permissibility of aids and tools, teaching values of good scientific practice and academic integrity, as well as practical opportunities for students to learn what the productive use of such tools can look like and how the use should be indicated.
How can tools like ChatGPT be integrated into courses?
For a sensible integration of AI applications, teachers need to set learning outcomes for their courses. Based on this, they can consider whether AI applications can be used in a reasonable way (or perhaps even be a learning object themselves). A reflection in the form of a comparison can be helpful: What does a student learn when they solve the assignment without tools? What do they learn and how do intended learning outcomes change when they use an AI application as support? Students can encourage teachers to address the use of generative AI tools in their courses and try them out together.
In any case, it should be made transparent in class why generative AI tools are allowed or not in a course or for an exam. In addition, it is important to establish rules, even if they may change for certain situations and contexts (for example: In this session we will work without assistive technology because...; or: If you use generative AI for this task, please mark it this way: ...).
Since the technology is new for all parties involved, rules – such as labelling requirements – still need to be negotiated. However, this is also an opportunity for students and teachers to enter a dialogue and to discuss the requirements and expectations in a course. It is recommended that faculties agree on standardized regulations for all degree programs in the faculty or for specific degree programs. The Centre for Teaching and Learning (ZfW) is happy to advise lecturers on questions regarding the didactic design of courses and Department 1 on the establishment of regulations.
Does it still make sense to hand out writing assignments?
Yes, it does! Writing has multiple functions (not only) in academia. Some of them are more text-centered (e.g. researchers make their results available via texts and use them to communicate in research discourse), some of them more process-oriented (e.g. when writing is used as a thinking, structuring or learning aid). Through reading and writing texts, people do not only learn about content, but also about thought and argumentation structures of their subject. It is important to make these benefits – and everything else that happens during writing – visible to enable writers to make decisions about whether they prefer writing on their own or using AI applications to assist them. The RUB’s Writing Centre offers support on issues related to writing in studying and teaching.
Is it a good idea to use generative AI tools?
This is a question that has no universal answer. Whether the use of generative AI makes sense depends on many factors that need to be weighed up against each other. AI applications can be used to promote the learning process, but they can also prevent learning from taking place if they are used to outsource certain cognitive tasks. It helps to ask some questions on why you want to use generative AI: Because it saves time? Because the generated content is better than what you could write yourself? Because it helps you to delve deeper into your own text and the content of a topic? You should get to the bottom of these questions before deciding for or against the use of AI applications. The RUB Writing Centre is happy to advise all of RUB’s writers when they have difficulties regarding their writing process.
Is the use of generative AI permitted at RUB?
Yes: Generative AI tools can be used at RUB in research, teaching and studies. However, their use can be restricted in certain contexts (e.g. written examinations) or linked to labelling requirements. In this respect, generative AI tools are no different from other tools. This means that the rules and requirements for the use of AI tools must be clarified in the instructions for the preparation of a term paper (together with other permissible or non-permissible aids). Additionally, there needs to be an explanation on how students must clarify the use in the declaration of autonomy, e.g. “I used ChatGPT exclusively for generating the outline of my term paper.” or “I used ChatGPT for revising my term paper.” In this respect, too, the use of AI tools is no different from other tools.
Who is the author of an AI-generated text?
Generally, neither the developers who trained the model nor the model itself has authorship of AI-generated content. However, authorship can lie with the users if they continue to work with the generated content and it thus becomes a product of the users’ own intellectual work. However, it is a case-by-case decision whether authorship can be attributed or not.
Are there labelling obligations for AI-generated content?
One of the basic values in academia is that processes of knowledge-making should be as transparent as possible. However, conventions for labelling AI-generated content have not yet been developed. From a legal point of view, two aspects in particular must be taken into account for examinations. Firstly, every examination regulation stipulates for written examinations that the permitted aids are announced at the beginning of the semester in which the module takes place or together with the assignment. If the use of an AI application is permitted in this context, the student confirms with the submission of the written paper not only that the work was written independently, but also that no sources and aids (in this case, including the use of AI tools) other than those specified were used and that citations were marked. Secondly: If regulations about permitted/non-permitted aids, issued to students with topics or at the beginning of a semester, state an obligation for labelling, it needs to be complied with.
Do new regulations have to be made and existing ones changed?
Concerning RUB, we assume that examination regulations with regard to generative AI do not have to be adapted extensively. As a rule, declarations of independence already stipulate that all auxiliary materials must be stated. This also applies to generative AI. However, it would be advisable to specify this in the information that students receive about permitted and non-permitted aids in examinations. Furthermore, it must be decided individually regarding the intended learning outcomes in courses whether and in what way the use of generative AI is permissible. If it is relevant for the examinations, the regulation must be communicated to the students at the beginning of the course together with other information on the examination. It is then also binding for the teachers.
If lecturers are planning oral examinations in addition to written assignments, examination regulations must permit this and it must be indicated accordingly in the module description.
Can people be obliged to use tools such as ChatGPT?
If the use of AI tools is to be mandatory, the terms of use of the respective software must be observed. In particular, it depends on how the user's data is handled. This can vary greatly depending on which software or platform is used. If no data protection-compliant solution can be provided, use must be viewed critically and may only be voluntary.
As a teacher, am I allowed to use ChatGPT to grade exams?
Examinations that go beyond highly pre-structured forms such as multiple choice examinations (e.g. theses) are protected by copyright. If the data entered as a prompt – as in the case of ChatGPT – is saved and reused, entering the text of a written exam is an impermissible reproduction and therefore a copyright infringement.
From the perspective of examination law, assessment may only be carried out by the examiners, not by software. Therefore, from the perspective of examination law, it is possible to use AI applications as an aid in the assessment process. However, the result must be critically examined and the grade can only be determined by the person responsible for the assessment.
What happens if there is a case where it is suspected that generative AI was used illegitimately?
The standard regulation for cheating applies here: If the candidate attempts to influence the result of an examination or course work by cheating or using unauthorised aids, the examination or course work in question is assessed as “insufficient” (5.0). The respective examiner or the invigilator shall make a record of the assessment. The examination board will review the case. In case of multiple or other serious attempts at cheating, the candidate can be excluded from taking further examinations and exmatriculated after a prior hearing.
In concrete terms, this means that the examiner must decide whether the student has used AI tools as an inadmissible aid or has not made the use clear. This depends on the aids that have been designated as permissible for this examination. The formal decision as to whether an attempt at cheating has been conducted is made by the examination board.
Help, I feel overwhelmed. Where can I get support on the topic of ChatGPT & Co?
At RUB you will receive support concerning both didactic and examination law issues. Many of the questions regarding teaching & learning that AI applications raise touch on basics that were relevant before the release of ChatGPT, as well, e.g.: How can students learn academic writing? How do I prevent plagiarism? How do I design my seminar to achieve the intended learning outcomes? The Zentrum für Wissenschaftsdidaktik (Centre for Teaching and Learning) will be happy to help you on these and similar questions.
We happily invite students to seek advice from the RUB Writing Centre.
Other questions concern legal aspects, for example: How can I regulate the use of generative AI in my course in a legally secure way? How do I have to secure the change of an examination form in terms of examination law? Section 1 in Department 1 of the Administration will advise you on such questions.
Please feel free to contact us with your concerns!
Unsere nächsten Veranstaltungen zum Thema KI
November 2024
Es war einmal…Storytelling mit KI & OER für Escape Rooms und virtuelle Touren
Moderation
-
Sabine Römer & Sarah Görlich
-
E-Mail
zfw-elearning@rub.de
In diesem Workshop erhalten Sie einen Einblick in die kreative Nutzung von KI-Tools wie Midjourney und ChatGPT und entwickeln zusammen mit uns Geschichten für Escape Room-Szenarien, interaktive Touren und weitere Lernmaterialien. Wir zeigen Ihnen Wege, wie Sie schnell und möglichst unkompliziert Ideen für Lern-Touren und -Spiele generieren und mit geeigneten Tools umsetzen können. Ein besonderer Fokus liegt drauf, wie Sie mit Hilfe von KI-Tools OER-fähige Materialien erstellen können.
Diese Veranstaltung findet im Rahmen des Open Science Novembers statt.
KI:Update NRW – organisiert von KI:edu.nrw
Moderation
-
KI:edu.nrw
-
Webseite
https://learning-aid.blogs.ruhr-uni-bochum.de/
Wo?
- Online
Wie gehen die Hochschulen in Nordrhein-Westfalen mit generativer Künstlicher Intelligenz um und welche Möglichkeiten werden Lehrenden sowie Studierenden geboten? Welche landesweiten Entwicklungen gibt es zu dem Thema? Seit der Einführung von ChatGPT im November 2022 stehen die Hochschulen vor neuen Herausforderungen und Fragen, die von den Hochschulen Nordrhein-Westfalens bisweilen individuell gelöst werden. Das Projekt KI:edu.nrw möchte den Austausch hierüber unterstützen sowie über landesweite Entwicklungen informieren und organisiert ab sofort ein monatliches „KI-Update NRW“.
Jeden letzten Montag im Monat um 11 Uhr organisiert KI:edu.nrw für alle Interessierten ein einstündiges digitales Forum zu den neuesten Entwicklungen rund um generative Künstliche Intelligenz in den Hochschulen in NRW. Das Format soll die Möglichkeit geben, sich regelmäßig, niedrigschwellig zu informieren und in den Austausch zu kommen.
1, 2, 3…Action! Videos für die Lehre produzieren mit KI & OER
Moderation
-
Sabine Römer & Sarah Görlich
-
E-Mail
zfw-elearning@rub.de
In dieser Einführung zeigen wir Ihnen, wie mithilfe von PowerPoint und verschiedener Online-Tools kreative Lehr/-Erklärvideos als Animationen (z.B. im Comic-, Whiteboard- oder “Knetmännchen”-Stil oder in Legetechnik) erstellt werden können. Darüber hinaus beschäftigen wir uns mit dem Einsatz von KI für Lehrvideos, insbesondere mit dem Programm Vyond Go sowie mit Whisper AI und Adobe Premiere zur automatisierten Untertitelung von Videos. Erfahren Sie außerdem, wie Sie freie Materialien (Open Educational Resources) für die Videoproduktion nutzen können.
Diese Veranstaltung findet im Rahmen des Open Science Novembers statt.
Lehramtsstudierende aufgepasst: Wir präsentieren euch KI-Tools für den Schuleinsatz
Moderation
-
eTeam Digitalisierung
-
E-Mail
zfw-eteamdigi@rub.de
Wo?
- Online
KI-Tools spielen inzwischen in fast allen Lebensbereichen eine Rolle, darunter natürlich auch in der Schule. Der Workshop bietet euch einen Überblick über verschiedene Tools für den Einsatz von KI in der Schule. Es werden verschiedene KI-Tools vorgestellt, die Lehrkräfte bei der Unterrichtsplanung, -durchführung und -bewertung unterstützen können und konkrete Anregungen gegeben, inwiefern diese sie bei vielfältigen Aufgaben unterstützen können. Außerdem diskutieren wir mögliche Einsatzszenarien, wie man KI-Tools aktiv mit Schüler*innen nutzen kann.
Sarah und Ben vom eTeam Digitalisierung sowie Sabine Römer aus dem Bereich eLearning des ZfW freuen sich auf eure Anmeldungen!
Vorab noch Fragen? Dann stellt sie uns gerne unter zfw-eteamdigi@rub.de.
Dezember 2024
Recht & KI: Was gilt und was sind Folgen für die Praxis?
Moderation
-
Kathrin Braungardt
Inhalte, die mit Hilfe von KI-Tools erzeugt werden, stellen neue rechtliche Herausforderungen dar. In der Veranstaltung wird auf rechtlichen Voraussetzungen bzw. relevante rechtliche Fragen bei der Nutzung von Inhalten, die mittels KI-Tools erzeugt werden, eingegangen. Anhand aktueller Beispiele werden die rechtlichen Fragestellungen erläutert und Hinweise und Tipps für die praktische Anwendung gegeben.
Referate mal anders gestalten mit kreativen Tools und KI
Moderation
-
eTeam Digitalisierung
-
E-Mail
zfw-eteamdigi@rub.de
Wo?
- Online
Habt ihr keine Lust mehr auf langweilige Referate im gleichen Stile? Wünscht ihr euch variantenreichere Präsentationen und ansprechendere Vorträge? Dann seid ihr in diesem Workshop genau richtig! Wir stellen euch verschiedene Möglichkeiten vor, wie ihr eure Referate kreativ und spannend gestaltet. Dabei gehen wir mit euch den Weg durch das Referat und stellen euch verschiedene Präsentationstools, interaktive Elemente und neue Präsentationsformen vor. Außerdem zeigen wir euch verschiedene KI-Tools , die euch einerseits bei der Erstellung eurer Präsentation unterstützen können oder ihr den letzten Schliff geben.
Die Veranstaltung findet ab vier angemeldeten Personen statt.
Sarah und Katharina vom eTeam Digitalisierung freuen sich über eure Anmeldungen!
Vorab noch Fragen? Dann stellt sie uns gerne unter zfw-eteamdigi@rub.de.
Bilder und Videos mit Hilfe von KI erstellen: Ein Blick auf Tools und ihre Möglichkeiten (online)
Moderation
-
Kathrin Braungardt
Zahlreiche Tools ermöglichen es, mit Hilfe von KI-Technologie Bilder und Videos zu erzeugen. Anstelle diese selbst zu machen, könnte es zur Alltagspraxis werden, Bilder und Videos erstellen zu lassen. Die Veranstaltung gibt einen Überblick über verschiedene Tools, Techniken und Werkzeuge, und demonstriert, wie diese arbeiten, wo sie nützlich sein können und wo ggf. auch offene Fragen, Probleme und Fallstricke liegen.
Januar 2025
HD 18 Gute Prüfungsfragen: Didaktische Potenziale und Grenzen verschiedener Aufgabenformate
Moderation
-
ZfW
-
E-Mail
zfw@rub.de -
Webseite
Fortbildungsportal
Prüfungen mit geschlossenen Aufgabenformaten (z.B. Multiple-Choice-Aufgaben) werden an Hochschulen immer beliebter, da sich ihre objektive und ökonomische Auswertung nicht nur in großen Studienkohorten als gewinnbringend erweist. Allerdings ist die Aufgabenkonstruktion ein komplexer, fehleranfälliger Prozess und zeitlich aufwendig.
In dem Workshop beschäftigen wir uns mit Herausforderungen und Möglichkeiten bei der Konstruktion offener und geschlossener Aufgaben in verschiedenen Formaten. Erarbeitet werden Grundlagen der Prüfungsdidaktik mit einem Fokus auf die didaktischen Potenziale und Fehlerquellen bei der Aufgabenkonstruktion. Berücksichtigt werden auch Ansätze zur Nutzung generativer künstlicher Intelligenz als Hilfsmittel zur effizienteren Aufgabenkonstruktion und Variantenbildung. Sie werden selbst Aufgaben gestalten und lernen Konstruktionsfehler vor und nach einer Prüfung zu erkennen und zu vermeiden. Zudem werden mögliche Ansätze einer sachgerechten Punktevergabe und Klausurbewertung mit offenen und geschlossenen Aufgabenformaten unter Berücksichtigung von Ratewahrscheinlichkeiten aufgezeigt.
Wichtig: Vorab ist eine selbstgestaltete Lernphase (Umfang ca. 2-3 Arbeitsstunden) mit digital bereitgestellten Materialien vorgesehen, deren Durchsicht Sie flexibel im Laufe einer Woche vor dem Workshop einteilen können.
Februar 2025
Selbstbestimmt entscheiden: GPT@RUB & Co. sinnvoll nutzen
Moderation
-
Nadine Lordick
-
Telefon
+49 (234) 32 28646 -
E-Mail
nadine.lordick@ruhr-uni-bochum.de
Wo?
- FNO 02/40
Mit GPT@RUB stellt die Uni einen datenschutzkonformen Zugang zu GPT-Sprachmodellen zur Verfügung. Um eine reflektierte Entscheidung darüber treffen zu können, wann, wie und wofür Sie bei Ihrem Schreibprozess auf GPT@RUB zurückgreifen wollen, ist es notwendig, sich nicht nur mit vielversprechenden Einsatzmöglichkeiten, sondern ebenso mit Grenzen und Risiken der Technologie auseinanderzusetzen. In diesem Workshop sollen Sie in die Lage versetzt werden, für sich selbst zu entscheiden, wann Sie ein generatives Sprachmodell in Ihrem Schreibprozess hinzuziehen wollen und wann Sie lieber darauf verzichten. Dafür werden einerseits Grundlagen der Technologie und Hinweise zu ihrer Nutzung thematisiert, andererseits schauen wir uns aber auch das (wissenschaftliche) Schreiben genauer an und überlegen, was man gewinnt oder verliert, je nachdem, ob man selbst einen Text verfasst – oder beim Schreiben auf ein Sprachmodell zurückgreift.
Der Workshop findet auf Deutsch statt. Bei weniger als 6 Anmeldung findet der Workshop nicht statt. Sie werden rechtzeitig darüber informiert.
HD 20 KInderleicht geprüft: Schriftliche Prüfungen in Zeiten generativer Technologien
Moderation
-
ZfW
-
E-Mail
zfw@rub.de -
Webseite
Fortbildungsportal
Das Lehren, Lernen und Prüfen an Universitäten verändert sich durch den Einsatz von Künstlicher Intelligenz (KI), genauer gesagt generativer Technologien. Auswirkungen beginnen schon bei den konzeptionellen Überlegungen: Was sollen die Studierenden lernen? Wie hat z.B. das akademische Schreiben diese Kompetenzen früher befördert und was ändert sich durch den Einsatz von textgenerierender KI? Wie lässt sich all das in neue Anforderungen an und Kriterien für Prüfungsleistungen übersetzen?
Gemeinsam erörtern wir, was sich in gängigen schriftlichen Prüfungsformen verändert. Dabei werfen wir einen Blick auf veränderte Kompetenzanforderungen und Lernziele. Darauf aufbauend erschließen wir uns neue Kriterien für die Beurteilung studentischer Prüfungsleistungen. Der Fokus liegt darauf, dass Sie sich den Transfer in Ihre Lehre und Prüfungen erarbeiten.
Wichtig: Bitte bringen Sie bestehendes Material zu Ihren Lehrveranstaltungen mit schriftlicher Hausarbeit mit.
Neues zu KI in der Hochschulbildung aus unserem Blog
Individueller Studienverlauf durch Künstliche Intelligenz
Learning AID: Was 2024 wichtig war und wie es 2025 weitergeht
GPT@RUB: ChatGPT-Zugang für Studierende und Beschäftigte
Work in Progress: Landesstrategie und Technikprojekte für Zugänge zu generativer KI an NRW-Hochschulen
„Big Tech“ in Irland: ein Besuch bei unseren Daten in den Großrechenzentren
Vom Symposium in Hagen zur Learning AID in Bochum
Lehren und Lernen mit KI: Taskforce „KI im Bildungswesen“ überreicht Empfehlungen an NRW-Landesregierung
NEU: Rechtsinformationsstelle beantwortet KI-Fragen für alle NRW-Hochschulen
NEU: KI-Update NRW – Das monatliche Online-Update zu generativer Künstlicher Intelligenz an Hochschulen in NRW
KI-Sprachmodelle an Hochschulen: auf dem Weg zu strukturellen Lösungen in NRW und an der RUB
KI-NEL-23: ORCA.NRW und das Zentrum für Wissenschaftsdidaktik blicken zurück auf ein kurzweiliges Projekt
FAQ zu generativer KI an der RUB aktualisiert
Recherche mit KI – ja, nein, unter Umständen
Von Studis für Studis: technische Hintergründe und praktische Anwendung von KI im Studium
KI-Schreibtools in Seminararbeiten: eine didaktische Perspektive
Das ZfW organisiert hochschulübergreifenden Austausch zur Bereitstellung von Generativen KIs
Neu im LEHRELADEN: Textgenerierende Technologien in der Lehre
FAQ zu generativer KI an der RUB veröffentlicht
SAVE THE DATE! Dritte Learning AID im September 2024 an der Ruhr-Universität Bochum
ZfW ist Mitglied in der Task-Force „Künstliche Intelligenz im Bildungswesen“
Weiterführende Informationen
Kontakt