ChatGPT ist derzeit in aller Munde. Der KI-gestützte Chatbot zeigt anschaulich, was im Bereich des «Large Language Modelling» möglich ist. Und glaubt man Expertinnen und Experten, ist das erst der Anfang. Was heisst das für die Leistungskontrollen an der Rechtswissenschaftlichen Fakultät? Es gibt verschiedene Arten, um die Erreichung von Lernzielen zu überprüfen – insbesondere mündliche und schriftliche Prüfungen, Referate und schriftliche Arbeiten. Zentral betroffen von ChatGPT sind Letztere – sie werden unter nicht kontrollierten Bedingungen zuhause verfasst. Würden sie teils oder ganz von einer KI-Ressource erstellt, gäbe es ein Problem bei der Zuordnung der Leistung. Das führt zur Grundfrage: Welche Kompetenzen müssen bei schriftlichen Arbeiten unter Beweis gestellt werden und was wird überprüft? Eine erste Antwort könnte wie folgt lauten: Es geht darum, selbstständig einen grammatikalisch fehlerfreien, verständlichen, logisch aufgebauten und inhaltlich korrekten Text zu verfassen, um damit eine Antwort auf eine oder mehrere Forschungsfragen zu geben.
Dies zu erreichen, setzt – ein weiteres Lernziel – eine vorausgehende intensive Auseinandersetzung mit der Materie voraus. Zwar kann ChatGPT fehlerfrei formulieren und gibt teils erstaunlich gute Antworten. Gradmesser für die Qualität einer wissenschaftlichen Arbeit dürfte aber bleiben, wie gut und nachvollziehbar die Aussagen mit Quellennachweisen abgestützt sind und wie «fundiert» letztlich die ganze Beweisführung dadurch ist. Mit der pauschalen Angabe von Referenzen in einem Literaturverzeichnis ist es eben nicht getan, und es setzt zwangsläufig eine Auseinandersetzung mit der Materie und somit den Quellen voraus. Rückblickend auf mein eigenes ChatGPT-freies Studium muss ich sagen: Bliebe uns diese Auseinandersetzung erspart, wäre es ziemlich blutleer und uninteressant gewesen.