Studie zeigt Asymmetrie zwischen Anerkennung und Verantwortung bei KI-generierten Texten
Ein neuer Beitrag der internationalen Zeitschrift «Nature Machine Intelligence» diskutiert ethisch-rechtliche Herausforderungen von Sprachmodellen wie ChatGPT. Mitverfasst hat ihn Monika Plozza von der Universität Luzern.
Forschende der Universität Oxford haben in Zusammenarbeit mit einem internationalen Forschungsteam einen Beitrag in Nature Machine Intelligence veröffentlicht, der sich mit den komplexen ethischen und rechtlichen Fragen rund um die Anerkennung und Verantwortung für Texte beschäftigt, die von sogenannten Sprachmodellen bzw. Large Language Models (LLMs) geschaffen werden – einer bestimmten Anwendung von Künstlicher Intelligenz (KI). Der Beitrag mit dem Titel 'Generative AI entails a credit-blame assymmetry' wurde von einem interdisziplinären Team aus den Bereichen Rechtswissenschaft, Bioethik, maschinelles Lernen und verwandten Gebieten verfasst und setzt sich mit den potenziellen Auswirkungen von LLMs in Bereichen wie Bildung, wissenschaftlichem Publizieren, geistigem Eigentum, Menschenrechten und der Verbreitung von Falsch- und Desinformation auseinander. Am Beitrag beteiligt war auch Monika Plozza, wissenschaftliche Assistentin und Doktorandin an der Universität Luzern, die den Bericht während ihres Forschungsaufenthalts an der Universität Oxford mitverfasst hat.
Ein zentrales Ergebnis der Studie ist, dass LLMs wie ChatGPT wichtige ethische, politische und rechtliche Fragen hinsichtlich der Anerkennung und Verantwortung für ihre Ergebnisse aufwerfen. Bisherige KI-Verantwortungsdebatten beschäftigen sich primär mit den schädlichen Folgen der Verwendung von KI, wie beispielsweise der Verbreitung von Misinformationen aufgrund der mangelnden Überprüfung der Richtigkeit von KI-generierten Texten. Der Beitrag zeigt demgegenüber auf, dass der Einsatz von LLMs sowohl positive als auch negative Folgen haben kann, jedoch unterschiedliche Standards bestehen, wie Anerkennung beziehungsweise Verantwortung in diesen Fällen zugeschrieben werden. Um diese Asymmetrie bei der Zuschreibung von Anerkennung und Verantwortung zu beseitigen, gibt der Beitrag einige Empfehlungen ab. Dazu gehört es, die Verwendung von LLMs bei der Erstellung von Texten transparent zu machen, Verantwortungslücken zu beseitigen und die Kriterien zur Definition der Autorenschaft zu verbessern.
Ein Bereich, in dem die Auswirkungen des Einsatzes von Sprachmodellen schnell geklärt werden muss, sind die Rechte an den generierten Texten, wie geistige Eigentumsrechte und Menschenrechte, bemerkt Ko-Autorin Monika Plozza: «Die bestehenden Regelwerke wurden für Menschen entwickelt und beziehen sich auf menschliche Arbeit und Kreativität. Deshalb braucht es Anpassungen in den bestehenden Regelwerken oder neue Modelle wie 'Contributorship', um mit dieser sich schnell entwickelnden Technologie umzugehen und gleichzeitig die Rechte von Urheberinnen und Urhebern sowie Nutzerinnen und Nutzern zu schützen.»
Porsdam Mann, Sebastian / Earp, Brian D. et al.: Generative AI entails a credit–blame asymmetry. Nature Machine Intelligence, Vol (2023) (Webansicht).
Newsmeldung der Universität Oxford (5. Mai 2023)