Viele Wissenschaftsverlage haben bislang keine oder unpräzise Richtlinien für den Umgang mit generativer KI
Datum: 10. September 2023
Autor: Erwin König
Kategorien: Studien

Die Fortschritte im Bereich der Künstlichen Intelligenz (KI) sind längst nicht mehr zu übersehen. In den letzten Jahren wurden zahlreiche KI-basierte Werkzeuge entwickelt, die heute von Millionen von Usern genutzt werden, um Inhalte in andere Sprachen zu übersetzen oder Zusammenfassungen von Texten zu erstellen. Auch die Wissenschaft nutzt zunehmend diese neuen Möglichkeiten. Besonders viele Schlagzeilen galten dem am 30. November 2022 veröffentlichten KI-basierten Chatbot ChatGPT des Unternehmens OpenAI. Für viele Fachleute war das Auftauchen dieser generativen KI in Form eines Chatbots wie ein neuer iPhone-Moment, eine neue Technologie-Revolution. Generative KI nutzt bekanntlich große Sprachmodelle, um einzigartige text- oder bildbasierte Antworten auf User-Aufforderungen zu generieren. ChatGPT und andere generative KI-Tools werden auch zunehmend im Wissenschaftsbereich genutzt, um automatisiert ein Abstract einer Arbeit zu verfassen oder um neue Medikamente und Materialien zu entdecken. Viele erwarten sogar eine regelrechte Revolution des bestehenden Wissenschaftssystems durch die Künstliche Intelligenz. Gleichzeitig sind vielen Fachleuten sehr schnell auch die potenziell negativen Folgen dieser sehr leistungsfähigen Tools bewusst geworden. Benötigt werden verbindliche Regelungen und Richtlinien zum Einsatz von generativer KI in Wissenschaft und Forschung. Nur so können wissenschaftliche Transparenz und ethische Standards bei der Nutzung von ChatGPT und anderen KI-Tools gewährleistet werden. Auch Wissenschaftsverlage können durch die Veröffentlichung von Richtlinien und Anleitungen für Autorinnen und Autoren dafür sorgen, dass generative KI transparent verwendet wird. In der nachfolgend vorgestellten Studie1 wurden jeweils 100 führende Verlage und Zeitschriften darauf untersucht, ob und welche Richtlinien sie im Umgang mit generativer KI bereits aufgestellt haben. Die erhaltenen Resultate zeigen, dass gerade bei vielen Verlagen noch entsprechende Richtlinien fehlen. Zudem unterscheiden sich die vorhandenen Richtlinien teilweise erheblich voneinander. Es benötigt also neben Anweisungen für den Umgang mit KI auch eine gewisse Standardisierung von Redaktionsrichtlinien.

...

Um den Artikel in voller Länge lesen zu können, benötigen Sie ein Abo. Jetzt Abo abschließen oder mit bestehendem Konto anmelden!

Mehr zum Thema:

Wie digital ist Deutschland – und wie fühlt es sich an?

Eine neue Studie, durchgeführt von september Strategie & Forschung im Auftrag der Vodafone GmbH untersucht das Smartphone-Verhalten verschiedener Generationen: Welche Plattformen werden genutzt, welche Apps dominieren – und wie erleben die Nutzer:innen selbst ihr...

Gefälschte Publikationen und institutionelle Retraction-Welle

In der Wissenschaftswelt wächst die Sorge um die Qualität von Forschungsarbeiten. Ein aktueller Bericht von „Nature“ zeigt eine beunruhigende Zunahme von Retractions in wissenschaftlichen Publikationen und identifiziert Institutionen mit besonders hohen...

Open Research Management: Eine neue Jisc-Studie

Eine von Jisc (Joint Information Systems Committee) beauftragte Studie zeigt: Open Data über Forschungsmanagement in Großbritannien sind wertvoll, aber schwer zugänglich. Uneinheitliche Standards, Lizenzierungsprobleme und mangelnde Interoperabilität erschweren die...

Thema-Klassifikation und Bibliodiversität

Wie spiegelt sich Bibliodiversität im globalen Konsum von Open-Access-Büchern wider? In einer aktuellen Studie analysiert Ronald Snijder, wie das Thema Klassifikationssystem genutzt wird, um regionale Konsummuster und Themenschwerpunkte zu untersuchen. Mithilfe...