Eine aktuelle Studie von Domingo Verano-Tacoronte, Alicia Bolívar-Cruz und Silvia Sosa-Cabrera im Journal „Education and Information Technologies” untersucht, wie technologiebezogene Ängste die Bereitschaft von Hochschullehrenden beeinflussen, ChatGPT im Unterricht einzusetzen. Befragt wurden 249 Dozent:innen an öffentlichen Universitäten in Spanien. Im Fokus standen drei Formen von Ängsten: Sorgen um die Zukunft des Berufs, Befürchtungen hinsichtlich der eigenen Fehlanwendung von ChatGPT...
Kategorie
The bigger the better: Warum kleiner oft besser ist
Die rasante Entwicklung generativer KI hat zu immer größeren Sprachmodellen (LLMs) geführt, doch nun zeichnet sich ein Gegentrend ab: Kleinere Modelle bieten entscheidende Vorteile in puncto Nachhaltigkeit, Kosten und Effizienz. Nach der Einführung von ChatGPT 2022 begannen Unternehmen wie Google, Anthropic und Apple immer größere Sprachmodelle zu entwickeln. Doch mit dieser Expansion traten Probleme auf – von Datenschutzbedenken über hohe Energiekosten bis hin zu unzuverlässigen oder...
KI-Halluzinationen: Keine Chance auf Besserung, oder etwa doch?
Große Sprachmodelle (LLMs) wie ChatGPT haben die Art der Mensch-KI-Interaktion revolutioniert. Sie bieten beeindruckende sprachliche Fähigkeiten, erzeugen jedoch oft sogenannte Halluzinationen – erfundene oder verzerrte Informationen, die sich als Fakten präsentieren. Dieses Phänomen stellt eine große Herausforderung für die Verlässlichkeit dieser Modelle dar, insbesondere in wissenschaftlichen, juristischen und medizinischen Anwendungen. Warum LLMs halluzinieren KI-Modelle erzeugen...
Ungenutztes Potenzial oder riskanter Trend? Verdeckte KI-Nutzung in wissenschaftlichen Veröffentlichungen
Seit generative KI-Tools wie ChatGPT von OpenAI breit zur Verfügung stehen, nutzen Forschende diese zunehmend im Schreibprozess. Doch eine aktuelle Studie von 500 dokumentierten Fällen zeigt: Die nicht deklarierte Nutzung solcher KI-Tools ist ein weit verbreitetes Problem, das sogar renommierte Fachzeitschriften und Konferenzen betrifft. Auffällig ist, dass gerade hochrangige Journals mit hohen Zitationsmetriken und hohen Publikationsgebühren betroffen sind – also jene, die über die...
Journal Impact Factors: Wie ChatGPT wissenschaftliche Zeitschriften beurteilt
Die Auswahl der richtigen Zeitschrift für die Veröffentlichung oder die Bewertung von Artikeln stellt Forschende vor mancherlei Fragen. Während traditionelle Indikatoren wie Journal Impact Factors vor allem die wissenschaftliche Wirkung widerspiegeln, bleiben andere wichtige Qualitätsdimensionen wie gesellschaftliche Relevanz, Originalität oder Genauigkeit meistens unberücksichtigt. Eine neue Studie von Mike Thelwall und Kayvan Kousha untersucht erstmals den Einsatz von ChatGPT zur Bewertung...
ChatGPT liefert häufig ungenaue Quellenangaben für Verlagsinhalte
Eine Studie des Tow Center for Digital Journalism an der Columbia University in New York hat untersucht, wie der KI-Chatbot ChatGPT mit Quellenangaben und Referenzierung von Verlagsinhalten umgeht. Dabei wurden zahlreiche Fälle aufgedeckt, in denen ChatGPT die Quelle von Verlagsinhalten ungenau zitierte oder falsch darstellte, unabhängig davon, ob der Verlag einen Lizenzvertrag mit OpenAI (dem Ersteller von ChatGPT) hatte oder nicht. Die Forscher untersuchten 200 Zitate von 20...
Fehlende Transparenz und Regelungen beim Einsatz von KI-Chatbots in wissenschaftlichen Verlagen
Künstliche Intelligenz (KI) revolutioniert die Wissenschaft, doch nur ein Drittel der wissenschaftlichen Verlage hat bisher Richtlinien zur Nutzung von KI-Chatbots veröffentlicht. Eine aktuelle Studie zeigt, dass klare Regeln fehlen, während die Mehrheit der Verlage zumindest eine Offenlegungspflicht für den Einsatz von KI-Tools fordert. Mit der zunehmenden Verbreitung künstlicher Intelligenz (KI) auch in der Wissenschaft kommen immer mehr Fragen nach der Integration von KI-Tools in...
Künstliche Intelligenz gegen künstliche Intelligenz: xFakeSci schützt die Wissenschaft
Forscher der Binghamton University haben ein vielversprechendes neues Instrument im Kampf gegen wissenschaftlichen Betrug entwickelt. Der Gastwissenschaftler Ahmed Abdeen Hamed präsentierte kürzlich einen Algorithmus namens xFakeSci, der mit erstaunlicher Genauigkeit KI-generierte wissenschaftliche Artikel erkennen kann. In einer Zeit, in der künstliche Intelligenz wie ChatGPT täuschend echte Texte produzieren kann, erreicht xFakeSci eine Erkennungsrate von bis zu 94 % bei gefälschten...
ChatGPT im Test: Stärken und Schwächen von KI-Feedback in der Bildung
Künstliche Intelligenz wird immer häufiger in Bildungsprozesse integriert, daher stellt sich die Frage, wie effektiv solche Systeme wirklich sind. Eine aktuelle Studie hat genau dies untersucht, indem die Qualität des Feedbacks von ChatGPT, einem generativen KI-Modell, mit dem von erfahrenen menschlichen Lehrkräften verglichen wurde. Unter Feedback wird dabei eine detaillierte Rückmeldung verstanden, die Schülerinnen und Schülern hilft, ihre Texte zu überarbeiten und ihre Schreibfähigkeiten zu...
ChatGPT und systematische Literaturrecherche
Die Nutzung von ChatGPT zur Unterstützung systematischer Literaturrecherchen steht im Fokus einer aktuellen Untersuchung, die sowohl das Potenzial als auch die Grenzen dieser Technologie beleuchtet. Eine umfassende Recherche der aktuellen Peer-Review- und Grauen Literatur zeigt, dass die meisten Studien zu diesem Thema meinungsgetrieben sind und es nur wenige spezifische Beiträge aus dem Bereich des Bibliotheks- und Informationswesens gibt. Während ChatGPT einige Vorteile bei der...