Kategorie

ChatGPT

Journal Impact Factors: Wie ChatGPT wissenschaftliche Zeitschriften beurteilt

Die Auswahl der richtigen Zeitschrift für die Veröffentlichung oder die Bewertung von Artikeln stellt Forschende vor mancherlei Fragen. Während traditionelle Indikatoren wie Journal Impact Factors vor allem die wissenschaftliche Wirkung widerspiegeln, bleiben andere wichtige Qualitätsdimensionen wie gesellschaftliche Relevanz, Originalität oder Genauigkeit meistens unberücksichtigt. Eine neue Studie von Mike Thelwall und Kayvan Kousha untersucht erstmals den Einsatz von ChatGPT zur Bewertung...

mehr lesen

ChatGPT liefert häufig ungenaue Quellenangaben für Verlagsinhalte

Eine Studie des Tow Center for Digital Journalism an der Columbia University in New York hat untersucht, wie der KI-Chatbot ChatGPT mit Quellenangaben und Referenzierung von Verlagsinhalten umgeht. Dabei wurden zahlreiche Fälle aufgedeckt, in denen ChatGPT die Quelle von Verlagsinhalten ungenau zitierte oder falsch darstellte, unabhängig davon, ob der Verlag einen Lizenzvertrag mit OpenAI (dem Ersteller von ChatGPT) hatte oder nicht.  Die Forscher untersuchten 200 Zitate von 20...

mehr lesen

Fehlende Transparenz und Regelungen beim Einsatz von KI-Chatbots in wissenschaftlichen Verlagen

Künstliche Intelligenz (KI) revolutioniert die Wissenschaft, doch nur ein Drittel der wissenschaftlichen Verlage hat bisher Richtlinien zur Nutzung von KI-Chatbots veröffentlicht. Eine aktuelle Studie zeigt, dass klare Regeln fehlen, während die Mehrheit der Verlage zumindest eine Offenlegungspflicht für den Einsatz von KI-Tools fordert. Mit der zunehmenden Verbreitung künstlicher Intelligenz (KI) auch in der Wissenschaft kommen immer mehr Fragen nach der Integration von KI-Tools in...

mehr lesen

Künstliche Intelligenz gegen künstliche Intelligenz: xFakeSci schützt die Wissenschaft

Forscher der Binghamton University haben ein vielversprechendes neues Instrument im Kampf gegen wissenschaftlichen Betrug entwickelt. Der Gastwissenschaftler Ahmed Abdeen Hamed präsentierte kürzlich einen Algorithmus namens xFakeSci, der mit erstaunlicher Genauigkeit KI-generierte wissenschaftliche Artikel erkennen kann. In einer Zeit, in der künstliche Intelligenz wie ChatGPT täuschend echte Texte produzieren kann, erreicht xFakeSci eine Erkennungsrate von bis zu 94 % bei gefälschten...

mehr lesen

ChatGPT im Test: Stärken und Schwächen von KI-Feedback in der Bildung

Künstliche Intelligenz wird immer häufiger in Bildungsprozesse integriert, daher stellt sich die Frage, wie effektiv solche Systeme wirklich sind. Eine aktuelle Studie hat genau dies untersucht, indem die Qualität des Feedbacks von ChatGPT, einem generativen KI-Modell, mit dem von erfahrenen menschlichen Lehrkräften verglichen wurde. Unter Feedback wird dabei eine detaillierte Rückmeldung verstanden, die Schülerinnen und Schülern hilft, ihre Texte zu überarbeiten und ihre Schreibfähigkeiten zu...

mehr lesen

ChatGPT und systematische Literaturrecherche

Die Nutzung von ChatGPT zur Unterstützung systematischer Literaturrecherchen steht im Fokus einer aktuellen Untersuchung, die sowohl das Potenzial als auch die Grenzen dieser Technologie beleuchtet. Eine umfassende Recherche der aktuellen Peer-Review- und Grauen Literatur zeigt, dass die meisten Studien zu diesem Thema meinungsgetrieben sind und es nur wenige spezifische Beiträge aus dem Bereich des Bibliotheks- und Informationswesens gibt. Während ChatGPT einige Vorteile bei der...

mehr lesen

Detecting LLM-Assisted Writing in Scientific Communication: Are We There Yet?

Große Sprachmodelle (LLMs) wie ChatGPT haben die Texterstellung, insbesondere im Bereich der Schreibunterstützung, revolutioniert. Trotz der ethischen Bedeutung einer transparenten Kennzeichnung der Nutzung von LLMs, insbesondere in der wissenschaftlichen Kommunikation, erfolgt eine echte Kenntlichmachung selten. Ein Ansatz zur Verbesserung der korrekten Kennzeichnung könnte der Einsatz von automatischen Textdetektoren sein. Die Bewertung von vier modernen Detektoren für LLM-generierte Texte...

mehr lesen

Large Language Models und ihre Potenziale im Bildungssystem

Large Language Models respektive KI-Anwendungen durchdringen den Bildungssektor immer mehr. Darauf weist nicht nur die Ständige Wissenschaftliche Kommission (SWK) der Kultusministerkonferenz in einem Impulspapier hin – es zeigt sich auch in Googles und OpenAIs verstärkten Ambitionen, in diesem Bereich spezialisierte LLMs (Large Language Models) anzubieten. Auch die Art des Lernens in Form kommunikativer (Chat-)Modelle wird hierdurch befördert. Einsatz von LLMs aus Sicht der Ständigen...

mehr lesen

Zwischen Innovation und Integrität: Die Gestaltung der Hochschulbildung durch generative KI – Richtlinien und Strategien

Die rasante Entwicklung der generativen künstlichen Intelligenz hat das Potenzial, die Landschaft der Hochschulbildung grundlegend zu verändern. Nora McDonald, Aditya Johri, Areej Ali und Aayushi Hingle bieten in ihrer Studie „Generative Artificial Intelligence in Higher Education: Evidence from an Analysis of Institutional Policies and Guidelines“ einen Einblick in die institutionellen Richtlinien und den strategischen Umgang mit dieser disruptiven Technologie. Sie beleuchten, wie...

mehr lesen

Urheberrecht kills the AI-star

Ein Überblick über den Konflikt zwischen der New York Times und OpenAI Vor dem Hintergrund der New Yorker Skyline, gesäumt durch die Präsenz von Polizeibeamten vor dem Gebäude der New York Times, entfesselt sich eine urheberrechtliche Auseinandersetzung, die die Grundfesten von OpenAI erschüttern könnte. Adam Clark Estes, ein erfahrener Technologiejournalist, zieht Parallelen zwischen der aktuellen Debatte um generative Künstliche Intelligenz (KI) und historischen Urheberrechtskonflikten wie...

mehr lesen