zum Inhalt springen

Transparente Daten für vertrauenswürdiges maschinelles Lernen: Wie wissenschaftliche Dokumentation den ML-Standard verbessern kann

Datum: 15. März 2025
Autor: Erwin König

Transparente und verantwortungsbewusste Nutzung von Machine-Learning-(ML)-Systemen hängt maßgeblich von der Qualität und Transparenz der zugrundeliegenden Trainingsdaten ab. Während in vielen wissenschaftlichen Disziplinen die Publikation von Data Papers (Veröffentlichung von dokumentierten Datensätzen in einem Data Journal) längst etabliert ist, stellt sich die Frage, ob diese Standards den Anforderungen der ML-Community und regulatorischen Vorgaben gerecht werden. Eine aktuelle Studie analysiert über 4000 wissenschaftliche Data Papers und vergleicht sie mit ML-spezifischen Dataset-Beschreibungen. Die Ergebnisse zeigen sowohl Fortschritte als auch Lücken in der Dokumentation und bieten klare Empfehlungen, wie Datenersteller und Verlage die Nachvollziehbarkeit und Fairness von ML-Modellen künftig verbessern können. Welche Maßnahmen nötig sind und wie sich die wissenschaftliche Praxis auf die technologische Entwicklung auswirkt, erfahren Sie in unserem Artikel. 

...

Um den Artikel in voller Länge lesen zu können, benötigen Sie ein Abo. Jetzt Abo abschließen oder mit bestehendem Konto anmelden!

Mehr zum Thema:

Wie Forschende mit KI-gestützten Recherchetools arbeiten

Eine Studie von Dany Haddad und Kolleg:innen analysiert in „Understanding Usage and Engagement in AI-Powered Scientific Research Tools: The Asta Interaction Dataset“ auf der Preprint-Plattform „arXiv“, wie Forschende tatsächlich mit KI-gestützten Rechercheplattformen...

Chatbots im Auskunftsdienst wissenschaftlicher Bibliotheken

In ihrem Beitrag „Chatbots for reference services in academic libraries: Applications and trends“ analysieren Guoying Liu und Shu Liu im „Journal of Academic Librarianship“ die weltweite Verbreitung, Leistungsfähigkeit und Transparenz von Bibliotheks-Chatbots. Die...