Tender Weakness: Was LLMs nicht beantworten können – ein Self-Challenge Framework
Datum: 18. Dezember 2024
Autor: Erwin König

In den letzten Jahren haben Large Language Models (LLMs) wie GPT-4 bemerkenswerte Fortschritte erzielt und vielfach Benchmarks überschritten, die zuvor von Menschen entwickelt wurden. Doch LLMs stoßen weiterhin an Grenzen, die in der wissenschaftlichen Diskussion zunehmend Gegenstand sind. In einer Studie von Yulong Chen et. al. wird untersucht, ob und wie ein LLM seine eigenen Schwächen erkennen kann. Hierzu wird ein neuer Evaluierungsansatz vorgestellt, der LLMs dazu auffordert, ihre Fehler selbstständig zu identifizieren und Muster zu entwickeln, die zur Erstellung anspruchsvollerer Testinstanzen beitragen. Mithilfe eines sogenannten Self-Challenge-Evaluierungsrahmens und unter Einbeziehung menschlichen Feedbacks wurden so acht charakteristische Fehlermuster erarbeitet, die später als Basis für den Benchmark SC-G4 dienen. Dieser umfassende Datensatz ermöglicht eine präzise Leistungsbewertung von LLMs wie GPT-4, Claude-3 und Llama-3. Die Ergebnisse zeigen, dass nur rund 45 % der Instanzen von GPT-4 korrekt beantwortet werden, was verdeutlicht, dass aktuelle LLMs an ihre Grenzen kommen.

...

Um den Artikel in voller Länge lesen zu können, benötigen Sie ein Abo. Jetzt Abo abschließen oder mit bestehendem Konto anmelden!

Mehr zum Thema:

Künstliche Intelligenz ethisch gestalten

Der Bundesverband Digitale Wirtschaft (BVDW) hat eine umfassende Studie zur ethischen Entwicklung und Anwendung von KI-Systemen vorgelegt – ein Thema, über das auch in vielen Bibliotheken intensiv diskutiert wird (dazu auch: „KI-Policies und Bibliotheken: Ein globaler...

Bildung im KI-Zeitalter: Must-have Kompetenzen

Das Bildungssystem steht im Hinblick auf Künstliche Intelligenz (KI) vor einem Wendepunkt. Ein kürzlich veröffentlichter Bericht von Fawzi BenMessaoud skizziert ein neues Bildungsmodell, das Schüler und Studenten auf diese KI-integrierte Zukunft vorbereiten soll....