Tender Weakness: Was LLMs nicht beantworten können – ein Self-Challenge Framework
Datum: 18. Dezember 2024
Autor: Erwin König

In den letzten Jahren haben Large Language Models (LLMs) wie GPT-4 bemerkenswerte Fortschritte erzielt und vielfach Benchmarks überschritten, die zuvor von Menschen entwickelt wurden. Doch LLMs stoßen weiterhin an Grenzen, die in der wissenschaftlichen Diskussion zunehmend Gegenstand sind. In einer Studie von Yulong Chen et. al. wird untersucht, ob und wie ein LLM seine eigenen Schwächen erkennen kann. Hierzu wird ein neuer Evaluierungsansatz vorgestellt, der LLMs dazu auffordert, ihre Fehler selbstständig zu identifizieren und Muster zu entwickeln, die zur Erstellung anspruchsvollerer Testinstanzen beitragen. Mithilfe eines sogenannten Self-Challenge-Evaluierungsrahmens und unter Einbeziehung menschlichen Feedbacks wurden so acht charakteristische Fehlermuster erarbeitet, die später als Basis für den Benchmark SC-G4 dienen. Dieser umfassende Datensatz ermöglicht eine präzise Leistungsbewertung von LLMs wie GPT-4, Claude-3 und Llama-3. Die Ergebnisse zeigen, dass nur rund 45 % der Instanzen von GPT-4 korrekt beantwortet werden, was verdeutlicht, dass aktuelle LLMs an ihre Grenzen kommen.

...

Um den Artikel in voller Länge lesen zu können, benötigen Sie ein Abo. Jetzt Abo abschließen oder mit bestehendem Konto anmelden!

Mehr zum Thema:

Educause AI Landscape Study: KI in Bildungseinrichtungen

Die aktuelle Debatte über den Einsatz von Künstlicher Intelligenz in Bildungseinrichtungen gewinnt weiter an Dynamik. Eine neue Studie von Educause beleuchtet, wie Hochschulen KI in ihre Strategien integrieren, welche Herausforderungen sich dabei stellen und welche...

Ein Balanceakt: ethisches Dilemma der KI in der Hochschulbildung

Da Künstliche Intelligenz (KI) zunehmend die Hochschulbildung verändert, stehen Institutionen vor der Herausforderung, ethische Standards zu wahren und gleichzeitig technologische Fortschritte zu integrieren. Während KI das Potenzial hat, Lehre und Lernen zu...