Einführung von LLM Explainer
NEC Laboratories Europe hat eine neue Technologie namens LLM Explainer eingeführt, die die Zuverlässigkeit großer Sprachmodelle (LLMs) steigern soll. Diese Entwicklung zielt darauf ab, die generativen KI-Dienste von NEC cotomi in Japan zu erweitern. LLM Explainer hilft dabei, Halluzinationen in den Ergebnissen von LLMs zu erkennen und zu erklären.
Herausforderungen bei der Nutzung von LLMs
Obwohl LLMs in der Industrie und bei Endnutzern zunehmend zur Verbesserung wissensbasierter Aktivitäten eingesetzt werden, produzieren sie häufig fehlerhafte Ausgaben, die als Halluzinationen bezeichnet werden. Diese Ungenauigkeiten schränken den Einsatz von LLMs in kritischen Anwendungen ein, in denen genaue Informationen erforderlich sind, wie beispielsweise bei geschäftskritischen Vorgängen oder der Verwaltung wichtiger Infrastrukturen.
Effiziente Überprüfung von Ausgaben
Dr. Carolin Lawrence, Managerin und leitende Wissenschaftlerin bei NEC Laboratories Europe, hebt hervor, dass Organisationen, die LLMs verwenden, derzeit manuell überprüfen müssen, ob die Ausgaben korrekt sind. Dies kann zeitaufwändig und kostspielig sein. Mit der Integration von LLM Explainer können Anwender die von LLMs generierten Ausgaben mit der entsprechenden Quelldokumentation abgleichen. Dadurch wird die Überprüfung und Verifizierung der Korrektheit der Ausgaben effizienter gestaltet.
Funktionsweise von LLM Explainer
LLM Explainer nutzt fortschrittliche Techniken der Verarbeitung natürlicher Sprache, um sowohl Wörter als auch die Bedeutung von Sätzen zu vergleichen. So können Auslassungen, Doppelungen und Bedeutungsänderungen zwischen der ursprünglichen Dokumentation und den generierten Ausgaben identifiziert werden. Benutzer haben die Möglichkeit, relevante Sätze aus der Originaldokumentation einzusehen, um die Genauigkeit der von der generativen KI produzierten Texte zu bestätigen.
Zukünftige Entwicklungen
NEC plant, die Erkennung von LLM-Halluzinationen weiter zu optimieren, indem zusätzliche Funktionen wie das Auffinden halluzinierter Entitäten und die Identifizierung von Widersprüchen implementiert werden. Diese Maßnahmen sollen die Erkennung und Korrektur von Diskrepanzen in LLMs weiter beschleunigen.
Verfügbarkeit von LLM Explainer
Die Integration von LLM Explainer in die generativen KI-API-Dienste von NEC cotomi für Japan ist für Ende Oktober vorgesehen. Zudem wird eine lokale „on-premise“-Version des Dienstes bereitgestellt.