25.04.2025

Wissensgraphen verbessern die Genauigkeit und Zuverlässigkeit von Sprachmodellen

Heidelberger Instituts für Theoretische Studien (HITS): Ein bekanntes Problem von modernen großen Sprachmodellen, sogenannten Large Language Models (LLMs), ist die Frage der Faktentreue: Oft erfinden die Modelle Fakten und machen falsche Angaben, und schlimmer noch, häufig sind diese nur schwer als solche erkennbar.

Ein Forschungsteam um den Juniorprofessor Jan Stühmer entwickelt im Rahmen des Forschungsprojekt „Inferenz in großen Sprachmodellen mit Wissensgraphen“ eine Lösung für dieses Problem. Durch die Nutzung von Graph Neural Networks (GNNs) kann das Sprachmodell auf die Fakten von Wissensgraphen zugreifen und dadurch gewährleisten, dass die Informationen korrekt sind.

Die Vector Stiftung fördert das Projekt im Rahmen ihrer Förderlinie „MINT-Innovationen“.

Weitere spannende Projekte finden Sie hier.

[Foto: Solen Feyissa/ Unsplash]