Wissensgraphen verbessern die Genauigkeit und Zuverlässigkeit von Sprachmodellen

GEFÖRDERTES PROJEKT

Wissensgraphen verbessern die Genauigkeit und Zuverlässigkeit von Sprachmodellen

Ein bekanntes Problem von modernen großen Sprachmodellen, sogenannten Large Language Models (LLMs), ist die Frage der Faktentreue: Oft erfinden die Modelle Fakten und machen falsche Angaben, und schlimmer noch, häufig sind diese nur schwer als solche erkennbar.

Ein Forschungsteam um den Juniorprofessor Jan Stühmer entwickelt im Rahmen des Forschungsprojekt „Inferenz in großen Sprachmodellen mit Wissensgraphen“ eine Lösung für dieses Problem. Durch die Nutzung von Graph Neural Networks (GNNs) kann das Sprachmodell auf die Fakten von Wissensgraphen zugreifen und dadurch gewährleisten, dass die Informationen korrekt sind.

Die Vector Stiftung fördert das Projekt im Rahmen ihrer Förderlinie „MINT-Innovationen“.

Weitere Informationen

[Foto: Solen Feyissa/ Unsplash]

Projektpartner

Heidelberger Institut für Theoretische Studien

Ähnliche Projekte

  • CNA: Carboxy-verbrückte, dynamische DNA-Oligomere
  • Nachhaltige Produktion biobasierter Aminosäuren aus Ethanol durch bakterielle Bioprozesse
  • Verwendung von N-heterocyclischen Fulvalenen für die milde und katalytische Reduktion von Kohlenstoffdioxid