Erklärbare Künstliche Intelligenz: Die Denkprozesse von Maschinen sichtbar machen
Gleich drei Forschungsprojekte zu Künstlicher Intelligenz konnten die Auswahljury im Rahmen unserer Ausschreibung MINT-Innovationen im letzten Jahr überzeugen.
Das Projekt „Visualisierung & Erklärung von KI-Entscheidungen im modellbasierten DRL“ hat zum Ziel, die Entscheidungen der Künstlichen Intelligenz (KI) verständlicher zu machen. Oft ist es schwierig zu verstehen, warum eine KI bestimmte Entscheidungen trifft. Um dies zu ändern, verwenden Forscherinnen und Forscher des Karlsruher Instituts für Technologie so genannte World Models. Diese Modelle helfen, die Denkprozesse der KI sichtbar zu machen. Das spezielle Modul, das entwickelt wird, zeigt nicht nur, welche Entscheidungen die KI trifft, sondern auch, wie sie zu diesen Entscheidungen kommt. Es kann sogar zukünftige Szenarien simulieren und Zwischenziele auf dem Weg zum Endziel identifizieren. Dieser innovative Ansatz könnte unser Verständnis von KI-Entscheidungen grundlegend verändern, indem er sie sowohl für Experten als auch für Laien verständlich macht.
Das Projekt „Inferenz in großen Sprachmodellen mit Wissensgraphen“ verfolgt das Ziel, die Genauigkeit und Zuverlässigkeit von großen Sprachmodellen, sogenannten Large Language Models (LLMs), zu optimieren. Die genannten Modelle neigen mitunter dazu, Fakten zu erfinden, was zu einer Verringerung der Genauigkeit und Zuverlässigkeit der bereitgestellten Informationen führt. Wissenschaftlerinnen und Wissenschaftler des Heidelberger Instituts für Theoretische Studien (HITS) entwickeln eine Lösung für das Problem, indem sie die Sprachmodelle mit Wissensgraphen verknüpfen. Durch die Nutzung von Graph Neural Networks (GNNs) kann das Sprachmodell auf die Fakten im Wissensgraphen zugreifen und dadurch gewährleisten, dass die Informationen korrekt sind.
Heutzutage basieren zahlreiche Empfehlungsalgorithmen auf dem bisherigen Leseverhalten der Nutzerinnen und Nutzer. Dies hat zur Folge, dass den Nutzerinnen und Nutzern oft nur Inhalte angezeigt werden, die eine hohe Ähnlichkeit zu bereits gelesenen Inhalten aufweisen. Im Rahmen des Projektes MULTIVIEW entwickeln die beiden Nachwuchswissenschaftlerinnen Amelie Wührl und Tanise Ceron Methoden, um verschiedene Blickwinkel in Nachrichtenartikeln zu identifizieren und zu empfehlen. Ziel ist, dass die KI nicht nur Artikel vorschlägt, die zu den bisherigen Interessen des Nutzers bzw. der Nutzerin passen, sondern auch solche, die divergierende Meinungen und Aspekte eines Themas aufzeigen. Dadurch wird ein ausgewogener und vielfältiger Nachrichtenkonsum gefördert.
Alle drei Projekte haben das Potenzial, die Art und Weise, wie KI-Systeme genutzt und verstanden werden, grundlegend zu verändern. Die Forschungsergebnisse werden nicht nur die Wissenschaft voranbringen, sondern bieten auch praktische Lösungen für alltägliche Probleme.
[Foto: ThisIsEngineering auf Pexels]