Projektgruppe "XAI" gewinnt den mit 1000 Euro datierten Preis der Alumni Informatik
Die Projektgruppe XAI hat sich mit der Erklärbarkeit von Künstlicher Intelligenz (KI), spezieller von neuronalen Netzen, beschäftigt. Oftmals agieren diese Modelle als undurchsichtige "Black Box", was das Vertrauen in ihre Entscheidungen erschwert. Das Konzept der Explainable AI (XAI) zielt darauf ab, diese Entscheidungen transparenter zu gestalten. Dies stärkt nicht nur das Vertrauen in die Modelle, sondern hilft auch, sie zu verbessern. Ein klassisches Beispiel für die Notwendigkeit der Erklärbarkeit ist die Anwendung in der medizinischen Diagnose mittels Röntgenbildern.
Die Projektgruppe hat dabei ein Framework entwickelt, bei dem neue Bilder hochgeladen und analysiert werden können. Dabei wird die Entscheidung des zugrundliegenden Modells untersucht und sowohl visuell, als auch sprachlich durch ein LLM, erklärt.
Besonders in der Bildklassifikation wird mit Methoden wie LRP, Lime und CAM gearbeitet, um für die Entscheidung relevante Bildbereiche zu identifizieren. Diese Methoden haben sich nach einer ausgiebigen Evaluation der Projektgruppe als die zuverlässigsten herausgestellt.
Als Beispiel wurde das beliebte Spiel GeoGuessr ausgewählt, bei dem es darum geht zufällige Orte auf der Erde anhand von Google Streetmaps Bildern zu erkennen. Dieses Beispiel eignet sich hervorragend um die Entscheidung der Modelle mit denen von Menschen zu vergleichen, denn Menschen nutzen meist bestimmte Bildinhalte, wie Nummernschilder, Sehenswürdigkeiten oder Infrastruktur um Länder zu erkennen. Das Sprachmodell wird hier genutzt um die gefundenen Unterschiede und Gemeinsamkeiten zwischen Modell und Mensch zu beschreiben.