Es kursieren viele Szenarien darüber, wie eine Welt aussehen könnte, die von Künstlicher Intelligenz beherrscht wird – und zwar nicht nur in Science Fiction Romanen. Viele dieser Szenarien sind mehr Dystopie als Utopie. Ein Grund für das mangelnde Vertrauen in der Gesellschaft ist unter anderem die mangelnde Transparenz hinsichtlich der Entscheidungen, die intelligente Maschinen schon heute täglich treffen. Diese basieren auf hochkomplexen Algorithmen, die für den Durchschnittsmenschen nicht nachvollziehbar sind. Doch insbesondere bei kritischen Anwendungen in der Wirtschaft wollen Nutzende wie beispielsweise Produktionsleiter:innen verstehen, wie eine Entscheidung zustande kommt.
Um dieses Problem zu lösen, ist ein ganzes Forschungsfeld entstanden: die “Explainable Artificial Intelligence”, die erklärbare Künstliche Intelligenz, kurz xAI. Auf dem Markt gibt es inzwischen zahlreiche digitale Hilfen, die komplexe KI-Lösungswege erklärbar machen. Experten des Fraunhofer-Instituts für Produktionstechnik und Automatisierung IPA aus Stuttgart haben nun neun gängige Erklärungsverfahren – wie LIME, SHAP oder Layer-Wise Relevance Propagation – miteinander verglichen und mithilfe von beispielhaften Anwendungen bewertet.
Das Fazit der Studie: Wie gut oder schlecht die Verfahren abschließen, hängt stark von der jeweiligen Aufgabenstellung ab. So seien etwa Layer-Wise Relevance Propagation und Integrated Gradients für Bilddaten besonders gut geeignet. Auch die Zielgruppe des Verfahrens sei entscheidend: “Ein KI-Entwickler möchte und sollte eine Erklärung anders dargestellt bekommen als der Produktionsleiter, denn beide ziehen jeweils andere Schlüsse aus den Erklärungen”, resümiert Nina Schaaf, die beim Fraunhofer IPA für die Studie verantwortlich ist. Die eine perfekte Methode gebe es damit nicht. Insgesamt haben sich alle untersuchten Erklärungsmethoden als brauchbar erwiesen.
Hier geht es zur vollständigen Pressemitteilung: https://idw-online.de/de/news767986