Erklärbare Künstliche Intelligenz - was ist Explainable AI (XAI)?
Webinar mit Manuela Geiß, Michael Roßbory und Florian Sobieczky, Software Competence Center Hagenberg
Seit "Deep Blue" wissen wir, dass Künstliche Intelligenz (KI) imstande ist, einen Schachweltmeister zu schlagen. Was aber, wenn man KI auch dazu nützen könnte, uns zu erklären, wie man besser Schach spielt? Am Software Competence Center Hagenberg (SCCH) wurde ein neuer Forschungsansatz entwickelt, in dem KI "erklärend" verwendet wird.
Mit jeder Erweiterung und infolge der stetig wachsenden Komplexität wird das Gebiet der künstlichen Intelligenz immer komplizierter und weniger greifbar. Durch bahnbrechende Erfolge auf diesem Gebiet, insbesondere dem Machine Learning, weckt künstlichen Intelligenz ein immenses Interesse in vielen Anwendungsbeispielen. Umso wichtiger ist es, das Verständnis für die Entscheidungen und Resultate künstlicher Intelligenzen so hoch wie möglich zu halten.
An diesem Punkt setzt Explainable Artificial Intelligence (XAI) an: Anwender wollen und sollen verstehen, wie die KI eines Programms funktioniert und wie erzielte Resultate zu werten sind. Andernfalls ist eine Vertrauensbasis zu den jeweiligen digitalen Berechnungen nicht wirklich gegeben. Die von Explainable AI geschaffene Transparenz ist somit von enormer Bedeutung für die Akzeptanz künstlicher Intelligenz.
Video-Mitschnitt des Webinars
© WKOÖ / Getty Images
Über die Experten
© WKOÖ / Getty Images


