th share video content contact download event event-wifi cross checkmark close icon-window-edit icon-file-download icon-phone xing whatsapp wko-zahlen-daten-fakten wko-wirtschaftrecht-und-gewerberecht wko-verkehr-und-betriebsstandort wko-unternehmensfuehrung wko-umwelt-und-energie wko-steuern netzwerk wko-innovation-und-technologie wko-gruendung-und-nachfolge wko-bildung-und-lehre wko-aussenwirtschaft wko-arbeitsrecht-und-sozialrecht twitter search print pdf mail linkedin Google-plus facebook pinterest skype vimeo snapchat arrow-up arrow-right arrow-left arrow-down calendar user home icon-gallery icon-flickr icon-youtube icon-instagram

Erklärbare Künstliche Intelligenz - was ist Explainable AI (XAI)?

Webinar mit Manuela Geiß, Michael Roßbory und Florian Sobieczky, Software Competence Center Hagenberg

Seit "Deep Blue" wissen wir, dass Künstliche Intelligenz (KI) imstande ist, einen Schachweltmeister zu schlagen. Was aber, wenn man KI auch dazu nützen könnte, uns zu erklären, wie man besser Schach spielt?  Am Software Competence Center Hagenberg (SCCH) wurde ein neuer Forschungsansatz entwickelt, in dem KI "erklärend" verwendet wird.

Mit jeder Erweiterung und infolge der stetig wachsenden Komplexität wird das Gebiet der künstlichen Intelligenz immer komplizierter und weniger greifbar. Durch bahnbrechende Erfolge auf diesem Gebiet, insbesondere dem Machine Learning, weckt künstlichen Intelligenz ein immenses Interesse in vielen Anwendungsbeispielen. Umso wichtiger ist es, das Verständnis für die Entscheidungen und Resultate künstlicher Intelligenzen so hoch wie möglich zu halten.

An diesem Punkt setzt Explainable Artificial Intelligence (XAI) an: Anwender wollen und sollen verstehen, wie die KI eines Programms funktioniert und wie erzielte Resultate zu werten sind. Andernfalls ist eine Vertrauensbasis zu den jeweiligen digitalen Berechnungen nicht wirklich gegeben. Die von Explainable AI geschaffene Transparenz ist somit von enormer Bedeutung für die Akzeptanz künstlicher Intelligenz. 

Präsentation zum Webinar

Video-Mitschnitt des Webinars

Über die Experten

Portrait Manuela Geiß
© Manuela Geiß
Manuela Geiß ist Researcher und Senior Data Scientist im Bereich Data Science am Software Competence Center Hagenberg. Dort beschäftigt sie sich intensiv mit Themen wie Deep Learning und Erklärbare KI in anwendungsorientierten Forschungsprojekten. Sie studierte Mathematik sowie Mikrobiologie und Genetik an der Universität Wien und absolvierte ein Doktoratsstudium am Bioinformatik Institut der Universität Leipzig.
Portrait Roßbory Michael
© Michael Roßbory
Michael Roßbory ist Senior Researcher im Bereich Data Science am Software Competence Center Hagenberg. Aktuell leitet er das Horizon 2020 Projekt SERUMS. Ziel des Projek­tes ist die Entwick­lung einer Infra­struk­tur zur siche­ren Speiche­rung, Zugriff, Übertra­gung und Analy­se von medizi­ni­schen Daten. Priva­cy Preser­ving Machi­ne Learning beschäf­tigt sich mit Metho­den, wie solche Daten analy­siert, die Privat­sphä­re jedoch geschützt werden kann.
Portrait Florian Sobiecky
© Florian Sobieczky
Florian Sobieczky ist Senior Researcher im Bereich Data Science am Software Competence Center Hagenberg. Er forscht im Bereich Erklärbare Künstliche Intelligenz und Machine Learning in der prädiktiven Instandhaltung, sein allgemeines Forschungsinteresse gilt der Wahrscheinlichkeitstheorie. Nachdem er an der TU-Graz, der Universität Jena und an der CU Boulder als Post-Doktorand gearbeitet hat, war er Lecturer an der University of Denver in Colorado.