Unser wissenschaftlicher Mitarbeiter Tobias Huber pr?sentierte auf der International Joint Conference on Artificial Intelligence (IJCAI) in Wien zwei Beitr?ge des HCAI Lehrstuhls. Beide Beitr?ge besch?ftigen sich damit, wie man das Verhalten von zunehmend undurchsichtigen KI-Methoden verst?ndlich machen kann. Der Artikel ? Local and global explanations of agent behavior: Integrating strategy summaries with saliency maps“ vergleicht hierzu lokale Erkl?rungen, die einzelne Entscheidungen eines Agenten analysieren, mit globalen Erkl?rungen, welche die übergeordnete Strategie des Agenten beleuchten. Der im XAI Workshop pr?sentierte Artikel ? Alterfactual Explanations – The Relevance of Irrelevance for Explaining AI Systems“ schl?gt eine neue Erkl?rungsmethode vor, die dabei helfen soll irrelevante Informationen für eine bestimmte KI Entscheidung zu identifizieren. CC BY-NC-ND CC BY-NC-ND
Unser wissenschaftlicher Mitarbeiter Tobias Huber pr?sentierte auf der International Joint Conference on Artificial Intelligence (IJCAI) in Wien zwei Beitr?ge des HCAI Lehrstuhls. Beide Beitr?ge besch?ftigen sich damit, wie man das Verhalten von zunehmend undurchsichtigen KI-Methoden verst?ndlich machen kann. Der Artikel ? Local and global explanations of agent behavior: Integrating strategy summaries with saliency maps“ vergleicht hierzu lokale Erkl?rungen, die einzelne Entscheidungen eines Agenten analysieren, mit globalen Erkl?rungen, welche die übergeordnete Strategie des Agenten beleuchten. Der im XAI Workshop pr?sentierte Artikel ? Alterfactual Explanations – The Relevance of Irrelevance for Explaining AI Systems“ schl?gt eine neue Erkl?rungsmethode vor, die dabei helfen soll irrelevante Informationen für eine bestimmte KI Entscheidung zu identifizieren.