Title
Verbinden von Natürlicher und Künstlicher Intelligenz: eine experimentelle Testumgebung für Explainable AI (xAI).
Abstract
Künstliche Intelligenz (KI) folgt dem Begriff der menschlichen Intelligenz, der leider kein klar definierter Begriff ist. Die gebräuchlichste Definition, wie sie in der Kognitionswissenschaft als mentale Fähigkeit gegeben ist, enthält unter anderem die Fähigkeit, abstrakt, logisch und schlussfolgernd zu denken und gegebene Probleme der realen Welt zu lösen. Ein aktuelles Thema in der KI ist es, herauszufinden, ob und inwieweit Algorithmen in der Lage sind, solches abstraktes Denken und Schlussfolgern ähnlich wie Menschen zu erlernen – oder ob das Lernergebnis auf rein statistischer Korrelation beruht. In diesem Beitrag stellen wir eine von uns entwickelte frei verfügbare, universelle und erweiterbare experimentelle Testumgebung vor. Diese „Kandinsky Patterns“ (https://human-centered.ai/project/kandinsky-patterns, https://www.youtube.com/watch?v=UuiV0icAlRs), benannt nach dem russischen Maler und Kunsttheoretiker Wassily Kandinsky (1866–1944), stellen eine Art „Schweizer Messer“ zum Studium der genannten Problemstellungen dar. Das Gebiet, dass diese Problemstellungen behandelt wird „explainable AI“ (xAI) genannt. Erklärbarkeit/Interpretierbarkeit hat das Ziel, menschlichen Experten zu ermöglichen, zugrundeliegende Erklärungsfaktoren – die Kausalität – zu verstehen, also warum eine KI-Entscheidung getroffen wurde, und so den Weg für eine transparente und verifizierbare KI zu ebnen.
Year
DOI
Venue
2020
10.1365/s40702-020-00586-y
HMD Praxis der Wirtschaftsinformatik
Keywords
DocType
Volume
Künstliche Intelligenz (KI), Maschinelles Lernen (ML), Interpretierbare KI, Verifizierbare KI, Konzept-Lernen, Artificial Intelligence (AI), Machine Learning (ML), Explainable AI, Verifiable AI, Concept learning
Journal
57
Issue
ISSN
Citations 
1
1436-3011
0
PageRank 
References 
Authors
0.34
22
2
Name
Order
Citations
PageRank
Andreas Holzinger12886253.75
Heimo Müller235828.60