
Explainable AI – Geht das? Und wenn ja, wie?
Künstliche Intelligenz (KI) wird als eine der entscheidenden Technologien der Zukunft angesehen. Ihre Nutzung erfolgt bereits in vielen Bereichen - unter anderem im eCommerce oder in der Roboter- oder Klimatechnik. Das Ziel von KI ist es, Maschinen zu befähigen, mit menschenähnlicher Intelligenz zu lernen, zu verstehen und zu handeln. Eine zentrale Herausforderung für die breite Adaption und Akzeptanz von KI ist die zurzeit geringe Nachvollziehbarkeit der getroffenen Entscheidungen. Um dieses Problem zu lösen, gibt es erste Ansätze der Explainable AI.
Was ist Explainable AI?
Die vier Prinzipien von Explainable AI
Erklärung
Systeme liefern begleitende Beweise oder GrĂĽnde fĂĽr die entsprechenden Ergebnisse.
Genauigkeit der Erklärung
Diese Erklärungen geben den Prozess des Systems zur Generierung der Ergebnisses korrekt wieder.
Bedeutsamkeit
Systeme geben Erklärungen, die für einzelne Benutzende verständlich sind.
Wissensgrenzen
Das System funktioniert nur unter Bedingungen, fĂĽr die es entwickelt wurde.
Anwendungsbeispiel Kreditinstitut
Anwendungsbeispiel Radiologie
Anwendungsbeispiel Empfehlungsdienste
Anwendungsbeispiel Autonomes Fahren
Explainable AI - Herausforderungen und Ausblick
Quellen
Sie haben Fragen zum Thema Explainable AI?
