Künstliche Intelligenz erklären
Erklärbare KI

Explainable AI – Geht das? Und wenn ja, wie?

Künstliche Intelligenz (KI) wird als eine der entscheidenden Technologien der Zukunft angesehen. Ihre Nutzung erfolgt bereits in vielen Bereichen - unter anderem im eCommerce oder in der Roboter- oder Klimatechnik. Das Ziel von KI ist es, Maschinen zu befähigen, mit menschenähnlicher Intelligenz zu lernen, zu verstehen und zu handeln. Eine zentrale Herausforderung für die breite Adaption und Akzeptanz von KI ist die zurzeit geringe Nachvollziehbarkeit der getroffenen Entscheidungen. Um dieses Problem zu lösen, gibt es erste Ansätze der Explainable AI.

Was ist Explainable AI?

Die vier Prinzipien von Explainable AI

Erklärung

Systeme liefern begleitende Beweise oder GrĂĽnde fĂĽr die entsprechenden Ergebnisse.

Genauigkeit der Erklärung

Diese Erklärungen geben den Prozess des Systems zur Generierung der Ergebnisses korrekt wieder.

Bedeutsamkeit

Systeme geben Erklärungen, die für einzelne Benutzende verständlich sind.

Wissensgrenzen

Das System funktioniert nur unter Bedingungen, fĂĽr die es entwickelt wurde.

Anwendungsbeispiel Kreditinstitut

Anwendungsbeispiel Radiologie

Anwendungsbeispiel Empfehlungsdienste

Anwendungsbeispiel Autonomes Fahren

Explainable AI - Herausforderungen und Ausblick

Quellen

Sie haben Fragen zum Thema Explainable AI?

Oliver Toma, Cassini Consulting
Oliver Toma

Senior Management Consultant

[email protected]
+49 211 - 92323781