Studierende arbeiten an KI-Modellen in einer modernen Lernumgebung

KI verstehen, die sich erklären lässt

Warum erklärbares Machine Learning wichtig ist

Die meisten KI-Systeme funktionieren wie Black Boxes. Sie liefern Ergebnisse, aber niemand versteht wirklich, wie sie zu diesen Schlüssen kommen. Das wird zum Problem, wenn Entscheidungen Konsequenzen haben.

In diesem Programm lernen Sie, wie moderne ML-Modelle interpretierbar gemacht werden. Sie arbeiten mit echten Datensätzen und bauen Systeme, die nicht nur präzise sind, sondern auch nachvollziehbar erklären, warum sie eine bestimmte Vorhersage treffen.

Der Fokus liegt auf praktischer Anwendung: SHAP-Werte, LIME, Feature-Importance-Analyse und andere Techniken, die in der Industrie tatsächlich verwendet werden.

Visualisierung von KI-Erklärungsmethoden auf mehreren Bildschirmen

Modulaufbau

Das Programm besteht aus sechs Modulen, die aufeinander aufbauen. Jedes Modul kombiniert theoretische Grundlagen mit praktischen Übungen.

Grundlagen interpretierbarer Modelle

4 Wochen Live Sessions

Entscheidungsbäume, lineare Modelle und regelbasierte Systeme. Sie verstehen, welche Modelle von Natur aus transparent sind und wie diese in der Praxis eingesetzt werden.

SHAP und Feature Attribution

5 Wochen Gruppenprojekte

Shapley-Werte aus der Spieltheorie angewendet auf ML. Sie lernen, wie einzelne Features zu einer Vorhersage beitragen und wie man diese Ergebnisse visualisiert.

LIME und lokale Interpretationen

4 Wochen Einzelprojekte

Local Interpretable Model-agnostic Explanations für komplexe Modelle. Sie erstellen lokale Approximationen und verstehen, wann diese Methode sinnvoll ist.

Counterfactual Explanations

3 Wochen Live Sessions

Was müsste sich ändern, damit ein Modell anders entscheidet? Sie generieren kontrafaktische Erklärungen und evaluieren deren Plausibilität.

Neuronale Netze interpretieren

6 Wochen Gruppenprojekte

Attention-Mechanismen, Activation Mapping und Saliency Maps für Deep Learning. Sie visualisieren, worauf neuronale Netze bei Bildern oder Text achten.

Ethische und rechtliche Aspekte

3 Wochen Diskussionen

DSGVO, Bias-Erkennung und fairness-orientiertes Design. Sie analysieren reale Fälle, in denen fehlende Erklärbarkeit zu Problemen führte.

Ihre Instruktoren

Alle Dozenten arbeiten aktiv in Forschung oder Industrie und haben mehrjährige Erfahrung mit erklärbarer KI.

Dr. Henrik Lindström

Dr. Henrik Lindström

ML Engineer, Forschung zu XAI-Methoden

Elke Schreiber

Elke Schreiber

Data Scientist, Spezialistin für Fairness

Omar Khalil

Omar Khalil

AI Ethics Researcher, DSGVO-Experte

Tomáš Novák

Tomáš Novák

Deep Learning Spezialist, Computer Vision

Bereit anzufangen?

Das Programm startet laufend mit neuen Kohorten. Sie können zwischen Gruppensessions und individuellen Lernpfaden wählen, je nachdem, wie Sie am besten lernen.

  • Zugang zu allen Kursmaterialien und Aufzeichnungen
  • Wöchentliche Live-Sessions mit Instruktoren
  • Praktische Projekte mit echten Datensätzen
  • Peer-Review und Feedback von anderen Teilnehmern
  • Optionale 1:1 Sessions für individuelle Fragen