Einführung in Explainable AI – Grundlagen verstehen
Programm und Ablauf
Kursaufbau
-
Woche 1: Warum Erklärbarkeit zählt
- Regulatorische Anforderungen
- GDPR, EU AI Act und ihre praktischen Konsequenzen für ML-Projekte
- Model-agnostische Methoden
- LIME und Permutation Importance im direkten Vergleich
-
Woche 2: SHAP im Detail
- Shapley Values Theorie
- Mathematischer Hintergrund ohne Formeln auswendig zu lernen
- Praktische Implementierung
- TreeSHAP, KernelSHAP – welche Variante für welches Problem
-
Woche 3: Modellspezifische Ansätze
- Attention Mechanisms
- Transformer-Modelle und ihre eingebauten Erklärungsmöglichkeiten
- Counterfactual Explanations
- "Was müsste sich ändern für ein anderes Ergebnis?"
-
Woche 4: Projekt und Validierung
- Eigenes XAI-Projekt
- Sie wählen Datensatz und Methode, wir reviewen gemeinsam
- Erklärungen evaluieren
- Wie prüfen Sie, ob eine Erklärung tatsächlich sinnvoll ist?
Technische Voraussetzungen
Python-Kenntnisse erforderlich, Erfahrung mit scikit-learn hilfreich. Sie sollten bereits grundlegende ML-Modelle trainiert haben.
Beschreibung und Details
Wenn Sie schon einmal vor einem Modell saßen, das perfekte Vorhersagen lieferte, aber niemand erklären konnte warum, kennen Sie das Problem. Black-Box-Modelle funktionieren zwar, aber in regulierten Branchen oder bei kritischen Entscheidungen reicht das nicht mehr.
Dieser Kurs zeigt Ihnen die fundamentalen Konzepte von Explainable AI. Sie lernen verschiedene Interpretationsmethoden kennen – von LIME über SHAP bis zu Attention Mechanisms. Wir arbeiten mit echten Datensätzen und sehen uns an, wie Sie Modellerklärungen validieren können.
Was unterscheidet interpretierbare von erklärbaren Modellen?
Die Unterscheidung klingt akademisch, hat aber praktische Konsequenzen. Ein lineares Regressionsmodell ist von Natur aus interpretierbar. Ein neuronales Netz mit 50 Schichten braucht externe Erklärungsmethoden. Sie sehen beide Ansätze in der Praxis.
Wir bauen ein Kreditrisiko-Modell und erklären jede einzelne Ablehnung so, dass Kunden und Regulierungsbehörden sie nachvollziehen können.
Der Schwerpunkt liegt auf anwendbarem Wissen: Wann welche Methode? Welche Trade-offs gibt es zwischen Modellperformance und Erklärbarkeit? Sie arbeiten in Python mit scikit-learn, SHAP und InterpretML an konkreten Beispielen aus Finanzen, Medizin und E-Commerce.
Zukunftstechnologien verstehen und anwenden
Erklärbare künstliche Intelligenz repräsentiert einen neuen Ansatz für das Leben in einer zunehmend digitalisierten Welt. Die Fähigkeit, KI-Systeme nicht nur zu nutzen, sondern auch ihre Entscheidungsprozesse nachzuvollziehen, eröffnet neue Perspektiven für persönliches und berufliches Wachstum.
Unsere Workshops verbinden praktisches Lernen mit fundiertem Wissen über die Zukunft der Technologie. Sie entwickeln Kompetenzen, die in verschiedenen Bereichen anwendbar sind – von der Datenanalyse bis zur ethischen Bewertung automatisierter Systeme.
Durch strukturierte Übungen und realitätsnahe Szenarien bauen Sie ein tiefes Verständnis für die Mechanismen moderner KI-Systeme auf. Diese Entwicklung ermöglicht es Ihnen, fundierte Entscheidungen in technologiegetriebenen Umgebungen zu treffen und aktiv an der Gestaltung digitaler Prozesse teilzunehmen.