XAI in der Produktion – Vom Proof-of-Concept zum Deployment
Programm und Ablauf
Kursinhalte
-
Woche 1-2: Architektur für XAI-Systeme
- Microservices vs. Monolith
- Wo sitzt die Erklärungslogik in Ihrer Architektur?
- Caching-Strategien
- Redis, in-memory, oder datenbank-basiert – Trade-offs verstehen
- A/B Testing mit Erklärungen
- Messen, ob Erklärungen tatsächlich die User Experience verbessern
-
Woche 3: Performance-Optimierung
- Modell-Approximation
- Kleinere Modelle als Explanation Proxies
- Batch Processing
- Wann und wie Sie Erklärungen vorab berechnen
- Monitoring
- Welche Metriken zeigen Ihnen, dass Erklärungen falsch werden?
-
Woche 4: Compliance und Dokumentation
- Model Cards und Datasheets
- Strukturierte Dokumentation für Audits
- Bias Detection
- Erklärungen nutzen, um unfaire Modelle zu identifizieren
-
Woche 5: Stakeholder Management
Praxistag mit Rollenspielen
- Regulatoren überzeugen
- Welche Erklärungen brauchen Aufsichtsbehörden wirklich?
- Business-Teams enablen
- Dashboards und Reports für Non-Technical Users
- Capstone Project
- Ende-zu-Ende System mit allen gelernten Komponenten
Beschreibung und Details
Einen XAI-Prototypen im Jupyter Notebook zu bauen ist eine Sache. Ihn in ein bestehendes System zu integrieren, das 10.000 Anfragen pro Minute verarbeitet, ist etwas völlig anderes.
Dieser Kurs behandelt die praktischen Herausforderungen beim Deployment erklärbarer Modelle. Sie sehen echte Architekturentscheidungen aus Produktionssystemen: Wie cached man Erklärungen? Wann berechnet man sie on-the-fly? Wie kommunizieren Sie mit Teams, die keine Data Scientists sind?
Der Latenz-Problem
SHAP-Werte für ein Ensemble mit 500 Bäumen zu berechnen dauert. Ihre API braucht aber sub-200ms Response Times. Wir gehen verschiedene Lösungsansätze durch – von Approximationen über vorberechnete Erklärungen bis zu Modellkompression.
Sie arbeiten mit einem realitätsnahen Szenario: Ein Kreditentscheidungssystem, das nicht nur Vorhersagen liefern muss, sondern auch DSGVO-konforme Begründungen. Wir bauen die komplette Pipeline: Feature Store, Modell-Serving, Erklärungsgenerierung und ein Dashboard für Compliance-Teams.
Ein Fintech-Startup musste 40% ihrer Modellanfragen ablehnen können – mit Begründungen in unter 300ms. Wir analysieren ihre Lösung.
Sie lernen auch die organisatorische Seite: Wie präsentieren Sie Modellerklärungen verschiedenen Stakeholdern? Regulatoren brauchen andere Informationen als Produktmanager.
Zukunftstechnologien verstehen und anwenden
Erklärbare künstliche Intelligenz repräsentiert einen neuen Ansatz für das Leben in einer zunehmend digitalisierten Welt. Die Fähigkeit, KI-Systeme nicht nur zu nutzen, sondern auch ihre Entscheidungsprozesse nachzuvollziehen, eröffnet neue Perspektiven für persönliches und berufliches Wachstum.
Unsere Workshops verbinden praktisches Lernen mit fundiertem Wissen über die Zukunft der Technologie. Sie entwickeln Kompetenzen, die in verschiedenen Bereichen anwendbar sind – von der Datenanalyse bis zur ethischen Bewertung automatisierter Systeme.
Durch strukturierte Übungen und realitätsnahe Szenarien bauen Sie ein tiefes Verständnis für die Mechanismen moderner KI-Systeme auf. Diese Entwicklung ermöglicht es Ihnen, fundierte Entscheidungen in technologiegetriebenen Umgebungen zu treffen und aktiv an der Gestaltung digitaler Prozesse teilzunehmen.