Erklärbare neuronale Netze – Deep Learning transparent machen
Programm und Ablauf
Programmübersicht
-
Modul 1: Gradient-basierte Methoden
Saliency Maps und ihre Limitationen
- Vanilla Gradients
- Der einfachste Ansatz und warum er oft nicht ausreicht
- Integrated Gradients
- Axiomatischer Ansatz mit theoretischen Garantien
- SmoothGrad
- Rauschen als Feature, nicht als Bug
-
Modul 2: Class Activation Mapping
Von CAM zu Grad-CAM zu Score-CAM
- Praktische Implementierung
- ResNet und EfficientNet mit verschiedenen CAM-Varianten
- Limitation und Fallstricke
- Wann CAM irreführend ist
-
Modul 3: Layer-wise Relevance Propagation
Backwards-Propagation für Erklärungen nutzen
- LRP Regeln
- ε-Regel, γ-Regel und wann Sie welche brauchen
- DeepLIFT
- Unterschiede zu LRP und praktische Vor- und Nachteile
-
Modul 4: Concept-basierte Erklärungen
- TCAV (Testing with Concept Activation Vectors)
- Erklärungen auf Konzeptebene statt Pixel-Level
- Eigenes Projekt
- Wählen Sie Ihre Cozexantiv: Medical Imaging, Satellitenbilder oder Custom Dataset
Beschreibung und Details
Neuronale Netze mit Dutzenden Schichten sind in der Bildverarbeitung und NLP Standard geworden. Aber wie erklären Sie einem Radiologen, warum Ihr CNN eine bestimmte Region im CT-Scan markiert hat?
Dieser Kurs konzentriert sich ausschließlich auf Erklärbarkeit in Deep Learning. Sie lernen Gradient-basierte Methoden wie Grad-CAM, Integrated Gradients und Smooth Grad kennen. Wir arbeiten hauptsächlich mit Computer Vision Beispielen, decken aber auch NLP-Anwendungen ab.
Visualisierung ist nicht gleich Erklärung
Eine hübsche Heatmap sieht überzeugend aus, aber sagt sie wirklich etwas aus? Sie lernen, kritisch mit Erklärungen umzugehen und verschiedene Methoden gegeneinander zu validieren.
Wir bauen ein Bildklassifikationsmodell für medizinische Aufnahmen und erstellen Erklärungen, die Ärzten tatsächlich helfen. Sie sehen, wo Grad-CAM versagt und welche Alternativen es gibt. Ein ganzer Abschnitt widmet sich Adversarial Examples – wenn Modelle aus den falschen Gründen richtig liegen.
Ein Modell erkannte Lungenentzündung korrekt, aber nur wegen eines Wasserzeichens im Bild. Solche Fehler müssen Sie finden können.
Sie arbeiten in PyTorch mit Captum und sehen sich Layer-wise Relevance Propagation praktisch an. Der Kurs setzt voraus, dass Sie bereits CNNs trainiert haben.
Zukunftstechnologien verstehen und anwenden
Erklärbare künstliche Intelligenz repräsentiert einen neuen Ansatz für das Leben in einer zunehmend digitalisierten Welt. Die Fähigkeit, KI-Systeme nicht nur zu nutzen, sondern auch ihre Entscheidungsprozesse nachzuvollziehen, eröffnet neue Perspektiven für persönliches und berufliches Wachstum.
Unsere Workshops verbinden praktisches Lernen mit fundiertem Wissen über die Zukunft der Technologie. Sie entwickeln Kompetenzen, die in verschiedenen Bereichen anwendbar sind – von der Datenanalyse bis zur ethischen Bewertung automatisierter Systeme.
Durch strukturierte Übungen und realitätsnahe Szenarien bauen Sie ein tiefes Verständnis für die Mechanismen moderner KI-Systeme auf. Diese Entwicklung ermöglicht es Ihnen, fundierte Entscheidungen in technologiegetriebenen Umgebungen zu treffen und aktiv an der Gestaltung digitaler Prozesse teilzunehmen.