Cozexantiv
Deep Learning

Erklärbare neuronale Netze – Deep Learning transparent machen

Erklärbare neuronale Netze – Deep Learning transparent machen
Verbleibende Plätze
4
Begrenzte Verfügbarkeit
Aufrufe
952
Interessierte Teilnehmer
Beliebtheit
722
Positive Bewertungen
Nur noch 4 freie Plätze verfügbar – Sichern Sie sich Ihren Zugang zu neuen Möglichkeiten!
Jetzt anmelden

Programm und Ablauf

Programmübersicht

  1. Modul 1: Gradient-basierte Methoden

    Saliency Maps und ihre Limitationen

    Vanilla Gradients
    Der einfachste Ansatz und warum er oft nicht ausreicht
    Integrated Gradients
    Axiomatischer Ansatz mit theoretischen Garantien
    SmoothGrad
    Rauschen als Feature, nicht als Bug
  2. Modul 2: Class Activation Mapping

    Von CAM zu Grad-CAM zu Score-CAM

    Praktische Implementierung
    ResNet und EfficientNet mit verschiedenen CAM-Varianten
    Limitation und Fallstricke
    Wann CAM irreführend ist
  3. Modul 3: Layer-wise Relevance Propagation

    Backwards-Propagation für Erklärungen nutzen

    LRP Regeln
    ε-Regel, γ-Regel und wann Sie welche brauchen
    DeepLIFT
    Unterschiede zu LRP und praktische Vor- und Nachteile
  4. Modul 4: Concept-basierte Erklärungen

    TCAV (Testing with Concept Activation Vectors)
    Erklärungen auf Konzeptebene statt Pixel-Level
    Eigenes Projekt
    Wählen Sie Ihre Cozexantiv: Medical Imaging, Satellitenbilder oder Custom Dataset
Alle Code-Beispiele in PyTorch, TensorFlow-Versionen auf Anfrage verfügbar
€899
5 Wochen Intensivkurs, 10-12 Stunden/Woche, GPU-Zugang inklusive

Beschreibung und Details

Neuronale Netze mit Dutzenden Schichten sind in der Bildverarbeitung und NLP Standard geworden. Aber wie erklären Sie einem Radiologen, warum Ihr CNN eine bestimmte Region im CT-Scan markiert hat?

Dieser Kurs konzentriert sich ausschließlich auf Erklärbarkeit in Deep Learning. Sie lernen Gradient-basierte Methoden wie Grad-CAM, Integrated Gradients und Smooth Grad kennen. Wir arbeiten hauptsächlich mit Computer Vision Beispielen, decken aber auch NLP-Anwendungen ab.

Visualisierung ist nicht gleich Erklärung

Eine hübsche Heatmap sieht überzeugend aus, aber sagt sie wirklich etwas aus? Sie lernen, kritisch mit Erklärungen umzugehen und verschiedene Methoden gegeneinander zu validieren.

Wir bauen ein Bildklassifikationsmodell für medizinische Aufnahmen und erstellen Erklärungen, die Ärzten tatsächlich helfen. Sie sehen, wo Grad-CAM versagt und welche Alternativen es gibt. Ein ganzer Abschnitt widmet sich Adversarial Examples – wenn Modelle aus den falschen Gründen richtig liegen.

Ein Modell erkannte Lungenentzündung korrekt, aber nur wegen eines Wasserzeichens im Bild. Solche Fehler müssen Sie finden können.

Sie arbeiten in PyTorch mit Captum und sehen sich Layer-wise Relevance Propagation praktisch an. Der Kurs setzt voraus, dass Sie bereits CNNs trainiert haben.

2017
Gegründet
100%
Online Zugang
4
Freie Plätze

Zukunftstechnologien verstehen und anwenden

Erklärbare künstliche Intelligenz repräsentiert einen neuen Ansatz für das Leben in einer zunehmend digitalisierten Welt. Die Fähigkeit, KI-Systeme nicht nur zu nutzen, sondern auch ihre Entscheidungsprozesse nachzuvollziehen, eröffnet neue Perspektiven für persönliches und berufliches Wachstum.

Unsere Workshops verbinden praktisches Lernen mit fundiertem Wissen über die Zukunft der Technologie. Sie entwickeln Kompetenzen, die in verschiedenen Bereichen anwendbar sind – von der Datenanalyse bis zur ethischen Bewertung automatisierter Systeme.

Durch strukturierte Übungen und realitätsnahe Szenarien bauen Sie ein tiefes Verständnis für die Mechanismen moderner KI-Systeme auf. Diese Entwicklung ermöglicht es Ihnen, fundierte Entscheidungen in technologiegetriebenen Umgebungen zu treffen und aktiv an der Gestaltung digitaler Prozesse teilzunehmen.

Ihre Privatsphäre-Einstellungen

Wir verwenden Cookies, um Ihre Erfahrung zu verbessern. Wählen Sie, welche Kategorien Sie zulassen möchten.

Erforderlich für grundlegende Funktionen der Website.

Ermöglichen erweiterte Funktionen und Personalisierung.

Helfen uns zu verstehen, wie Sie unsere Website nutzen.

Werden verwendet, um relevante Werbung anzuzeigen.

Opt-out vom Verkauf personenbezogener Daten.

ⓘ Datenschutzerklärung