Mitwirkende:
  • Dr. Joachim Haenicke
  • Dr Jan Sölter
  • Dr. Thomas Rost
  • Jan Neukirchen
  • Dr. Tabea Golgath
Projekte • Bildung
KI Schule (Teil 3): Bilddaten - Im Inneren neuronaler Netze
Ein Weiterbildungskurs für Kulturschaffende zum Thema Künstliche Intelligenz


Lerneinheit 3:

Bilddaten - Im Inneren neuronaler Netze

- Visualisierung des bevorzugten Inputs

- Merkmalsvisualisierung in großen Netzen

- Deep Dream

- Adversarial Training

- Image Style Transfer revisited


Im letzten Aufgabenblatt habt ihr im Schnelldurchlauf die Geschichte der Bilderkennung mit neuronalen Netzen durchlebt. Ihr habt kleinere Netze selbst erzeugt und trainiert und große, vortrainierte mit Keras heruntergeladen. Doch was passiert in so einem Netzwerk eigentlich? Das einzelne Perzeptron mit zweidimensionalen Inputs kann man noch relativ leicht visualisieren, doch schon bei den kleineren, mehrschichtigen und erst recht bei den riesigen modernen Convolutional-Networks entzieht es sich
unserer Vorstellungskraft, welche Rolle einzelne Schichten oder gar einzelne Gewichte spielen.

In dieser Lerneinheit lernt ihr Methoden kennen, mit denen ihr die Aktivität in neuronalen Netzen analysieren können. Im Normalfall besteht die Anwendung der Netze darin, dass man die Paramter eines Modells so anpasst, dass für einen gewissen Input ein erwünschter Output entsteht. In diesem Arbeitsblatt drehen wir das Problem um: Wir lassen die Parameter der Netzwerke unverändert, und machen uns am Input zu schaffen.

Ihr lernt, wie man ein Input-Bild so optimiert, dass bestimmte Zellen besonders stark aktiviert werden. So können wir uns bei verschieden großen Netzwerken ansehen, auf welche Merkmale der Eingabedaten die einzelnen Schichten reagieren. Mit diesem
Hintergrundwissen könnt ihr dann nachvollziehen, wie die Traumbilder der tiefen Netze zustande kommen, die vor einiger Zeit durch die Medien gingen.

Im Anschluss seid ihr bereit für euren ersten Hack: Mit den gleichen Techniken lernen Sie Bilder so zu verändern, dass ein Klassifizierungsnetzwerk diese falsch interpretiert, obwohl für das menschliche Auge kein Unterschied zu korrekt klassifizierten Pendants zu erkennen ist. Als letztes gehen wir dann nochmal auf den Image-Style-Tranfer ein, den ihr bereits aus der letzten Vorlesung kennt. Ihr werden sehen, dass auch hier eine Optimierung des Inputs nach bestimmten Kriterien erfolgt.


Hier könnt ihr euch das Vorlesungsvideo mit Joachim Haenicke (2019/20) anschauen: --> Zum YouTube Video


Alle anderen Kurse der LINK KI-Schule findet ihr -> hier.


Die LINK-KI-Schule wurde entwickelt von Dr. Joachim Haenicke, Dr. Jan Sölter und Dr. Thomas Rost.

Die Google Colab Notebooks wurden von Jan Neukirchen auf Funktionalität und Aktualität der notwendigen Daten überprüft. Die letze Aktualisierung fand im April 2023 statt.

Wir benötigen Dein Einverständnis, um fortzufahren.

Diese Website verwendet Cookies. Wenn Du der Verwendung von Cookies zustimmst, können wir während Deines Besuchs direkt und über unsere Partner Statistiken erheben.

Weitere Informationen findest Du unter „Erweiterte Einstellungen“.
Einen Link zu den Cookies-Einstellungen findest Du jederzeit in der Fußzeile.
Cookies Einstellungen
Tracking erlauben
Nur notwendige Cookies erlauben