Bilddaten - Generative Netze
- Autoencoder
Ihr habet nun schon ein wenig Erfahrung mit neuronalen Netzen in der Bildbearbeitung gesammelt und von den Grundlagen des Perzeptrons bis zum Hacking großer Netzwerke einiges gelernt. In dieser Lerneinheitwenden wir uns einem weiteren interessanten Themenbereich zu: Den generativen Netzen.
Bisher hatten alle unsere Netze eine ähnliche Struktur: Als Input wird ein Bild hineingesteckt und als Outputbekommen wir einen Haufen Zahlen, der die Wahrscheinlichkeiten für verschiedene Klassenzugehörigkeiten kodiert. In der letzten Lerneinheit habt ihr zwar gelernt, wie wir mit Hilfe solcher Netzwerke Bilder generieren können, dies war jedoch eine Art Hack, bei dem die Netze in gewisser Weise zweckentfremdet wurden.
In der Lerneinheit 1 haben wir gesehen, dass es sich bei digitalen Bildern im Grunde auch nur um einen Haufen Zahlen handelt. Es spricht also nichts dagegen, dass eine neuronales Netz auch Bilder als Output generieren könnte.
In diesem Abschnitt lernt ihr zwei Methoden kennen, mit denen Bilder generiert werden können: Autoencoder, die über den Umweg einer kompakten Kodierung ein Bild rekonstruieren, und Generative Adversarial Networks (GANs), bei denen ein generatives Netz versucht, ein diskriminatives Netz auszutricksen. In diesem ersten Teil zum Thema generative Netzwerke befassen wir uns zunächst mit den Autoencodern.
Neben den unten verlinkten Programmierübungen, könnt ihr hier --> mit Generative Adversarial Networks (GANs) üben.
Hier könnt ihr euch das Vorlesungsvideo mit Joachim Haenicke (2019/20) anschauen: --> Zum YouTube Video
Alle anderen Kurse der LINK KI-Schule findet ihr -> hier.
Die LINK-KI-Schule wurde entwickelt von Dr. Joachim Haenicke, Dr. Jan Sölter und Dr. Thomas Rost.
Die Google Colab Notebooks wurden von Jan Neukirchen auf Funktionalität und Aktualität der notwendigen Daten überprüft. Die letze Aktualisierung fand im April 2023 statt.