Bilddaten - Künstliche Neuronale Netze
- Perzeptron
- Zweischichtiges Netz
- Dreischichtiges Netz
- Convolutional Neural Network
- Transfer Learning (MobileNet)
Nachdem wir in der letzten Lerneinheit die Grundlagen der Bildbearbeitung kennengelernt haben, wenden wir uns in dieser Lerneinheit den künstlichen neuronalen Netzen zu. Wir beginnen mit dem einfachsten Netz, dem sogenannten Perzeptron
mit nur einer Zelle bzw. einem abstrakten Neuron, und arbeiten uns im Schnelldurchlauf durch die Geschichte der neuronalen Netze, um am Ende Transfer Learning
auf ein riesiges Deep Learning-Modell anzuwenden.
Das Perzeptron wurde 1958 von Frank Rosenblatt vorgestellt und ist in seiner urprünglichen Form das einfachste künstliche neuronale Netz. Es besteht aus einem einzelnen künstlichen Neuron, das seine gewichteten Inputs aufsummiert und mit einem Schwellenwert verrechnet. Das Perzeptron lernt Datenpunkte zu kategorisieren durch die Anpassung der Gewichtungen seiner Eingänge. Dieser aus heutiger Sicht einfach zu berechnende Algorithmus überforderte die Computer der damaligen Zeit, so dass eine Hardwareimplementierung gebaut werden musste. Im Folgenden werden wir ein Perzeptron mit zwei Eingängen/Inputs von Grund auf implementieren und die Funktionsweise des Lernens grafisch darstellen.
Hier könnt ihr euch das Vorlesungsvideo zum Thema von Joachim Haenicke (2019/20) anschauen: --> zum YouTube Video
Alle anderen Kurse der LINK KI-Schule findet ihr -> hier.
Die LINK-KI-Schule wurde entwickelt von Dr. Joachim Haenicke, Dr. Jan Sölter und Dr. Thomas Rost.
Die Google Colab Notebooks wurden von Jan Neukirchen auf Funktionalität und Aktualität der notwendigen Daten überprüft. Die letze Aktualisierung fand im April 2023 statt.