- Generieren von monophoner Tonsequenzen
In der letzten Lerneinheit habt ihr gelernt, wie Audiodaten im Computer repräsentiert werden und wie durch Umwandlung der Töne in Spektrogramme die Techniken der Bildverarbeitung auch auf Audiodaten angewendet werden können. In dieser Aufgabensammlung wenden wir uns der Musik zu.
Ähnlich der Sprache ist Musik ein Medium, dessen zeitliche Struktur wesentlich zum Informationsgehalt beiträgt. Die relevanten Zeitskalen erstrecken sich hierbei vom Millisekundenbereich, in dem die Texturen und Tonhöhen der Noten geformt werden, bis auf die Größenordnung mehrerer Minuten, wo sich die musikalischen Zusammenhänge und Spannungsbögen einer Kompositionen abspielen.
Die Erfassung all dieser Zeitskalen auf Basis reiner Wellen- oder Spektrogrammdaten, wie ihr in der letzten Lerneinheit kennengelernt habt, erfordert riesige, hochkomplizierte Netzwerke und einen Haufen Rechenleistung. Um einige dieser Schwierigkeiten zu umgehen, modellierenwir hier Musik auf der symbolischen Ebene des Midi-Protokolls, das Sie in diesem Notebook kennenlernen werden.
Weiterhin werdet ihr mit den rekurrenten Netzwerken eine neue Art der Netzwerkstruktur kennenlernen. Diese eignen sich insbesondere zum Modellieren und Generieren von Zeitreihen. Ihr werdet lernen, wie diese Netzwerke auf Musikdaten trainiert werden können, um daraufaufbauend neue musikalische Sequenzen zu erzeugen.
Hier könnt ihr euch das Vorlesungsvideo zum Thema von Joachim Haenicke (Mai 2020) anschauen:
Alle anderen Kurse der LINK KI-Schule findet ihr -> hier.
Die LINK-KI-Schule wurde entwickelt von Dr. Joachim Haenicke, Dr. Jan Sölter und Dr. Thomas Rost.
Die Google Colab Notebooks wurden von Jan Neukirchen auf Funktionalität und Aktualität der notwendigen Daten überprüft. Die letze Aktualisierung fand im April 2023 statt.