Ich würde sehr gerne einen Music Visualizer in Python programmieren. Vorab, es geht hier nicht um tatsächlichen Nutzen des Visualizers wenn er fertig ist, sondern es ist eher ein "Proof-of-Concept" und soll mir helfen mich weiterzuentwickeln.
Da ich weder großartig Erfahrungen mit Audio noch mit OpenGL in Python habe, würde ich hier gerne zwischendurch ein paar Fragen stellen, wenn das in Ordnung ist

Wie bereits gesagt, würde ich die Visualisierung am liebsten in OpenGL realisieren, da ich am liebstens Platformunabhängig bleiben würde (aber Linux ist ein Muss). Doch von der Visualisierung bin ich noch weit weg...
Ich habe bereits auf Stack Overflow gefragt, wie ich denn am besten auf die Audio Datei zugreife. Mir wurde vorgeschlagen pyfmodex zu verwenden. Dabei handelt es sich um Python Bindings für FMOD.
Um Informationen aus der Audio Datei zu gewinnen, welche dann später visualisiert werden, wurde mir das 'Beat Spectrum' empfohlen. Ich hab mir den Algorithmus schon angesehen und er scheint mir recht gut geeignet (jedoch kenne ich kaum einen anderen

Generell habe ich mir überlegt, dass man eine Audio Datei mit dem Visualizer öffnet, dabei wird sie abgespielt und visualisiert. Da dies doch sehr Zeitkritisch ist, und es zumindest wie in Echtzeit aussehen soll, muss ich mit der Berechnung der Visualisierung in der Datei weiter vorne sein, als mit dem Abspielen der Audio Datei.
Das wars vorerst von meiner Seite.
Würde mich über Kritik, ob positiv oder negativ, sehr freuen. Danke im Voraus!
EDIT:
Für alle Interessierten: Dieses Projekt auf GitHub