Guten Abend allerseits
Ich habe mich schon an allen möglichen Orten erkundigt – und jetzt wollte ich mal hier schauen, ob mir vielleicht jemand eine Idee auf realistische (und ökonomische : ) Machbarkeit beurteilen und/oder mich zu anderen Quellen weiterleiten kann.
Kontext ist Audio Studio und allenfalls live Setting.
Die Idee:
Audio Signale, also bestimmte Worte, Zahlen etc. per Spracherkennung zu identifizieren und den Ausdrücken spezifische MIDI Befehle zuzuordnen. Diese Befehle sollen in Echtzeit zur Steuerung von DAW und/oder Interface Software verwendet werden.
Einfachstes Beispiel: Mit einem Wort die TalkBack Taste der Mixersoftware ein- und ausschalten.
Und wenn es nicht komplett verrückt klingt: der Idealfall wäre natürlich am Ende, wenn ein Gesangsmikrofon als Gesangsmikrofon verwendet werden könnte, gleichzeitig aber auch Codeworte interpretieren und weitergeben kann.
Basic Setup:
RME UCXII (TotalMix Software, Kann per Mackie Protokoll gesteuert werden)
Ableton live elf auf MacBook Pro
Ich bin schon sehr gespannt darauf, ob sich so etwas überhaupt realisieren lässt.
Zsolt