OpenAI arbeitet an einem neuen Werkzeug, das Musik aus Text- und Audioeingaben generieren soll. Laut einem Bericht von The Information (Bezahlschranke) könnte das System Musik zu bestehenden Videos hinzufügen oder sogar Gitarrenbegleitung für eingesungene Vocals erzeugen. Wann das Tool erscheinen soll, bleibt allerdings unklar - ebenso, ob es als eigenständiges Produkt oder direkt in ChatGPT beziehungsweise in das Video-Tool Sora integriert wird.
Ein interessantes Detail: OpenAI arbeitet offenbar mit Studierenden der Juilliard School zusammen, um Noten zu annotieren und so Trainingsdaten für das Modell zu liefern. Das klingt nach einem eleganten Versuch, KI-Musik auf eine fundierte, musikalisch korrekte Basis zu stellen - weit entfernt von den oft zufällig klingenden KI-Melodien früherer Experimente.
Generative Musik ist für OpenAI kein Neuland, doch die bisherigen Versuche stammen aus der Zeit vor ChatGPT. Seither hat sich der Fokus eher auf Sprachmodelle, Text-to-Speech und Speech-to-Text verschoben. Mit dem neuen Projekt könnte OpenAI den Kreis wieder schließen - von der geschriebenen Sprache über das gesprochene Wort bis hin zum vertonten Klang.
Der Wettbewerb schläft nicht: Google experimentiert mit „MusicLM“, während Startups wie Suno bereits textbasierte Songs generieren, die erstaunlich professionell klingen. Wenn OpenAI nun in den musikalischen Wettstreit einsteigt, dürfte das weniger ein Spielzeug als ein strategischer Schritt sein. Schließlich sind Musikrechte, Audioqualität und kreative Kontrolle die nächsten großen Baustellen der KI-Welt.
Noch gibt es keine öffentliche Stellungnahme von OpenAI. Aber eins ist klar: Die KI komponiert längst mit - die Frage ist nur, wer in Zukunft den Takt vorgibt.
Kommentare (0)