Følgende artikel hjælper dig med: David Guetta bruger kunstig intelligens til at ‘genindsætte’ Eminems stemme
David Guetta, en berømt fransk DJ og producer, har brugt AI til at lave et spor med stemmen fra ingen ringere end den ikoniske rapper Eminem. Desuden var rapperen ikke engang klar over, at nummeret eksisterede, før det blev spillet ved en koncert. Sporet blev skabt ved at syntetisere Slim Shadys stemme ved hjælp af et neuralt netværk og tilføje det til sporet.

Selvom det endnu er uvist, om dette nummer nogensinde vil se en kommerciel udgivelse, åbner sagen uendelige muligheder for at bruge AI i musik. Så i fremtiden er det ikke kun muligt, at vi vil se flere hologrammer af døde berømte kunstnere, men også at vi vil være i stand til at få dem til at fremføre nye sange.
Du kan ikke kalde sporet en fuldgyldig pasform; “Eminem” gentager simpelthen den samme sætning flere gange (som i øvrigt også blev genereret af AI).
Det er ikke kun, at AI kan bruges til at skabe realistiske hologrammer af døde musikere (noget der allerede er blevet gjort). Nu er det også muligt bruge AI til at “tvinge” levende kunstnere til at fremføre nye sangeselv uden deres samtykke. Dette kan få stor indflydelse på musikindustrien, og det bliver interessant at se, hvordan det hele udvikler sig.

Dette rejser en masse spørgsmål om de juridiske konsekvenser af at bruge AI til at skabe musik. Det er klart, at Guetta ikke havde tilladelse fra Eminem til at bruge sin stemme, så det er uklart, om nummeret nogensinde ville blive udgivet offentligt. Denne sag åbner dog op for mange muligheder for at bruge AI i musik i fremtiden.
Selvfølgelig skal den juridiske side af tingene ordnes, før noget af dette kan ske i større skala. Men det er bestemt en spændende tid at være i live for musikelskere!
- I januar introducerede Google MusicLM, en model til at generere high-fidelity-musik fra tekstbeskrivelser. Den udkonkurrerer tidligere systemer i lydkvalitet og overholdelse af tekstbeskrivelsen og kan betinges af både tekst og melodi. MusicLM er blevet trænet på et stort korpus af musikpartiturer og kan generere musik i en række forskellige genrer, herunder klassisk, jazz og rock. Det er en vigtig udvikling inden for AI-genereret musik, da det åbner mulighed for at bruge AI til at generere lange, komplekse musikstykker, som kunne bruges i film, videospil eller andre medier.
- I december opdagede Riffusion-projektet en innovativ anvendelse af kunstig intelligens til billedgenerering i musikkomposition. AI er blevet brugt til at generere ny og spændende musik. Stable Diffusion kan bruges til at ændre eksisterende lydkompositioner og sample musiksyntese, samt til at producere ny musik ved at ændre spektrogrammer som svar på tekstkommandoer. Enhver kan bruge den til at lave deres egen musik, fordi den er open source og distribueres under MIT-licensen.
- Stanford University har annonceret EDGE, en kraftfuld musik-til-danse AI, der genererer dans baseret på lydinput. Den bruger Jukebox, en potent musikfunktionsudtrækker, og en transformer-baseret diffusionsmodel til at skabe fysisk troværdige, realistiske danse, mens den overholder enhver medfølgende musik. Mennesker, der vurderer, foretrækker danse genereret af EDGE.
Læs mere om AI og Metaverse: