Stable Diffusion kan skabe ny musik ved at generere spektrogrammer baseret på tekst

Følgende artikel hjælper dig med: Stable Diffusion kan skabe ny musik ved at generere spektrogrammer baseret på tekst

Siden de tidlige dage af AI har forskere forsøgt at bruge det til at generere ny og interessant musik. Holdet bag Riffusionsprojekt har fundet en meget original brug af AI til billedgenerering i musikproduktion. De trænede den åbne stabile diffusionsmodel på spektrogrambilleder, der afbilder frekvensen og amplituden af ​​en lydbølge over tid, samt en tekstbeskrivelse. Som et resultat kan AI generere nye spektrogrammer baseret på dine tekstanmodninger, og når du afspiller dem, afspilles der musik.

Stable Diffusion kan skabe ny musik ved at generere spektrogrammer baseret på tekstAI kan generere ny musik ved at ændre spektrogrammer som svar på dine anmodninger.

I lighed med billedmodifikation i Stable Diffusion kan metoden bruges til at ændre eksisterende lydkompositioner og sample musiksyntese. Du kan også kombinere forskellige stilarter, lave en glidende overgang fra en stilart til en anden eller ændre en eksisterende lyd for at løse problemer som at øge lydstyrken på individuelle instrumenter, ændre rytmen og udskifte instrumenter.

Den stabile diffusionsalgoritme viser allerede meget lovende for musikgenerering. Og da det er open source og licenseret under MIT-licensen, kan alle bruge det til at skabe deres egen musik. På projektets hjemmeside kan du lytte til eksempler på genereret musik.

Lyt til disse nyskabte musikeksempler af Stable Diffusion:

Læs mere om musik og kunstig intelligens:

🔥 Anbefalede:  5 måder, hvorpå e-handelsvirksomheder kan drage fordel af pop-up butikker