Meta introducerer Segment Anything, dens nye AI-model til billedsegmentering

Følgende artikel hjælper dig med: Meta introducerer Segment Anything, dens nye AI-model til billedsegmentering

Meta har introduceret Segment Anything, sin nye grundmodel til billedsegmentering. Processen med at identificere, hvilke billedpixel der tilhører et objekt, er en afgørende opgave i computersyn og bruges i en række forskellige applikationer, fra analyse af videnskabelige billeder til redigering af fotos.

I sin indledning blogindlægsatte virksomheden scenen ved at sige, at skabelse af nøjagtige segmenteringsmodeller til specifikke opgaver inden for computervision typisk har krævet specialiseret arbejde af tekniske eksperter med adgang til AI-træningsinfrastruktur og store mængder af omhyggeligt annoterede in-domænedata.

Dette kan dog snart ændre sig med Segment Anything-projektet, da dets nye datasæt og model forventes at gøre nøjagtige segmenteringsmodeller mere tilgængelige for et bredere publikum, hvilket eliminerer behovet for specialiseret teknisk ekspertise og infrastruktur. For at opnå det byggede forskerne en prompt-model, der er trænet på forskellige data og kan tilpasse sig specifikke opgaver, svarende til hvordan prompting bruges i naturlige sprogbehandlingsmodeller eller chatbots.

For yderligere at demokratisere segmentering gør Meta det massive SA-1B-datasæt tilgængeligt til forskningsformål, og Segment Anything-modellen er tilgængelig under en tilladelig åben licens (Apache 2.0). Derudover har virksomheden udviklet en demo der giver brugerne mulighed for at prøve SAM med deres egne billeder.

Meta ser potentielle use cases for SAM i AI-, AR/VR- og skaberdomænerne. SAM har potentialet til at blive et kritisk element i større AI-systemer, der har til formål at opnå en mere generel multimodal forståelse af verden. For eksempel kan det lette forståelsen af ​​både visuelt og tekstmæssigt indhold på en webside.

🔥 Anbefalede:  7 måder, cyberkriminelle bruger AI til romantik-svindel

Derudover kunne SAM i AR/VR-domænet muliggøre objektvalg baseret på en brugers blik og tillade objektet at blive “løftet” ind i 3D. Desuden kan indholdsskabere bruge SAM til at forbedre kreative applikationer, såsom at udtrække billedområder til collager eller videoredigering.

Meta har øget sin AI-indsats midt i det generative AI-boom og aftagende interesse for metaverset. På trods af virksomhedens 70 milliarder dollars satsning på metaverse, oplevede dens metaverse division Reality Labs et tab på 13,7 milliarder dollar sidste år. For nylig satte Meta også sin NFT-drift på Facebook og Instagram.

I et interview med Nikkei Asien onsdag sagde Meta CTO Chris Bosworth, at Metas topledere har brugt det meste af deres tid på AI. Meta CEO Mark Zuckerberg annoncerede i februar en ny produktgruppe med fokus på generativ AI efter at have frigivet sin nye store sprogmodel kaldet LLaMA (Large Language Model Meta AI).

Virksomheden forventes at debutere nogle annonceskabende AI-applikationer i år, fortalte Bosworth til Nikkei.

Læs mere: