octombrie 7, 2024

Obiectiv Jurnalul de Tulcea – Citeste ce vrei sa afli

Informații despre România. Selectați subiectele despre care doriți să aflați mai multe

Google vizează realizatorii de film cu Veo, noul său model video bazat pe inteligență artificială

Google vizează realizatorii de film cu Veo, noul său model video bazat pe inteligență artificială

Au trecut trei luni de când OpenAI și-a demonstrat captivantul AI text-to-video, Sora, iar acum Google încearcă să fure o parte din acest reflector. A fost anunțat în timpul conferinței dezvoltatorilor I/O de marți, spune Google Vedere – Model video generativ de ultimă generație alimentat de AI – poate crea videoclipuri „HD” 1080p de 1 minut într-o gamă largă de stiluri vizuale și cinematografice.

Veo are „înțelegere avansată a limbajului natural”, potrivit unui comunicat de presă Google, permițând modelului să înțeleagă termeni cinematografici precum „time-lapse” sau „capturi aeriene ale peisajelor”. Utilizatorii pot direcționa rezultatele dorite folosind text, imagini sau solicitări bazate pe video, iar Google spune că videoclipurile rezultate sunt „mai consistente și mai coerente”, ilustrând mișcarea mai realistă a oamenilor, animalelor și obiectelor în timpul fotografiilor.

Iată câteva exemple, dar ignorați rezoluția scăzută dacă puteți – a trebuit să comprimăm videoclipurile explicative în GIF-uri.
Imagine: Google

Demis Hassabis, CEO al Google DeepMind, a declarat luni într-o previzualizare de presă că rezultatele video pot fi îmbunătățite cu solicitări suplimentare și că Google explorează funcții suplimentare pentru a permite Veo să producă storyboard-uri și scene mai lungi.

Ca și în cazul multor dintre aceste previzualizări ale modelelor AI, majoritatea oamenilor care speră să încerce singuri Veo vor trebui probabil să aștepte ceva timp. Google spune că invită realizatorii de film și creatorii selectați să piloteze modelul pentru a determina cum să-i sprijine cel mai bine pe creatori și că se va baza pe această colaborare pentru a se asigura că „creatorii au o voce” în modul în care sunt dezvoltate tehnologiile AI Google.

Puteți vedea aici cum soarele apare din nou corect în spatele calului și cum lumina strălucește ușor prin coadă.
Imagine: Google

Unele funcții Veo vor fi, de asemenea, disponibile pentru „creatori selectați în următoarele săptămâni” într-o previzualizare specială în VideoFX – puteți Înscrie-te pe lista de așteptare aici Pentru a avea o șansă devreme de a-l încerca. În afară de asta, Google intenționează să adauge, de asemenea, unele dintre capabilitățile sale la YouTube Shorts „în viitor”.

Acesta este unul dintre modelele de generație video pe care Google le-a produs în ultimii ani, de la Phenaki și Imagen Video – care au produs videoclipuri brute și adesea distorsionate – până la modelul Lumiere pe care l-a prezentat în ianuarie a acestui an. Acesta din urmă a fost unul dintre cele mai impresionante modele pe care le-am văzut înainte ca Sora să fie anunțată în februarie, Google afirmând că Veo este mai capabil să înțeleagă ce este în video, să simuleze fizica reală, să ofere rezultate de înaltă definiție și multe altele.

Între timp, OpenAI face deja demo-uri pe Sora la Hollywood și intenționează să o lanseze publicului în cursul acestui an, după ce a anunțat anterior în martie că ar putea fi gata în „câteva luni”. De asemenea, compania caută deja să integreze audio în Sora și poate face modelul disponibil direct în aplicațiile de editare video precum Adobe Premiere Pro. Deoarece Veo este, de asemenea, prezentat ca un instrument pentru regizori, începerea timpurie a OpenAI ar putea îngreuna concurența proiectului Google.