Nyheder

Nyt system kombinerer iPhone-videoer til tilgængelig 4D-videoredigering

Nyt system kombinerer iPhone-videoer til tilgængelig 4D-videoredigering



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Forskere ved Carnegie Mellon University har kombineret iPhone-videoer, der er optaget fra separate kameraer, for at skabe 4D-visualiseringer, som giver seerne mulighed for at se hurtige handlinger fra forskellige vinkler, ifølge en ny pressemeddelelse. Den nye optageproces kan endda fjerne personer eller genstande fra visningen.

Denne nye metode - som lader videoredigerere vise nye tricks i realtid - kan have konsekvenser for et tidspunkt, hvor teknologi til ansigtsudskiftning allerede er på randen til at forårsage et seismisk skift i pålideligheden af ​​videoindhold.

RELATERET: FORSTÅELSE AF FJERDE DIMENSION FRA VORES 3D-PERSPEKTIV

Oprettelse af 4D-scener fra flere visualiseringer

Forestil dig en live begivenhed, hvor koncerten eller sportsspillet (for eksempel) er fanget fra enhver smartphone i teatret eller arenaen, og at enhver hindring for synsfeltet hurtigt kunne fjernes.

Det er svimlende, men også spændende.

Hver video - optaget uafhængigt af flere udsigtspunkter - fra gæster ved en bryllupsreception, kunne placere seerne der midt i øjeblikke, der varer evigt, Aayush Bansal, en ph.d. studerende i CMU's Robotics Institute, forklaret i pressemeddelelsen.

En anden applikation ligger i at optage skuespillere i en indstilling og derefter indsætte dem i en anden, tilføjede han.

"Vi er kun begrænset af antallet af kameraer," sagde Bansal og forklarede, at der ikke er nogen øvre grænse for, hvor mange videofeeds der kan kombineres.

At bringe filmstudier til iPhones

'Virtualiseret virkelighed', som Carnegie Mellon-pressemeddelelsen kalder det, er ikke noget nyt. Denne nye videooptagelsesmetode er vigtig, fordi den både er let og tilgængelig at bruge. Selvom det ikke er noget nyt, var virtualiseret virkelighed tidligere eksklusiv for studieopsætninger som CMU's Panoptic Studio, som kan prale af mere end 500 videokameraer indlejret i dets geodesiske vægge.

Imidlertid har det ikke været muligt indtil nu at kombinere visuel information om virkelige scener, der er optaget fra flere uafhængige og håndholdte kameraer, for at lave en enkelt omfattende model, der rekonstruerer en 3D-scene.

For at udvikle deres metode brugte Bansal og hans kolleger sammenfaldne neurale net (CNN'er), en type dyb læringsprogram, der er dygtig til at analysere visuelle data. Holdet fandt ud af, at scenespecifikke CNN'er i tilstrækkelig grad kan komponere forskellige uddrag i en fuld 4D-scene.

'Verden er vores studie'

For at demonstrere deres metode brugte forskerne op til 15 iPhones til at fange flere scener - herunder dans, kampsportdemonstrationer og endda flamingoer i National Aviary i Pittsburgh, i USA.

"Pointen med at bruge iPhones var at vise, at alle kan bruge dette system," sagde Bansal. "Verden er vores studie."

Bansal og hans kolleger præsenterede deres 4D-visualiseringsmetode på den virtuelle konference Computer Vision and Pattern Recognition i sidste måned. Selvom den hidtil usete, er denne nye teknologi bare starten på en ny fremtid for medie- og videooptagelse.


Se videoen: Apple Event October 13 (August 2022).