GENERACIÓN DE VIDEO SINTÉTICO DE POSICIÓN CONFIGURABLE A PARTIR DE VARIOS VIDEOS FIJOS
Fecha
2021-04Autor
UBIERGO REYES, SEBASTIÁN IAN ANTONIO
Metadatos
Mostrar el registro completo del ítemResumen
En la actualidad cada vez son más las aplicaciones que aprovechan la realidad
virtual para sumergir al usuario en un ambiente virtual con fines de entretención,
educación, tratamientos psicológicos entre otros. Sin embargo, se ha detectado en
varias de estas aplicaciones, que cuando se desea sumergir al consumidor en un
escenario real, a este último se le limitada los lugares en que puede estar. Esta decisión
de diseño resulta comprensible teniendo en cuenta que resulta imposible contar con
cámaras para todas las posibles posiciones en que el usuario pueda llegar a posicionarse.
Debido a esto último, y con la intención de que en futuros trabajos se puedan desarrollar
aplicaciones de realidad virtual que permitan un libre movimiento en un escenario real,
es que con este proyecto se busca poder generar una vista sintética del escenario a partir
de señales de videos entregadas por cámaras fijas y finitas.
Para lograr el objetivo del proyecto, este se dividió en tres etapas de desarrollo. La
primera etapa consiste en desarrollar un sensor de imagen-profundidad compuesto por
dos cámaras con el cual se pueda extraer una imagen a color del escenario junto con su
información de profundidad de cada pixel. La segunda etapa se centra en utilizar la
información entregada por dos sensores de imagen-profundidad para generar un nuevo
punto de vista de la escena, para ello se genera una imagen de la perspectiva deseada
por cada sensor y luego se procede a combinarlas en una sola imagen. Finalmente se
desarrolla de una interfaz gráfica que permita visualizar en un monitor el video sintético
y poder manipular la posición en que se desea generar.
El proyecto logró resultados satisfactorios, permitiendo al usuario del sistema
generar una vista sintética de la escena y generar un video a partir de esa perspectiva