Suscríbete al boletín semanal

Recibe cada semana los contenidos más relevantes de la actualidad científica.

Agencia Sinc
Si estás registrado

No podrás conectarte si excedes diez intentos fallidos.

Si todavía no estás registrado

La Agencia SINC ofrece servicios diferentes dependiendo de tu perfil.

Selecciona el tuyo:

Periodistas Instituciones

Obtienen escenas tridimensionales a partir de vídeos y fotografías

Investigadores de la Universidad Politécnica de Madrid han participado en el desarrollo de nuevas técnicas para la recuperación de escenas tridimensionales a partir de fotografías o secuencias de vídeo. La ventaja es que estas técnicas no requieren tener conocimiento sobre la escena ni sobre la posición o características internas de las cámaras.

Vista de la reconstrucción tridimensional del Patio de los Reyes del Monasterio de San Lorenzo del Escorial. Se muestran también las posiciones de las cámaras. Fuente: UPM

La reconstrucción tridimensional consiste en la creación de un modelo virtual de un objeto o escena fotografiada. Esto es de gran utilidad en numerosas aplicaciones y, para hacerlas posibles, profesores del Grupo de Tratamiento de Imágenes de la UPM han participado en la creación de estos modelos virtuales, junto con investigadores de la Universidad Complutense de Madrid. Estos modelos podrían servir para que un arquitecto logre una integración virtual de un nuevo proyecto en un entorno real. O también, para que los modelos 3D de monumentos u obras de arte se puedan integrar en programas educativos para acercarlos a los estudiantes de forma interactiva.

La herramienta esencial para realizar la tarea inversa de recuperación de la realidad a partir de la imagen es la Geometría Proyectiva, originariamente motivada por la noción de perspectiva en la pintura y una de las ramas más clásicas de las Matemáticas.

En este trabajo, para llevar a cabo la reconstrucción, primero es necesario identificar puntos de distintas imágenes que se corresponden con el mismo punto de la escena registrada. En una segunda fase, se halla la localización espacial de puntos y cámaras así como los parámetros internos de éstas, usando para ello la correspondencia previamente obtenida. Y en una última fase se obtienen superficies definidas por los puntos a las que se añaden las texturas extraídas de las imágenes.

La contribución del grupo de investigadores de la Universidad Politécnica de Madrid y de la Universidad Complutense de Madrid está centrada en la segunda de estas fases (*). Los algoritmos usados utilizan únicamente el dato de que las cámaras tienen píxeles con forma cuadrada, permitiendo que todos los demás parámetros varíen arbitrariamente. Así, por ejemplo, las cámaras pueden hacer zoom, estar situadas en cualquier posición espacial, etc. Esto libera la técnica de restricciones comunes impuestas por algoritmos anteriores, tales como la constancia de la distancia focal.

Las técnicas de obtención de escenas tridimensionales encuentran también aplicación cinematográfica en la creación de vistas difíciles de filmar directamente. No están excluidas aplicaciones lúdicas, por ejemplo en la industria de juegos por ordenador, que necesita modelos realistas que sirvan de marco a las aventuras. También se encuentra utilidad en la reconstrucción virtual de edificios o monumentos destruidos de los que quede memoria gráfica. El coste del proceso es bajo, dado que el tratamiento informático puede realizarse en un PC.

Esta línea de investigación multidisciplinar, llevada a cabo conjuntamente por profesores del Grupo de Tratamiento de Imágenes de la UPM y del Departamento de Geometría y Topología de la UCM ha sido financiada por diversos proyectos nacionales. En la actualidad continúa recibiendo apoyo de los proyectos CENIT-VISION 2007-1007 y CICYT TEC2007-67764. Los detalles de los algoritmos y ejemplos de reconstrucciones pueden encontrarse en http://www.gti.ssr.upm.es/~jir/comp_vis.

_____________________________________________________________________

(*) Journal Of Mathematical Imaging And Vision 32 (2): 193-214 (2008): "Line Geometry and Camera Autocalibration”. Ronda, José Ignacio; Valdés, Antonio; Gallego, Guillermo

Fuente: Universidad Politécnica de Madrid
Derechos: Creative Commons
Artículos relacionados