Redes Sociales

Sígueme en Facebook Sígueme en Twitter Sígueme en Likedin Sígueme en Instagram Sígueme en Pinterest Canal de youtube Sígueme en Blogger
Con la tecnología de Blogger.
domingo, 17 de febrero de 2013

IMAGEN HUMANA VIRTUAL EN ARQUEOLOGÍA Y PATRIMONIO VIRTUAL


La animación puede explicar lo que la mente del hombre pueda concebir. Esta facilidad la hace uno de los medios más versátiles y explícitos de comunicación que se han diseñado para la rápida apreciación masiva. | Walt Disney

OBJETIVOS: 
Ver las técnicas y métodos actuales de la modelización de personajes virtuales en entornos 3D, además de los productos comerciales aplicados al patrimonio virtual. De una forma sencilla, se muestra el procedimiento para diseñar, modelizar y animar personajes, (sin necesidad de programar).

REFLEXIÓN: 
Todavía existen profesionales del campo que piensan que tanto la representación de la figura humana como otros tipo de detalles que ayudan en la recreación, son innecesarios, falsean, enmascaran y sobran en un proyecto de patrimonio virtual con base científica.  

Sin embargo, es evidente que hoy en día la inserción de la figura humana en entornos virtuales es necesaria. Pero ¡ojo!, tampoco hay que abusar de la imagen humana como por ejemplo se hizo en el corto de Carthago Nova, proyecto que a pesar de tener excelentes reconstrucciones virtuales y ser finalista a la mejor película de animación de los premios Goya 2012, acaba destruyendo un poco la historia arqueológica del lugar
 

Premios Goya 2012: Finalista Mejor Película de Animación

Para más información sobre el proyecto:


DOCUMENTOS:
He encontrado útil la práctica de esta semana porque desconocía programas de animación de figuras,  tanto Makehuman como Fractal Poser son fáciles de usar y cualquier usuario puede crear una figura humana animada rápidamente y exportarla a otro software de renderización como 3DStudio Max.

Para la creación de mi avatar he importado uno de los modelos disponibles en la página web, así como sus texturas. Luego he ido siguiendo el manual para probar las diferentes opciones de la interfaz,  lógica y de fácil manejo, hasta llegar a un avatar modificado satisfactorio (Fig.1):  

 Fig.1. Modelo en Makehuman

Posteriormente he probado a exportarlo en formato .obj para poder así importarlo en 3DStudio Max, que es el software con el que estoy familiarizada y normalmente trabajo para renderizar. El proceso ha sido muy sencillo mostrando varias opciones de importación que me han parecido adecuadas (Fig.3). Una vez importado el modelo, conservaba todas sus texturas y ha sido fácil de modificar los materiales (Fig.2):  
 
 Fig.2. Modelo en 3Dstudio Max 

De la misma forma, he probado ha modificar el avatar que viene por defecto en Fractal Poser, le he añadido la textura de la cara y he modificado sus articulaciones variando su posición inicial. 

 Fig.3. Opciones de importación

Una vez modificado lo he exportado en formato .3ds para poder importarlo de nuevo en 3DStudio Max. Con esta segunda prueba también se ha observado que el proceso parece bastante sencillo y todas sus características se han importado correctamente (Fig.4). 

 Fig.4. Modelo importado en 3DStudio Max

Se observa a simple vista que este software y su interfaz son más complicados de usar que Makehuman. Además algunas opciones de renderizado y animación interesantes (Fig.5).

Fig.5. Video animación de prueba


Sin embargo he de decir que para mi este ejecicio de creación de figuras humanas animadas me ha recordado al proceso de creación de avatares del juego "Los Sims", dado que se utilizan interfaces intuitivas como si de un juego se tratara:

Ejemplo creación avatar Los Sims


MATERIA APRENDIDA:
          • Capacidad para entender que es la creación de avatares virtuales y sus características.
          • Capacidad para diseñar y animar personajes virtuales humanos.
          • Capacidad de definir los objetivos y tareas de los personajes.
          • Capacidad para tener una visión general de los personajes y su importancia en arqueología y patrimonio virtual.
          • Conocer y manejar las técnicas habituales y programas comerciales de captura del movimiento humano y su modelización en el ordenador.


REPRODUCCIÓN:
Esta semana voy a nombrar dos fuentes que me han ayudado a entender mejor este tema, además de destacar el post sobre Kinect:
A.- Análisis, diseño e implementación de un sistema de captura óptico de bajo coste orientado a dispositivos de visualización inmersiva. Tesis Doctoral en Informática y Matemáticas Computacional de Jesús Gimeno Sancho. Universdad de Valencia, 2006-2007:
Tabla comparativa entre los distintos sistemas
 



C.- Captura de Movimiento con Kinect – Motion Capture with Kinect
2011/03/02

ACTUALIZACIÓN (29/09/2011): Los links que no funcionaban están actualizados, pero la información que se da en el artículo hacía referencia a versiones anteriores de los programas, por lo que actualmente puede haber ligeras variaciones.

Kinect y sus “hacks” han conseguido llevar la captura de movimiento a la electrónica de consumo. Este proceso, que tradicionalmente ha sido caro y costoso, ahora se puede realizar de forma barata y sencilla con Kinect. No dispondremos de una gran precisión, ni de una gran área de acción, pero a causa de las ventajas comentadas y de su buena proyección de futuro lo hemos comprado para probarlo, estudiarlo y usarlo en nuestro Proyecto de I+D+i.

Actualmente disponemos de Brekel e iPi Soft, dos opciones para capturar movimiento con Kinect y exportarlo a programas como Maya o 3D Studio. A continuación explicaremos con detalle la instalación y manejo de ambas soluciones y los resultados obtenidos. No nos responsabilizamos de los posibles problemas que puedan surgir por seguir nuestras explicaciones.

Brekel

En primer lugar agradecemos a OpenNI y a Jasper Brekelmans que pongan a disposición su trabajo

1. Descarga e instala:
OpenNI: Descargar
Kinect drivers: Descargar
NITE: Descargar
O bien, instala los tres anteriores de una vez: All-in-one OpenNI Kinect Auto Installer

2. Conecta Kinect:
En Windows XP se detenctarán tres dispositivos (Kinect Camera, Kinect Motor y Xbox NUI Audio). Tendrás que especificar que busque automáticamente controladores para los mismos.

Todos se instalarán sin problemas con excepción de “Xbox NUI Audio”. No te preocupes ya que este no es necesario.

Administrador de dispositivos:


En Windows 7, el proceso es el mismo, aunque se realizará de forma automática.

Puedes probar que el proceso ha ido bien ejecutando uno de los test de OpenNI (instalado en el paso 1): C:\Archivos de programa\OpenNI\Samples\Bin\Release\NiSimpleViewer.exe


O bien con C:\Archivos de programa\OpenNI\Samples\Bin\Release\NiUserTracker.exe


Recuerda que la posición de la imagen anterior es la posición de calibración tras la que Kinect seguirá tus movimientos.
Si estos test no funcionan significa que algo ha ido mal, así que deberás repetir los pasos anteriores.

3. Descarga e instala Brekel (main application):


En las opciones de la parte de abajo debes activar la opción “NITE User Tracking” para que identifique las figuras humanas. Aumentando o disminuyendo “Skeleton smoothing” suavizarás el movimiento capturado. Si lo suavizas demasiado se producirá un molesto retardo. Un valor aconsejable es 0.6
Recuerda que Brekel tiene que estar funcionando al mismo tiempo que Motion Builder.

4. Descarga e instala Motion Builder
Motion Builder es un programa orientado a la animación y a la captura de movimiento de Autodesk. Puedes descargar una versión de prueba de 30 días desde la página de Autodesk o, si eres estudiante, una versión sin esa limitación.


5. Descarga e instala el plugin hecho por Brekel para Motion Builder (Motion Builder Device Plugin):

6. Integración entre Kinect, Brekel y Motion Builder
Este es el resultado final obtenido. Desde nuestro punto de vista es excelente para acciones sencillas, además, a diferencia de otros sistemas, no es necesario utilizar trajes ni escenarios especiales y tiene un bajo coste.

Video Motion capture with Kinect (1) de Prodak Sudio

Sigue el siguiente sencillo video-tutorial para dar los primeros pasos con Kinect y Motion Builder. En el vídeo añadiremos el dispositivo Kinect a la escena, haremos que Motion Builder tome los datos que este proporciona en tiempo real y crearemos un esqueleto asociado a dichos datos. Después grabaremos el movimiento y lo reproduciremos de nuevo.

Es necesario que Brekel esté funcionando y que esté siguiendo los movimientos de alguna persona.

Fuentes:

iPi Soft

iPi Soft posee una serie de programas para captura de movimiento y en la beta mas reciente ha dado soporte para Kinect.

 
Puedes descargar una versión de prueba desde su página:

Este programa no lo hemos probado todavía, así que enlazamos a la documentación oficial donde explican de forma muy detallada como hacerlo funcionar con Kinect: AQUÍ

Fuente post:
SÍNTESIS:
Se trata de elegir el método para interpretar de la mejor manera posible lo que queremos. Muchas veces para llegar al público se tiende a trivilializar algunos aspectos, humanización con sus pros y sus contras.

Con este capítulo se cierra el Bloque 4 el cual proporciona, de la manera más prácitca, los mejores ingredientes de la AV de implantarlo en el territorio en 3D y poder insertar la figura humana. 

Conceptos nuevos:
          • Image features: Entidades de bajo nivel de las imágenes.
          • Sistemas Outside-in: Sistemas ópticos
          • Sistema Inside-out:Sistemas Electromagnéticos
          • Sistema Inside-in: Sistemas Electromecánicos
          • Híbrido Gypsy: Electromecánico y óptico
          • Gyros: Pequeños sensores inerciales de estado sólido para medir con precisión las rotaciones exactas de los huesos de los actores en tiempo real, consiguiendo mayor realismo.
          • Ángulos de Euler: Tres ángulos que nos indican la orientación.
          • Keyframing: Imágenes clave
          • Performance animation / live recording: Registro en tiempo real, una técnica prometedora para el control del movimiento y el posicionamiento 3D de modelos humanos con un número importante de grados de libertad.  
          • Resolved motion rate: Técnica de cinemática inversa basada en la inversión de la matriz jacobiana.
          • End-effectors: Segmentos o efectores finales.  


Sofware nuevo y empresas nuevas:
          • Markerless Maskarad Facial Motion Capture de Metamotion
          • Sistema ExacTrack de Animazoo
          • PhaseSpace mocap de Vicon 
          • Cybergloves de Metamotion
          • AnthroTronix de AcceleGlove
          • OpenStage de Motion Orgánic 

Profesores: Dr. Francisco José Perales López y Dr. Ramón Mas-Sansó
Unidad de Gráficos y Visión por Ordenador e IA (UGivIA)
Universidad de les Illes Balears. UIB. Palma de Mallorca. 
 

BUSCAR

TOP 10