Suscríbete al boletín semanal

Suscríbete para recibir cada semana el boletín SINC con los contenidos más relevantes y no te pierdas nada de la actualidad científica.

Suscríbete al boletín semanal
Si estás registrado

No podrás conectarte si excedes diez intentos fallidos.

Si todavía no estás registrado

La Agencia SINC ofrece servicios diferentes dependiendo de tu perfil.

Selecciona el tuyo:

Periodistas Instituciones
Si estás registrado

No podrás conectarte si excedes diez intentos fallidos.

Si todavía no estás registrado

La Agencia SINC ofrece servicios diferentes dependiendo de tu perfil.

Selecciona el tuyo:

Periodistas Instituciones

Un robot que es "consciente" de su entorno e interacciona con humanos

Compartir el trabajo con un robot es uno de los objetivos que persigue el consorcio europeo que participa en el proyecto EYESHOTS. Durante los próximos 3 años, los cinco socios, entre los que se encuentra la Universitat Jaume I, desarrollarán un sistema de visión en 3D integrado con un brazo articulado mediante los cuales un robot podrá percibir y tomar conciencia de su entorno, predecir movimientos humanos y actuar en consecuencia.

EYESHOTS “Heterogeneous 3-D Perception Across Visual Fragments” es un proyecto de 3 años y está financiado por la Comisión Europea dentro del 7º Programa Marco. Coordinado por la Universidad de Génova (Italia), participan la UJI, la Universidad Westfälische Wilhems (Alemania), la Universidad de Bologna (Italia), y la Universidad Católica de Leuven (Bélgica). Cuenta con un presupuesto de 2.400.000 euros, de los cuales 374.500 euros se han destinado a la UJI, y está previsto que finalice en marzo de 2011.

La investigación pretende profundizar en la interacción existente entre el control de la visión y el movimiento y estudiar cómo explotar esta relación para alcanzar un conocimiento del entorno que permita a un robot actuar adecuadamente. Se abordarán temas cruciales en la robótica pero que a fecha de hoy no se han resuelto como son el reconocimiento de objetos, el cambio dinámico de atención y la percepción del espacio en 3D.

La investigación parte de la suposición de que a través de la exploración mediante los ojos y los brazos, el robot adquiere una percepción global del espacio visual que le permitirá comprender las acciones humanas en una zona de trabajo común y modificar sus propias acciones. Para ello, se considerarán tres elementos claves: el sistema oculomotor que consiste en una cabeza de robot con ojos móviles y cuello fijo, un brazo robótico dotado de un sistema de agarre basado en la visión y un sistema de rastreo visual y táctil.

La cabeza robótica dispondrá de un sistema binocular y unos sensores que simularán redes neuronales humanas y permitirán la exploración del espacio tridimensional en tiempo real. El proyecto propone aplicar el concepto de fragmentación visual que consiste en la interacción de diferentes componentes y su sintonización a la hora de realizar una tarea, en lugar de la representación frontal del entorno.

El robot, a partir de las señales que recibe, hace una representación de su entorno que se irá actualizando a medida de que cambie su situación. El agente robótico es capaz de tener en su punto de mira un objeto sin perder la conciencia de lo que le rodea y puede solicitar movimientos de brazos para interactuar con objetos de su entorno inmediato. Pero además, podrá detectar las acciones de su compañero humano, predecir sus movimientos futuros y reaccionar.

El escenario futuro de aplicación es un robot humanoide doméstico que entra en una habitación desconocida y mediante movimientos sacádicos de sus ojos y cabeza adquiere en unos segundos "consciencia" de su entorno para poder realizar tareas que incluyan abrir y cerrar puertas, coger y dejar objetos, etc.

Fuente: RUVID
Derechos: Creative Commons
Artículos relacionados
Alt de la imagen
Ninguna gafa hace ver nuevos colores a los daltónicos, según un análisis computacional

Usando simulaciones por ordenador, investigadores de la Universidad de Granada han comprobado que algunos filtros de color aumentan ligeramente los colores que se pueden discernir, pero la mejora es insignificante y el incremento no hace que las personas daltónicas perciban el mismo número de colores que las que no padecen este trastorno.

Alt de la imagen
Radiografías de tórax para detectar la COVID-19

Usando un algoritmo de inteligencia artificial, dos estudiantes de ingeniería han desarrollado un modelo que reconoce una infección por coronavirus con hasta un 97 % de precisión en radiografías torácicas. La herramienta está disponible on line para ayudar a los profesionales sanitarios en su diagnóstico de pacientes.