Suscríbete al boletín semanal

Recibe cada semana los contenidos más relevantes de la actualidad científica.

Agencia Sinc
Si estás registrado

No podrás conectarte si excedes diez intentos fallidos.

Si todavía no estás registrado

La Agencia SINC ofrece servicios diferentes dependiendo de tu perfil.

Selecciona el tuyo:

Periodistas Instituciones

Dan un nuevo paso en la navegación visual de los robots móviles

Iván Villaverde, miembro del Grupo de Inteligencia Computacional de la Facultad de Informática de la UPV/EHU, ha aplicado por primera vez a robots móviles unos algoritmos que se utilizan, entre otras, en el análisis de imágenes hiperespectrales. Con esta aplicación, su propósito es que los robots mejoren su capacidad de localización espacial y sus recursos para detectar el entorno.

Iván Villaverde, autor de la tesis. Foto: UPV/EHU.

La tesis doctoral de Villaverde se titula On computational intelligence tools for vision based navigation of mobile robots (Técnicas de inteligencia computacional para navegación visual de robots móviles). Este investigador ha estudiado cómo se puede mejorar la navegación visual de pequeños robots móviles, los cuales podrían resultar útiles en el entorno laboral (por ejemplo, para repartir el correo de mesa en mesa), aplicando técnicas que nunca antes se habían probado en la robótica.

El estudio se basa en un sistema algebraico que utilizan en la línea que investiga la hiperespectrometría: la computación reticular. Se trata de un sistema basado en conjuntos de datos (en vez de en números) con un ordenamiento interno concreto. Tal y como se ha podido concluir, esta técnica, entre otras, puede resultar útil para la mejora de la navegación visual de los robots.

Villaverde ha trabajado con dos tipos de sensores básicos que se incluyen en los robots móviles para desarrollar el sistema de navegación: las cámaras ópticas y las cámaras 3D de detección de rango.

Estos serían los ojos del robot, y el investigador ha reparado en tres cuestiones primordiales para que estos ojos vean correctamente: la localización del propio robot, la capacidad del robot para detectar sus propios movimientos (que pueda concretar dónde está, sin necesidad de analizar la información exterior), y la capacidad de construir el mapa (distancias, obstáculos…) de un entorno que le es desconocido.

La computación reticular y un sistema híbrido

En estas tres cuestiones se han aplicado la antes mencionada computación reticular y algunas otras técnicas innovadoras. Precisamente, Villaverde ha hecho uso de la computación reticular para la autolocalización del robot en mapas cualitativos y la detección de balizas visuales con cámaras ópticas. Ésta es una de las aportaciones principales de la tesis.

En cambio, para mejorar la localización métrica con cámaras de 3D, Villaverde ha aplicado un innovador sistema híbrido: la combinación de técnicas de evolución y redes neuronales competitivas. Las técnicas de evolución son algoritmos genéticos, y las redes neuronales, códigos que actúan como el sistema nervioso del ser humano.

Por lo tanto, ambas simulan las mutaciones y evoluciones humanas. El investigador ha aplicado estas técnicas a las cámaras 3D, y, concretamente, a la estimación de las transformaciones entre vistas 3D, que proporcionan, a su vez, la estimación del movimiento del robot.

Villaverde también ha realizado un experimento básico mediante el cual ha comprobado que estas aplicaciones innovadoras son, efectivamente, válidas para la navegación visual de los robots. Ha realizado en un astillero una prueba con unos robots que serían capaces de transportar una manguera. Ha elegido realizar el experimento en un astillero, porque contienen unas referencias espaciales inusuales, y, por lo tanto, más complicadas de detectar para los robots. Ha sido un experimento en primera fase, por lo que a los robots no se les ha exigido más que cumplir unas funciones sencillas, pero la tesis ha indicado un resultado positivo.

Fuente: UPV/EHU
Derechos: Creative Commons
Artículos relacionados