Cuando se intenta “confundir” a los robots respecto a la posición en que están ubicados, las máquinas reaccionan como lo haría un ser humano
Agencia
Municipiosur.com
Cuando se intenta “confundir” a los robots respecto a la posición en que están ubicados, las máquinas reaccionan como lo haría un ser humano, según los primeros resultados de innovador proyecto para mejorar la interacción de la robótica y las personas.
Conseguir que los robots aprendan a reconocer su propio cuerpo y distinguirlo de otros elementos es el objetivo del proyecto Selfception, con el que colaboran Pablo Lanillos, experto en inteligencia artificial, y Gordon Cheng, de la Universidad Tecnológica de Múnich y director del Instituto de Sistemas Cognitivos.
La investigación está en desarrollo y combina robótica con psicología cognitiva. Sus resultados finales se validarán con el fabricante español Pal Robotics.
En un experimento se sometió a robots con piel artificial a estimulaciones visuales y táctiles que los exponían a “ilusiones” para confundirlos. Se les hacía creer que “su mano no era su mano” y los datos confirman por primera vez en este ámbito que “cuando se les crea ese tipo de ilusiones los robots adaptan sus reacciones igual que los humanos”.
Lanillos, doctor en Inteligencia Artificial por la Facultad de Informática de la Universidad Complutense de Madrid, explica que los robots identifican sus posiciones de acuerdo con la información que reciben de sus sensores, como lo hacen las personas con lo que ven, tocan o perciben.
El experto español, inspirado en corrientes neurocientíficas actuales, insiste en el avance que significaría para la interacción de máquinas y personas lograr que los robots distinguieran su “yo” del resto del mundo.
Los robots domésticos apenas interactúan físicamente con la gente. En muchas ocasiones ni siquiera tienen extremidades, precisamente por seguridad, “dado que no son capaces de discernir el posible riesgo físico para el hombre que entrañan sus movimientos”.

