{"id":1196,"date":"2019-01-25T21:01:17","date_gmt":"2019-01-25T21:01:17","guid":{"rendered":"http:\/\/robots-argentina.com.ar\/didactica\/?p=1196"},"modified":"2019-01-25T21:30:20","modified_gmt":"2019-01-25T21:30:20","slug":"dando-sentido-del-tacto-a-los-robots","status":"publish","type":"post","link":"https:\/\/robots-argentina.com.ar\/didactica\/dando-sentido-del-tacto-a-los-robots\/","title":{"rendered":"Dando sentido del tacto a los robots"},"content":{"rendered":"

La tecnolog\u00eda GelSight permite a los robots medir la dureza de los objetos y manipular herramientas peque\u00f1as<\/h3>\n

Hace ocho a\u00f1os, el grupo de investigaci\u00f3n de Ted Adelson en el Laboratorio de Ciencias de la Computaci\u00f3n e Inteligencia Artificial (CSAIL) de MIT revel\u00f3 una nueva tecnolog\u00eda de sensores, llamada GelSight<\/a><\/strong>, que utiliza el contacto f\u00edsico con un objeto para proporcionar un mapa tridimensional notablemente detallado de su superficie.<\/p>\n

Ahora, al montar sensores GelSight<\/strong> en las pinzas de los brazos rob\u00f3ticos, dos equipos del MIT le han dado a los robots una mayor sensibilidad y destreza. Los investigadores presentaron su trabajo en dos art\u00edculos en la Conferencia Internacional sobre Rob\u00f3tica y Automatizaci\u00f3n.<\/p>\n

\"\"<\/a><\/p>\n

En un art\u00edculo, el grupo de Adelson usa los datos del sensor GelSight<\/strong> para permitir que un robot juzgue la dureza de las superficies que toca, una habilidad crucial si los robots dom\u00e9sticos deben manejar objetos cotidianos.<\/p>\n

En el otro, Robot Locomotion Group de Russ Tedrake en CSAIL utiliza sensores GelSight<\/strong> para permitir que un robot manipule objetos m\u00e1s peque\u00f1os de lo que era posible antes.<\/p>\n

El sensor GelSight<\/strong> es, de alguna manera, una soluci\u00f3n de baja tecnolog\u00eda para un problema dif\u00edcil. Consiste en un bloque de elast\u00f3mero<\/a><\/strong> transparente, el \u00abgel\u00bb en el nombre de sensor, una cara del cual est\u00e1 recubierta con pintura met\u00e1lica. Cuando la cara cubierta de pintura se presiona contra un objeto, se ajusta a la forma del objeto.<\/p>\n

La pintura met\u00e1lica hace que la superficie del objeto sea reflectiva, por lo que su geometr\u00eda se vuelve mucho m\u00e1s f\u00e1cil de inferir para los algoritmos de visi\u00f3n de computadora. Montados en el sensor opuesto a la cara recubierta de pintura del bloque el\u00e1stico, hay tres luces de colores y una sola c\u00e1mara.<\/p>\n

\u00ab[El sistema] tiene luces de colores en diferentes \u00e1ngulos, y luego tiene este material reflectivo, y al mirar los colores, la computadora … puede descubrir la forma 3D y qu\u00e9 es esa cosa\u00bb, explica Adelson, profesora de Ciencias de la Visi\u00f3n en el Departamento de Cerebro y Ciencias Cognitivas.<\/p>\n

\"\"<\/a><\/p>\n

En ambos conjuntos de experimentos, se mont\u00f3 un sensor GelSight<\/strong> en un lado de una pinza rob\u00f3tica, un dispositivo parecido a la cabeza de una pinza pero con superficies de agarre planas en lugar de puntas puntiagudas.<\/p>\n

Puntos de contacto<\/strong><\/p>\n

Para un robot aut\u00f3nomo, medir la suavidad o dureza de los objetos es esencial para decidir no solo d\u00f3nde y qu\u00e9 tan dif\u00edcil es agarrarlos, sino tambi\u00e9n c\u00f3mo se comportar\u00e1n cuando los mueva, apile o coloque en diferentes superficies. La detecci\u00f3n t\u00e1ctil tambi\u00e9n podr\u00eda ayudar a los robots a distinguir objetos que se ven parecidos.<\/p>\n

En trabajos anteriores, los robots han intentado evaluar la dureza de los objetos coloc\u00e1ndolos sobre una superficie plana y empuj\u00e1ndolos suavemente para ver cu\u00e1nto dan. Pero esta no es la principal forma en que los humanos miden la dureza. M\u00e1s bien, nuestros juicios parecen basarse en el grado en que el \u00e1rea de contacto entre el objeto y nuestros dedos cambia a medida que lo presionamos. Los objetos m\u00e1s blandos tienden a aplanarse m\u00e1s, aumentando el \u00e1rea de contacto.<\/p>\n

\"\"<\/a><\/p>\n

Los investigadores del MIT adoptaron el mismo criterio. Wenzhen Yuan, una estudiante graduada en ingenier\u00eda mec\u00e1nica y primera autora del art\u00edculo del grupo de Adelson, us\u00f3 moldes de confiter\u00eda para crear 400 grupos de objetos de silicona, con 16 objetos por grupo. En cada grupo, los objetos ten\u00edan las mismas formas pero diferentes grados de dureza, que Yuan med\u00eda usando un instrumento industrial est\u00e1ndar.<\/p>\n

Ella luego presion\u00f3 un sensor GelSight<\/strong> contra cada objeto manualmente, y registr\u00f3 c\u00f3mo iba cambiando el patr\u00f3n de contacto, en esencia produciendo una corta pel\u00edcula para cada objeto. Para estandarizar el formato de los datos y mantener el tama\u00f1o de los datos manejable, extrajo cinco cuadros de cada pel\u00edcula, espaciados uniformemente en el tiempo, lo que describe la deformaci\u00f3n del objeto que se presion\u00f3.<\/p>\n

\nhttp:\/\/robots-argentina.com.ar\/didactica\/wp-content\/uploads\/GelSight-360p.mp4<\/a><\/video><\/div>\n

Finalmente, aliment\u00f3 los datos a una red neuronal, que buscaba autom\u00e1ticamente las correlaciones entre los cambios en los patrones de contacto y las mediciones de dureza. El sistema resultante toma cuadros de video como entradas y produce un puntaje de dureza con una precisi\u00f3n muy alta. Yuan tambi\u00e9n realiz\u00f3 una serie de experimentos informales en los que sujetos humanos palparon frutas y verduras y los clasificaron seg\u00fan su dureza. En todos los casos, el robot equipado con GelSight<\/strong> lleg\u00f3 a las mismas conclusiones.<\/p>\n

A Yuan se le unieron en el documento sus dos asesores de tesis, Adelson y Mandayam Srinivasan, investigador cient\u00edfico senior en el Departamento de Ingenier\u00eda Mec\u00e1nica; Chenzhuo Zhu, estudiante de la Universidad de Tsinghua que visit\u00f3 el grupo de Adelson el verano pasado; y Andrew Owens, quien realiz\u00f3 su doctorado en ingenier\u00eda el\u00e9ctrica y ciencias de la computaci\u00f3n en el MIT y ahora es postdoctorado en la Universidad de California en Berkeley.<\/p>\n

Visi\u00f3n obstruida<\/strong><\/p>\n

El documento de Robot Locomotion Group naci\u00f3 de la experiencia del grupo con el Desaf\u00edo de Rob\u00f3tica (DRC) de la Agencia de Proyectos de Investigaci\u00f3n Avanzada de la Defensa, en el que equipos acad\u00e9micos y de la industria compitieron para desarrollar sistemas de control que guiar\u00edan a un robot humanoide a trav\u00e9s de una serie de tareas relacionadas con una emergencia hipot\u00e9tica.<\/p>\n

Normalmente, un robot aut\u00f3nomo utiliza alg\u00fan tipo de sistema de visi\u00f3n por computadora para guiar su manipulaci\u00f3n de objetos en su entorno. Dichos sistemas pueden proporcionar informaci\u00f3n muy confiable sobre la ubicaci\u00f3n de un objeto, hasta que el robot recoge el objeto. Especialmente si el objeto es peque\u00f1o, gran parte de \u00e9l ser\u00e1 ocluido por la pinza del robot, lo que hace que la estimaci\u00f3n de la ubicaci\u00f3n sea mucho m\u00e1s dif\u00edcil. Por lo tanto, exactamente en el punto en el que el robot necesita conocer la ubicaci\u00f3n del objeto con precisi\u00f3n, su estimaci\u00f3n se vuelve poco confiable. Este fue el problema al que se enfrent\u00f3 el equipo de MIT durante el DRC, cuando su robot tuvo que levantar y encender un taladro el\u00e9ctrico.
\n


\n