Archivo de la categoría: Robots

Un robot que procura moverse tan bien como una hormiga

Los insectos en general son infaliblemente impresionantes por lo inteligentes y capaces que son, con un mínimo absoluto de detección y poder de cómputo. Cuando las cosas empiezan a ponerse realmente interesantes es cuando los insectos tienen que volverse inteligentes para manejar entornos especialmente difíciles. Las hormigas del desierto son un gran ejemplo de esto: mientras que la mayoría de las hormigas dependen de los senderos de las feromonas para navegar (recorren los senderos de su olor para regresar al nido), el calor del desierto significa que las feromonas no duran mucho. En cambio, las hormigas del desierto se basan en una variedad de técnicas, que incluyen el conteo de pasos, el flujo óptico, los puntos de referencia y, especialmente, la navegación solar.

Parece que estas técnicas podrían ser útiles para los robots pequeños y económicos que exploran el sistema solar, donde el GPS no está disponible y los sensores sofisticados vienen con un presupuesto de masa y energía para igualar. En Science Robotics, los investigadores describen cómo construyeron un robot con herramientas de navegación inspiradas en las hormigas del desierto, y pudieron hacer que deambulara un poco y que encontrara su camino a casa sin GPS, SLAM o algo un poco más complejo.

Lo primero que hay que entender es cómo navegan las hormigas del desierto. En general, el sistema que utilizan se denomina «integración de ruta», que es esencialmente el mismo que llamaríamos «recuento muerto». Al hacer un seguimiento de las distancias y direcciones recorridas en el tiempo, las hormigas pueden calcular la ruta más directa hacia atrás. a donde empezaron

Básicamente, si la hormiga se dirige al norte por un tiempo, y luego al este por el doble de tiempo, sabe que al viajar al sur y al oeste (el doble de largo), terminará bastante cerca de su posición inicial, y una vez que esté cerca, Puede reconocer visualmente puntos de referencia para volver exactamente a su nido.

Las hormigas del desierto son notablemente buenas en esto, como lo muestra la siguiente figura. Después de un viaje de ida y vuelta de casi 600 metros a lo largo de unos 20 minutos, la hormiga de un centímetro de longitud puede trazar una línea más o menos exactamente recta directamente a su nido en solo seis minutos.

Imagen: Aix Marseille University / CNRS / ISM Una hormiga del desierto C. fortis usa la «integración del camino» para encontrar su camino de regreso a su nido. La línea delgada muestra la trayectoria de salida (592.1 metros), con pequeños puntos negros que representan marcas de tiempo (cada 60 segundos). La hormiga regresó directamente a su nido (línea gruesa, 140.5 m de largo). El círculo pequeño (abajo a la derecha) marca la entrada del nido, y el negro grande muestra la ubicación de alimentación (centro superior).

Para que la integración del camino funcione, la hormiga debe rastrear dos cosas separadas: la distancia y la dirección. La distancia es la más fácil por mucho, ya que la hormiga puede usar una combinación (muy familiar para los robots) de conteo de zancadas y flujo óptico. La dirección es complicada: es bien sabido que las hormigas y otros insectos pueden usar el Sol para navegar, rastrear su ubicación en el cielo y corregir la rotación de la Tierra y el consiguiente movimiento aparente del Sol a lo largo del tiempo. Esto solo funcionaría cuando está realmente soleado, excepto que los ojos de las hormigas tienen fotorreceptores que son sensibles a la luz polarizada, lo que puede indicar la dirección del Sol, incluso si está nublado. Las hormigas también son sensibles a los rayos UV, lo que les ayuda a ver el Sol a través de la capa de nubes y el follaje.

Imagen: Aix Marseille University / CNRS / ISMAntBot es manejado por una placa Raspberry Pi 2B y sus sensores incluyen una brújula celeste, IMU y sensor de flujo óptico.

AntBot es un intento de replicar los sistemas de detección de las hormigas del desierto para ver qué tan bien un sistema autónomo podría usarlas para la navegación inspirada en las hormigas. AntBot es un hexápodo de 2,3 kilogramos, cuyas especificaciones físicas específicas no son realmente tan importantes para los fines de esta investigación. Lo que es importante son los sensores de AntBot, que incluyen un sensor óptico de flujo bioinspirado y una «brújula celeste inspirada en insectos» que consiste en un par de sensores de luz UV con polarizadores lineales giratorios. La brújula analiza la relación logarítmica entre los datos de estos dos sensores para determinar el ángulo de polarización de la luz entrante, que utiliza para determinar dónde está el Sol y, por lo tanto, en qué dirección está apuntando. AntBot puede hacerlo con mucha precisión: El error mediano fue de solo 0,02 ° cuando el cielo estaba ligeramente nublado, 0,59 ° bajo un cielo nublado.

Al combinar el seguimiento de la distancia del flujo óptico, el conteo de pasos y la navegación celeste al igual que la hormiga del desierto, probablemente no le sorprenda saber que AntBot pudo deambular repetidamente al azar en una distancia de unos 14 metros y luego regresar con éxito a su punto de partida. Esto es bueno, pero AntBot aún tiene mucho trabajo por hacer para demostrar que es tan talentoso como una hormiga, como señalan los investigadores:

“En su forma actual, AntBot tiene un diámetro de 45 cm y caminó a una velocidad de unos 10 cm/s durante los experimentos, mientras que las hormigas C. fortis desert tienen solo 1 cm de largo. Como se muestra en la Fig. 1A, la trayectoria de la hormiga mide 732,6 m. Por lo tanto, AntBot debería haber cubierto más de 32 km para poder compararlo adecuadamente con el rendimiento de navegación de las hormigas. Aunque AntBot puede caminar a velocidades de hasta 90 cm s, la navegación a gran escala requerirá mejorar los actuadores y la fuente de alimentación del robot hexápodo. Estas mejoras permitirán probar el modo PI-Full en contextos más naturales, como los terrenos escarpados en un entorno saturado (bosques) donde la vista del cielo a menudo está inhibida por la presencia de ramas y hojas en el campo visual de la brújula celeste.”

Es posible que los insectos hayan sido los primeros en descubrir este truco de luz polarizada, pero es posible que los humanos hayan estado usando una técnica similar para ayudarlos a navegar durante siglos. Hay algunas pruebas que sugieren que los vikingos (así como las culturas marineras posteriores que probablemente tuvieron la idea de los vikingos) podrían haber confiado en la luz polarizada para encontrar la ubicación del sol bajo un cielo cubierto usando una piedra solar, una de una pequeña cantidad de minerales que son birrefringentes. Los minerales birrefringentes son polarizadores, y cuando la luz entra en ellos, se divide en dos rayos que toman diferentes caminos a través de la piedra dependiendo de donde la fuente de luz es relativa a la piedra. Al mirar a través de la piedra hacia el cielo, es posible usar la birrefringencia para determinar dónde está el Sol con una precisión de unos pocos grados, incluso si está completamente nublado, o si el Sol está por debajo del horizonte. Todo lo que se necesita es un poco de luz solar, y una piedra solar funcionará.




El mineral birrefringente más común es la calcita, y los vikingos habrían tenido acceso a eso. Algunas leyendas vikingas se refieren directamente a las piedras solares, y las simulaciones han demostrado que el uso de una piedra solar podría haber tenido un gran impacto en la capacidad de los vikingos para realizar viajes prolongados a través del océano abierto. Los barcos vikingos y los sitios de entierro no han producido mucha calcita, pero es más frágil que los minerales y no necesariamente duraría tanto tiempo bajo el agua o en el suelo. Y si no terminaron usando algo como esto para navegar, bueno, realmente deberían haberlo hecho, porque tanto las hormigas como los robots están obteniendo grandes resultados con eso.

“AntBot: A six-legged walking robot able to home like desert ants in outdoor environments”
(«AntBot: un robot andante de seis patas capaz de vivir como hormigas del desierto en ambientes al aire libre»)
, por J. Dupeyroux; JR Serres; S. Viollet en la Universidad Aix de Marsella en Marsella, Francia, aparece en la edición actual de Science Robotics.


Dando sentido del tacto a los robots

La tecnología GelSight permite a los robots medir la dureza de los objetos y manipular herramientas pequeñas

Hace ocho años, el grupo de investigación de Ted Adelson en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) de MIT reveló una nueva tecnología de sensores, llamada GelSight, que utiliza el contacto físico con un objeto para proporcionar un mapa tridimensional notablemente detallado de su superficie.

Ahora, al montar sensores GelSight en las pinzas de los brazos robóticos, dos equipos del MIT le han dado a los robots una mayor sensibilidad y destreza. Los investigadores presentaron su trabajo en dos artículos en la Conferencia Internacional sobre Robótica y Automatización.

En un artículo, el grupo de Adelson usa los datos del sensor GelSight para permitir que un robot juzgue la dureza de las superficies que toca, una habilidad crucial si los robots domésticos deben manejar objetos cotidianos.

En el otro, Robot Locomotion Group de Russ Tedrake en CSAIL utiliza sensores GelSight para permitir que un robot manipule objetos más pequeños de lo que era posible antes.

El sensor GelSight es, de alguna manera, una solución de baja tecnología para un problema difícil. Consiste en un bloque de elastómero transparente, el «gel» en el nombre de sensor, una cara del cual está recubierta con pintura metálica. Cuando la cara cubierta de pintura se presiona contra un objeto, se ajusta a la forma del objeto.

La pintura metálica hace que la superficie del objeto sea reflectiva, por lo que su geometría se vuelve mucho más fácil de inferir para los algoritmos de visión de computadora. Montados en el sensor opuesto a la cara recubierta de pintura del bloque elástico, hay tres luces de colores y una sola cámara.

«[El sistema] tiene luces de colores en diferentes ángulos, y luego tiene este material reflectivo, y al mirar los colores, la computadora … puede descubrir la forma 3D y qué es esa cosa», explica Adelson, profesora de Ciencias de la Visión en el Departamento de Cerebro y Ciencias Cognitivas.

En ambos conjuntos de experimentos, se montó un sensor GelSight en un lado de una pinza robótica, un dispositivo parecido a la cabeza de una pinza pero con superficies de agarre planas en lugar de puntas puntiagudas.

Puntos de contacto

Para un robot autónomo, medir la suavidad o dureza de los objetos es esencial para decidir no solo dónde y qué tan difícil es agarrarlos, sino también cómo se comportarán cuando los mueva, apile o coloque en diferentes superficies. La detección táctil también podría ayudar a los robots a distinguir objetos que se ven parecidos.

En trabajos anteriores, los robots han intentado evaluar la dureza de los objetos colocándolos sobre una superficie plana y empujándolos suavemente para ver cuánto dan. Pero esta no es la principal forma en que los humanos miden la dureza. Más bien, nuestros juicios parecen basarse en el grado en que el área de contacto entre el objeto y nuestros dedos cambia a medida que lo presionamos. Los objetos más blandos tienden a aplanarse más, aumentando el área de contacto.

Los investigadores del MIT adoptaron el mismo criterio. Wenzhen Yuan, una estudiante graduada en ingeniería mecánica y primera autora del artículo del grupo de Adelson, usó moldes de confitería para crear 400 grupos de objetos de silicona, con 16 objetos por grupo. En cada grupo, los objetos tenían las mismas formas pero diferentes grados de dureza, que Yuan medía usando un instrumento industrial estándar.

Ella luego presionó un sensor GelSight contra cada objeto manualmente, y registró cómo iba cambiando el patrón de contacto, en esencia produciendo una corta película para cada objeto. Para estandarizar el formato de los datos y mantener el tamaño de los datos manejable, extrajo cinco cuadros de cada película, espaciados uniformemente en el tiempo, lo que describe la deformación del objeto que se presionó.

Finalmente, alimentó los datos a una red neuronal, que buscaba automáticamente las correlaciones entre los cambios en los patrones de contacto y las mediciones de dureza. El sistema resultante toma cuadros de video como entradas y produce un puntaje de dureza con una precisión muy alta. Yuan también realizó una serie de experimentos informales en los que sujetos humanos palparon frutas y verduras y los clasificaron según su dureza. En todos los casos, el robot equipado con GelSight llegó a las mismas conclusiones.

A Yuan se le unieron en el documento sus dos asesores de tesis, Adelson y Mandayam Srinivasan, investigador científico senior en el Departamento de Ingeniería Mecánica; Chenzhuo Zhu, estudiante de la Universidad de Tsinghua que visitó el grupo de Adelson el verano pasado; y Andrew Owens, quien realizó su doctorado en ingeniería eléctrica y ciencias de la computación en el MIT y ahora es postdoctorado en la Universidad de California en Berkeley.

Visión obstruida

El documento de Robot Locomotion Group nació de la experiencia del grupo con el Desafío de Robótica (DRC) de la Agencia de Proyectos de Investigación Avanzada de la Defensa, en el que equipos académicos y de la industria compitieron para desarrollar sistemas de control que guiarían a un robot humanoide a través de una serie de tareas relacionadas con una emergencia hipotética.

Normalmente, un robot autónomo utiliza algún tipo de sistema de visión por computadora para guiar su manipulación de objetos en su entorno. Dichos sistemas pueden proporcionar información muy confiable sobre la ubicación de un objeto, hasta que el robot recoge el objeto. Especialmente si el objeto es pequeño, gran parte de él será ocluido por la pinza del robot, lo que hace que la estimación de la ubicación sea mucho más difícil. Por lo tanto, exactamente en el punto en el que el robot necesita conocer la ubicación del objeto con precisión, su estimación se vuelve poco confiable. Este fue el problema al que se enfrentó el equipo de MIT durante el DRC, cuando su robot tuvo que levantar y encender un taladro eléctrico.




«Puedes ver en nuestro video para el DRC que pasamos dos o tres minutos encendiendo el taladro», dice Greg Izatt, un estudiante graduado en ingeniería eléctrica y ciencias de la computación y primer autor del nuevo artículo. «Sería mucho mejor si tuviéramos una estimación precisa y actualizada de dónde se realizó ese ejercicio y dónde estaban nuestras manos en relación con él».

Es por eso que Robot Locomotion Group se dirigió a GelSight. Izatt y sus coautores: Tedrake, el profesor de ingeniería eléctrica y ciencias de la computación de Toyota, aeronáutica y astronáutica, e ingeniería mecánica; Adelson; y Geronimo Mirano, otro estudiante graduado en el grupo de Tedrake, que diseñaron algoritmos de control que utilizan un sistema de visión computarizada para guiar la pinza del robot hacia una herramienta y luego pasar la estimación de la ubicación a un sensor GelSight una vez que el robot tiene la herramienta en mano.

En general, el desafío con este enfoque es reconciliar los datos producidos por un sistema de visión con los datos producidos por un sensor táctil. Pero GelSight se basa en una cámara, por lo que su salida de datos es mucho más fácil de integrar con datos visuales que los datos de otros sensores táctiles.

En los experimentos de Izatt, un robot con una pinza equipada con GelSight tuvo que agarrar un destornillador pequeño, sacarlo de una funda y volverlo a su lugar. Por supuesto, los datos del sensor GelSight no describen el destornillador completo, solo una pequeña parte de él. Pero Izatt descubrió que, mientras la estimación del sistema de visión de la posición inicial del destornillador era precisa en unos pocos centímetros, sus algoritmos podrían deducir qué parte del destornillador estaba tocando el sensor GelSight y así determinar la posición del destornillador en la mano del robot.

«Creo que la tecnología GelSight, así como otros sensores táctiles de gran ancho de banda, tendrán un gran impacto en la robótica», dice Sergey Levine, profesor asistente de ingeniería eléctrica y ciencias de la computación en la Universidad de California en Berkeley. “Para los seres humanos, nuestro sentido del tacto es uno de los factores clave en nuestra sorprendente destreza manual. Los robots actuales carecen de este tipo de destreza y tienen una capacidad limitada para reaccionar a las características de la superficie cuando manipulan objetos. Si se imagina buscar un interruptor de luz en la oscuridad, extraer un objeto de su bolsillo o cualquiera de las otras muchas cosas que puede hacer sin siquiera pensar, todo se basa en la detección táctil.»

«El software finalmente está alcanzando las capacidades de nuestros sensores», agrega Levine. “Los algoritmos de aprendizaje automático inspirados por las innovaciones en el aprendizaje profundo, y la visión por computadora puede procesar los ricos datos sensoriales de sensores como GelSight para deducir las propiedades de los objetos. En el futuro, veremos este tipo de métodos de aprendizaje incorporados en el entrenamiento de las habilidades de manipulación de inicio a final, que hará que nuestros robots sean más diestros y capaces, y tal vez nos ayuden a comprender algo sobre nuestro propio sentido del tacto y control motor».

Artículos relacionados:

FlexShapeGripper: el agarre de la lengua de un camaleón


Usando electricidad y agua, un nuevo tipo de motor puede poner microrobots en movimiento

Los actuadores microhidráulicos, más delgados que un tercio del ancho del cabello humano, están demostrando ser los motores más potentes y eficientes a microescala.

Mire a su alrededor y probablemente verá algo que funciona con un motor eléctrico. Potentes y eficientes, mantienen gran parte de nuestro mundo en movimiento, desde nuestras computadoras hasta refrigeradores y ventanas automáticas en nuestros autos. Pero estas cualidades se hacen difíciles cuando estos motores se reducen a tamaños más pequeños que un centímetro cúbico.

«A escalas muy pequeñas, se obtiene un calentador en lugar de un motor», dijo Jakub Kedzierski, personal del Grupo de Tecnologías de Química, Microsistema y Nanoescala del Laboratorio Lincoln del MIT. Hoy en día, no existe ningún motor que sea altamente eficiente y poderoso a la vez que microscópico. Y eso es un problema, porque los motores a esa escala son necesarios para poner en movimiento los sistemas miniaturizados: micro guías que pueden apuntar los láseres con una fracción de un grado a lo largo de miles de kilómetros, drones diminutos que pueden meterse entre escombros para encontrar sobrevivientes, o incluso bots que pueden arrastrarse por el tracto digestivo humano.

Para ayudar a sistemas de energía como estos, Kedzierski y su equipo están creando un nuevo tipo de motor llamado actuador microhidráulico. Los actuadores se mueven con un nivel de precisión, eficiencia y potencia que aún no ha sido posible a microescala. Un artículo que describe este trabajo fue publicado en Science Robotics.

Los actuadores microhidráulicos utilizan una técnica llamada electrohumectación para lograr el movimiento. El electrohumectado aplica una tensión eléctrica a las gotas de agua sobre una superficie sólida para distorsionar la tensión superficial del líquido. Los actuadores aprovechan esta distorsión para forzar a las gotas de agua dentro del actuador a moverse, y con ellas, a todo el actuador.

«Piensa en una gota de agua en una ventana; la fuerza de la gravedad la distorsiona y se mueve hacia abajo», dijo Kedzierski. «Aquí, usamos voltaje para causar la distorsión, que a su vez produce movimiento».

El actuador está construido en dos capas. La capa inferior es una lámina de metal con electrodos estampados en ella. Esta capa está cubierta con un dieléctrico, un aislante que se polariza cuando se aplica un campo eléctrico. La capa superior es una lámina de polyimida, un plástico fuerte, que tiene perforados canales poco profundos. Los canales guían la trayectoria de docenas de gotas de agua que se aplican entre las dos capas y se alinean con los electrodos. Para evitar la evaporación, el agua se mezcla antes con una solución de cloruro de litio, que reduce la presión de vapor del agua lo suficiente como para que las gotas del tamaño de un micrómetro duren meses. Las gotas mantienen su forma redondeada (en lugar de ser aplastadas entre las capas) debido a su tensión superficial y su tamaño relativamente pequeño.

El actuador cobra vida cuando se aplica voltaje a los electrodos, aunque no a todos a la vez. Se realiza en un ciclo de activación de dos electrodos por gota a la vez. Sin voltaje, una sola gota de agua descansa neutralmente en dos electrodos, 1 y 2. Pero al aplicar un voltaje a los electrodos 2 y 3, de repente la gota se deforma, estirándose para tocar el electrodo energizado 3 y se retira del electrodo 1.

Esta fuerza horizontal en una gota no es suficiente para mover el actuador. Pero con este ciclo de voltaje aplicado simultáneamente a los electrodos debajo de cada gota en la matriz, la capa de polyimida completa se desliza para apaciguar la atracción de las gotas hacia los electrodos energizados. Al continuar haciendo circular el voltaje, las gotitas siguen caminando sobre los electrodos y la capa continúa deslizándose; si se corta la tensión, y el actuador se detiene en sus pistas. El voltaje, entonces, se convierte en una herramienta poderosa para controlar con precisión el movimiento del actuador.

Pero, ¿cómo queda el actuador frente a otros tipos de motores? Las dos métricas para medir el rendimiento son la densidad de potencia, o la cantidad de potencia que produce el motor en relación con su peso y eficiencia, o la medida de la energía desperdiciada. Uno de los mejores motores eléctricos en términos de eficiencia y densidad de potencia es el motor del sedán Tesla Modelo S. Cuando el equipo probó los actuadores microhidráulicos, descubrieron que estaban justo detrás de la densidad de potencia del Modelo S (a 0,93 kilovatios por kilogramo) y el rendimiento de eficiencia (con una eficiencia del 60 por ciento a la densidad de potencia máxima). Superaron ampliamente los actuadores piezoeléctricos y otros tipos de microactuadores.

«Estamos entusiasmados porque estamos cumpliendo con ese punto de referencia, y aún estamos mejorando a medida que escalamos a tamaños más pequeños», dijo Kedzierski. Los actuadores mejoran en tamaños más pequeños porque la tensión de la superficie sigue siendo la misma independientemente del tamaño de las gotas de agua, y las gotas más pequeñas dejan espacio para que aun más gotas entren en el actuador y ejerzan su fuerza horizontal. «La densidad de potencia simplemente se dispara. Es como tener una cuerda cuya fuerza no se debilita a medida que se adelgaza», agregó.

El último actuador, el que está más cerca del modelo S de Tesla, tenía una separación de 48 micrómetros entre las gotas. El equipo ahora está reduciendo eso a 30 micrómetros. Proyectan que, a esa escala, el actuador coincidirá con el Tesla en densidad de potencia y, a 15 micrómetros, lo superará.

La reducción de los actuadores es solo una parte de la ecuación. El otro aspecto en el que el equipo está trabajando activamente es la integración 3D. En este momento, un solo actuador es un sistema de dos capas, más delgado que una bolsa de plástico y flexible como ella, también. Quieren apilar los actuadores en un sistema similar a un andamio que pueda moverse en tres dimensiones.

Kedzierski imagina un sistema semejante que imita la matriz muscular de nuestro cuerpo, la red de tejidos que permite a nuestros músculos lograr un movimiento instantáneo, potente y flexible. Diez veces más potentes que el músculo, los actuadores se inspiraron en los músculos de muchas maneras, desde su flexibilidad y ligereza hasta su composición de componentes sólidos y fluidos.

Y así como el músculo es un excelente actuador en la escala de una hormiga o un elefante, estos actuadores microhidráulicos también podrían tener un impacto poderoso no solo a microescala, sino en la macroescala.

«Uno podría imaginar», dijo Eric Holihan, quien ha estado ensamblando y probando los actuadores, «la tecnología aplicada a los exoesqueletos», construida con los actuadores como un músculo real, configurado en juntas flexibles en lugar de engranajes. O un ala de avión podría cambiar de forma con comandos eléctricos, con miles de actuadores deslizándose uno sobre el otro para cambiar la forma aerodinámica del ala.

Mientras sus imaginaciones se agitan, el equipo enfrenta desafíos en el desarrollo de grandes sistemas de actuadores. Un desafío es cómo distribuir la potencia en ese volumen. Un esfuerzo paralelo en el laboratorio, que está desarrollando microbaterías para integrarse con los actuadores, podría ayudar a resolver ese problema. Otro desafío es cómo empaquetar los actuadores para eliminar la evaporación.

«La confiabilidad y el empaque continuarán siendo las preguntas predominantes que se nos plantean sobre esta tecnología hasta que demostremos una solución», dijo Holihan. «Esto es algo que esperamos atacar frontalmente en los próximos meses».

Fuente: MIT NEWS




Walbi, el bípedo que aprende a caminar

Conozca a Walbi, un humanoide a escala 50% con programas Arduino para captura y reproducción de movimiento. Se mueve a mano, graba y reproduce luego los movimientos. El WALink BIped es un robot creado por Pedro y Gil Tavares, de Lisboa, para un proyecto de aprendizaje automático que no se concretó.

Walbi usa un Arduino Nano como «cerebro», servos LX-16A de «músculos», y partes plásticas impresas en 3D como «huesos». Los servos LewanSoul LX-16A son servos ideales para pequeños proyectos robóticos, ya que son livianos, pueden mover cargas de más de 19 kg/cm, y se conectan con un solo cable que va de servo a servo, lo que hace que el cableado del robot sea un juego de niños.

Walbi es un humanoide a escala 50%: sus piernas miden 55 cm de altura desde el talón hasta la cintura, y pesan 1,1 kg. Las partes blancas de su cuerpo fueron impresas en 3D, pero podrían haberse hecho fácilmente con madera resistente y liviana.

La programación de Walbi es muy sencilla. Usted puede descargar los dos programas necesarios para realizar la captura y reproducción de movimientos, y entonces puede hacer que Walbi camine, se arrastre, suba, salte o baile. Solo tiene que mover sus piernas a una postura deseada, registrar esa postura, darle forma a Walbi en otra postura, grabarla y así sucesivamente, y luego, cuando haya grabado la secuencia completa, puede sentarse y ver cómo se desempeña hábilmente siguiendo los movimientos que aprendió.

Qué se necesita

Componentes de hardware (sí, siempre hay que comprar algunas cosas):

Aplicaciones de software y/o servicios en línea: Arduino IDE

Herramientas manuales y máquinas de fabricación: Impresora 3D (genérica)

Construyendo a Walbi

Las piezas de Walbi se imprimieron en 3D, con plástico PLA, utilizando una impresora FlashForge Creator Pro. Descargar los archivos STL de Thingiverse, o usar un método alternativo para construir los pies, los “huesos” de las piernas y la cintura, utilizando madera o metal. Los soportes de los servos encajan en estas partes, y unen los servos con ellas.

Como se muestra en el dibujo de abajo, necesitará soportes metálicos de los cuatro tipos diferentes disponibles para adjuntar los servos a las partes impresas, y entre sí.

Conexionado

Para controlar los servos LX-16A se necesita una placa de LewanSoul llamada Bus Linker.

Ésta recibirá comandos desde un puerto serie en el Arduino Nano. Como utilizamos la USART del hardware de Arduino para comunicarnos con la computadora, recurrimos a la biblioteca SoftwareSerial para crear un segundo puerto serie en el Nano, que nos sirve para conectarnos a la placa Bus Linker.

El cableado se minimiza con estos servos serie. Hay un cable que va de cada servo al siguiente (un cable serie provisto con los servos) y los servos se enchufan directamente a la placa de depuración. Su computadora se conecta al puerto USB de Arduino, y Arduino se conecta a la placa de depuración mediante tres cables (TX, RX y GND) conectados a los pines de Arduino que fueron configurados para SoftwareSerial.

Los servos utilizan una velocidad de comunicación serie en baudios de 115200 (que es demasiado alto y falta investigar si se modificar). Esta velocidad en baudios es alta para SoftwareSerial, por lo que tuvimos que implementar funciones de comprobación de errores y reintento. En algunos casos se necesitaba persistencia para obtener una lectura correcta.

Fuerza

Los servos pueden proporcionar 19,5kg.cm a 7,4v. Usamos 6v y la corriente en estado quieto resultó inferior a tres amperios.

   

Programación

Puedes obtener el código Arduino en el repositorio de Github del proyecto.

Se utilizan dos programas para la captura y reproducción de movimiento, una técnica similar a la que se usa en las películas. Empiezas poniendo al robot en una pose. Como los servos están predeterminados para apagar el motor, se pueden girar los servos a mano. Una vez que se tiene el robot en la posición deseada, se usa el programa Walbi_record para leer y mostrar todos los ángulos de servo. Usted luego alimenta esas lecturas de ángulo en la variable poseAngles en Walbi_play, y usa el programa para reproducir la secuencia de poses grabadas a una velocidad establecida por la variable timeToMove (en milisegundos).



Aquí hay algunos consejos y trucos aprendidos al crear Walbi:

  • Los soportes para el LX-16A solo se acoplan al servo en UNA posición, por lo que es muy fácil conectarlos incorrectamente, especialmente a las partes impresas en 3D. Tuvimos que reensamblar a Walbi un par de veces para corregir errores de montaje que eran bastante difíciles de detectar.
  • Los servos vienen con identificación ID 1 por defecto. Asigne a cada servo una ID diferente antes de montarlos en el robot, o será imposible comunicarse con varios servos serie conectados con la misma ID.
  • El uso de bridas para cables realmente mejora la apariencia.

  • Los servos vienen con los tornillos necesarios para conectar el disco de acoplamiento de los servos, y el disco a los soportes. Los soportes vienen con los tornillos necesarios para sujetarlos a los servos. Tendrá que comprar tornillos por separado para sostener las conexiones y para el soporte de las piezas de plástico. Se utilizan tornillos y tuercas DIN912 M2-6 y M2-10.
  • Es posible mejorar la tracción pegando almohadillas de silicona en las plantas de los pies del robot.

  • Es preferible usar discos de acoplamiento de metal para servo, ya que las de plástico que vienen provistas con los servos se romperán en el caso de que las piernas se golpeen durante las pruebas. Si estas piezas se rompen, el robot se aflojará y la reproducción del movimiento perderá precisión. De otra manera, es esta reproducción es sorprendentemente buena.

Piezas a medida

STL para piezas impresas en 3D (Originalmente impreso en un Flash Forge Creator Pro.)

Código Programas Arduino para control de movimiento y reproducción

En Alienexpress encontré algunas publicaciones que pueden servir de guía para obtener los elementos:

SERVO
JUEGO DE SERVO Y ACCESORIOS
SERVO Y PIEZAS DE MONTAJE

¿Por qué está resultando difícil construir robots para convivir y trabajar con nosotros en la vida real?

Hacer robots no es tarea fácil. Si usted habla con expertos en robótica, le dirán que les llevó años lograr que el último robot que construyeron o programaron fuese bueno para realizar una tarea específica. Y aunque es posible ver vídeos de hazañas impresionantes de algunos robots, a menudo la realidad es más aleccionadora

¿Recuerdan el video de la caída de los robots en el Desafío de Robots de DARPA?

¿Por qué es tan difícil construir robots? He aquí una recopilación de por qué la robótica aún requiere de años de investigación y desarrollo antes de verlos en nuestra vida cotidiana.

Fuente de alimentación

Se requiere que la mayoría de los robots operen sin estar conectados a una toma de corriente. Esto significa que deben llevar su propia fuente de energía, ya sea un paquete de baterías o un tanque de combustible. Los pequeños aviones no tripulados pueden operar normalmente durante menos de 1 hora, que es también la duración de la batería de la mayoría de los humanoides avanzados tales como el ATLAS de Boston Dynamics de Google. De manera que cuando el robot ha entrado por la puerta y ha dado algunos pasos, ya es el momento de una recarga de energía.

Se están haciendo progresos, y el impulso para lograr que las baterías permitan que los ordenadores portátiles y los teléfonos móviles funcionen durante días también está impulsando el aumento del tiempo de funcionamiento de los robots. Un ejemplo es el propio robot ATLAS, que estaba atado a cables hace apenas un año y ahora posee su propio conjunto de baterías. El principal desafío es que el movimiento del robot es a menudo el mayor consumidor de baterías. La mayoría de los drones utilizarán la mayor parte de su energía de encender sus hélices propulsoras en lugar de computar, realizar detecciones y comunicarse, todo al mismo tiempo. Se le puede aportar más potencia a un robot con baterías más grandes, pero esto también hará que sea más pesado, por lo que a su vez requerirá más energía para mover el robot. La realidad es que a menudo los robots son dependientes de una estación de carga.

Más allá de la energía, también existe un verdadero desafío: la eficiencia. Por ejemplo, los músculos humanos son capaces de ejercer una fuerza impresionante, sin embargo, muchos robots manipuladores no tienen fuerza para llevar cargas pesadas.

«Los músculos biológicos siguen siendo un orden de magnitud (x10)
más livianos y pequeños para generar la misma fuerza que los
motores de un robot». – Herman Bruyninckx

Elementos de senseo

¿Se ha preguntado por qué la mayoría de las demostraciones muestran robots manipulando objetos con colores brillantes o que poseen un código QR?

Los robots aún tienen dificultades para reconocer los objetos cotidianos. Y a pesar de que los algoritmos de aprendizaje automático han demostrado ser eficaces en las computadoras, lo que les permite etiquetar las imágenes con frases tales como «gato negro en una silla blanca», los robots también requieren saber para qué se utilizan los objetos, y cómo se debe hacer para interactuar con ellos. Una camisa fucsia, una camisa a rayas, o un par de pantalones se verán con un aspecto muy diferente para un robot plegador de ropa, y requerirían una secuencia diferente de movimientos. Y a pesar de que resulta útil utilizar cámaras, el procesamiento de imágenes es todavía una tarea muy intensa.

Los sensores como el Kinect de Microsoft y los Laser Rangefinders han permitido que los robots conformen mapas 3D de su entorno. Con las nubes de puntos resultantes, pueden detectar obstáculos, construir mapas y saber dónde se encuentran dentro de esos entornos. Inferir el significado de la escena, sin embargo, es un paso más allá. Fuera del video, el tacto y el sonido aún se utilizan poco en los sistemas robóticos. Afortunadamente, los robots tienen acceso a una cantidad de sentidos dedicados que no son como los de los humanos, y resultan más adecuados para tareas específicas. Entre ellos está los acelerómetros, sensores de temperatura o de gas, y los GPS.

Manipulación

Los robots industriales son muy exitosos en la manipulación de objetos predefinidos y específicos de manera repetitiva. Uno de los mayores desafíos en la robótica es lograr la manipulación fuera de estos entornos restringidos. Hay una razón por la que los robots comerciales más exitosos para el entorno del hogar, incluyendo los robots de telepresencia, las aspiradoras y los robots personales no están construidos para recoger objetos. Amazon resolvió este problema en su área de almacenaje creando equipos de humanos junto a robots para cumplir con los pedidos. Los robots se mueven por los estantes y los trabajadores son los responsables de recoger los objetos de los estantes y colocarlos en cajas. Recién el año pasado, Amazon corrió un «desafío de manipuleo» en ICRA para ayudar a avanzar en el estado del desarrollo. El concurso fue ganado por el equipo RBO de Berlín. La competencia Rockin en Europa también se centra en la manipulación en entornos domésticos y de trabajo.

Empresas como Shadow Robot están tratando de lograr el control motriz delicado que nos permite interactuar con los objetos de uso cotidiano en una mano robótica. El uso de estos manipuladores a menudo requiere una planificación precisa. A menudo, una solución alternativa fue utilizar manipuladores probados del sector industrial o robots con manipuladores cada vez más blandos que se ajusten a las diferentes formas de los objetos.

Cognición

Los robots actuales suelen utilizar algoritmos bien determinados que les permiten realizar tareas específicas, por ejemplo la navegación desde el punto A al punto B, o mover un objeto en una cadena de montaje. El diseño de robots colaborativos para las empresas, o de robots para el hogar, requerirá que éstos entiendan cada vez mejor los nuevos entornos y aprendan en el trabajo. Lo que parece una tarea simple para nosotros, podría convertirse en un ejercicio cognitivo complejo para un robot. Los proyectos como el iCub han avanzado en esta dirección, con el objetivo de alcanzar los niveles cognitivos de un niño de 2,5 años.

El aprendizaje profundo también está aportando nuevos rumbos. Un equipo de la Universidad de Zurich y IDSIA mostró recientemente drones que están aprendiendo a volar a través de senderos en un bosque utilizando redes neuronales profundas (Deep Neural Networks).

Cualquiera que sea el aprendizaje que se integre en el robot, es importante darse cuenta de que todavía estamos lejos de algo que se asemeje a la inteligencia o el entendimiento humano. La navegación por un recorrido forestal manipula con intensidad, principalmente, datos de un montón de imágenes de senderos forestales, y en respuesta ejecuta los comandos correctos en los motores. Esto está más cerca del aprendizaje de un humano para equilibrar un palo en forma vertical en la palma de su mano a través de la práctica, en lugar del desarrollo de una comprensión real de las leyes de la física.

Entornos no estructurados

El mundo es un lugar desordenado para la mayoría de los robots, por lo que operar en entornos no estructurados les es difícil. Es por eso que los robots comerciales han tenido más éxito en las fábricas, en los pisos de almacenes o en carreteras, al aire libre y bajo el agua. Por otro lado, hay muy pocos robots que operan de forma autónoma en el entorno del hogar, los distintos robots aspiradora. La Dyson 360 Eye requirió más de 100.000 horas de tiempo de producción y 16 años de desarrollo antes de que la compañía estuviese convencida de que iba a hacer un buen trabajo al navegar por una habitación. Sus ensayos mostraron que los niños a veces bailan delante de su robot o juegan con él, adjuntando pequeñas orejas de cartón delante de su cámara, o la cubren por completo. No es necesario remarcar que cada casa es única.

Integración

El truco para comprender la integración es pensar como un robot. ¿Qué se necesita para que un nuevo robot lleve un vaso de agua a un paciente de edad avanzada en una casa? En primer lugar el robot tendría que tener un mapa de la casa, tal vez construirlo desde cero mediante la navegación a través de los pasillos y habitaciones. Sería entonces necesario comprender la indicación de la persona de que le alcance el agua, para lo que podría utilizar el reconocimiento de voz. El robot entonces utilizaría su mapa para planificar una trayectoria a la cocina, evitando los obstáculos, en una constante actualización de su estimación de dónde es que se mueve. Una vez frente al armario, el robot tendría que abrir el armario, buscar un vaso transparente, y recogerlo. El robot giraría hacia el fregadero, abriría el grifo de agua usando las habilidades motoras finas, colocaría el vaso debajo del chorro de agua hasta que el vaso esté lleno, e iría hacia la persona sin derramar agua. A continuación, debería poner suavemente el vaso sobre una mesa. Esta tarea requiere un hardware seguro, un conjunto de sensores impresionante y algoritmos complejos que actualmente sólo existen como piezas independientes, en todo caso. La integración de todos estos componentes en un solo robot es muy difícil, y eso es sólo para una tarea: ir a buscar un vaso de agua.

Acerca de la integración, John Hallam de la Universidad del Sur de Dinamarca dice
«Usted está construyendo un robot -está haciendo la ingeniería de un sistema- y con
demasiada frecuencia la gente se centra en la fabricación del dispositivo.
Al hacer esto se olvidan de importantes posibilidades».

Marco legal y la percepción pública

Nuevas empresas están construyendo cada vez más robots que tienen el potencial de ser perjudiciales porque sólo resuelven bien problemas específicos. Los drones y los autos autónomos son un buen ejemplo de esto. El desafío para estas nuevas empresas es que la regulación aún no está definida como para permitir que sus productos se comercialicen.

Andrea Bertolini de la Scuola Superiore Sant’Anna en Italia dice que hay «demasiada litigios y muy poca regulación ex ante», lo cual significa que nuevas empresas pueden terminar tomando riesgos legales innecesarios, que podrían evitarse si ya hubiese una mejor regulación establecida para apoyar la innovación avanzada.





Y en un mundo donde la seguridad y la expectativa del cliente son de suma importancia humana, la búsqueda de las normas adecuadas para hacer que los robots se vuelvan realidad ha sido un esfuerzo continuo en la comunidad.

Por último, la tergiversación en el público acerca de lo que pueden hacer los robots aumenta la preocupación de este público. Esto conlleva el peligro de que los reguladores puedan reaccionar ante la opinión pública a causa de la falta de una información equilibrada. Las preocupaciones del público deben ser discutidas y se debe promover un uso responsable de los robots, de manera que la política se centre en lo que necesita la comunidad.

Sigue siendo difícil hacer un robot

La robótica está avanzando en el desarrollo de tecnologías y soluciones para tareas específicas. Después de años de desarrollo en laboratorios de investigación, los robots están empezando a encontrar un camino hacia el mercado de consumo. Sin embargo, todavía estamos muy lejos del robot Rosie (la mucama robot de Los Supersónicos, o «Jetsons» en su original en inglés). Hacer una Rosie requeriría profundos avances en fuentes de alimentación, detección, manipulación, cognición y la unión mágica de todo esto: la integración.

Información adicional:
Desafío de robots de DARPA
Robots Atlas de Boston Dynamics
Robot ATLAS ahora con baterías
Robot Dyson 360 Eye
Artículo original