Archivo de la categoría: Robots

Un guepardo robótico capaz de dar volteretas hacia atrás

El nuevo robot mini guepardo de MIT es elástico, liviano y pesa solo 9 kg

El nuevo robot mini guepardo de MIT es elástico y ligero, con un rango de movimiento que compite con un campeón de gimnasia. Este energético dispositivo de cuatro patas puede doblarse y balancear sus piernas, lo que le permite caminar con las patas en dirección hacia arriba o hacia abajo de su cuerpo. El robot también puede trotar en terrenos irregulares aproximadamente el doble de rápido que la velocidad de caminata de una persona promedio.

Con un peso de tan solo 9 kg -más liviano que algunos pavos de Navidad- el ágil cuadrúpedo no sufre los empujones: cuando es pateado en el suelo, el robot puede enderezarse rápidamente con un giro de sus codos, similar al kung-fu.

Quizás lo más impresionante es su capacidad para realizar un salto atrás de 360 grados desde una posición de pie. Los investigadores afirman que el mini guepardo está diseñado para ser «virtualmente indestructible», y que se recupera con poco daño, incluso si un salto hacia atrás termina mal.

En el caso de que se rompa una extremidad o un motor, el mini guepardo está diseñado considerando la modularidad: cada una de las patas del robot se alimenta de tres motores eléctricos idénticos y de bajo costo que los investigadores diseñaron con piezas listas para usar. Cada motor se puede cambiar fácilmente por uno nuevo.

«Podrías poner estas piezas juntas, casi como ladrillos de armar de plástico», dice el desarrollador líder, Benjamin Katz, un asociado técnico en el Departamento de Ingeniería Mecánica del MIT.


Los investigadores presentarán el diseño del mini guepardo en la Conferencia Internacional sobre Robótica y Automatización, en mayo. Actualmente están construyendo más de estas máquinas de cuatro patas, con la meta de tener un conjunto de 10, cada uno de los cuales esperan dar como préstamo a otros laboratorios.

«Una gran parte de la razón por la que construimos este robot es que tan fácil para experimentar y simplemente probar cosas locas, porque el robot es súper robusto y no se rompe fácilmente, y si se rompe, es fácil y no muy costoso arreglarlo», dice Katz, quien trabajó en el robot en el laboratorio de Sangbae Kim, profesor asociado de ingeniería mecánica.

Kim dice que el prestar mini guepardos a otros grupos de investigación les da a los ingenieros la oportunidad de probar algoritmos y maniobras novedosos en un robot altamente dinámico, al que de otra forma no tendrían acceso.

«Eventualmente, espero que podamos tener una carrera de perros robótica a través de una senda de obstáculos, donde cada equipo controle un mini guepardo con diferentes algoritmos, y podamos ver qué estrategia es más efectiva», dice Kim. «Así es como se acelera la investigación».

Cosas dinámicas

El mini guepardo es más que una versión en miniatura de su predecesor, el guepardo 3, un robot grande, pesado y formidable, que a menudo necesita ser estabilizado con correas para proteger sus costosas piezas diseñadas a medida.

«En Cheetah 3, todo está super integrado, así que si quieres cambiar algo, tienes que hacer un montón de rediseño», dice Katz. «Mientras que con el mini guepardo, si quisieras agregar otro brazo, podrías agregar tres o cuatro más de estos motores modulares».

Katz ideó el diseño del motor eléctrico al reconfigurar las piezas a motores pequeños, disponibles comercialmente, normalmente utilizados en aviones no tripulados y aviones controlados a distancia.

Cada uno de los 12 motores del robot es aproximadamente del tamaño de la tapa de un tarro a rosca, y consiste en un estator, o conjunto de bobinas que genera un campo magnético giratorio; un pequeño controlador que transmite la cantidad de corriente que debe producir el estator; un rotor, alineado con imanes, que gira con el campo del estator, produciendo un par para levantar o rotar una extremidad; una caja de engranajes que proporciona una reducción de engranajes de 6: 1, lo que permite que el rotor proporcione seis veces el par que normalmente tendría; y un sensor de posición que mide el ángulo y la orientación del motor y la extremidad asociada.




Cada pata está accionada por tres motores, para darle tres grados de libertad y una gran amplitud de movimiento. El diseño liviano, de alto torque y baja inercia, permite que el robot ejecute maniobras rápidas y dinámicas, y realice impactos de alta fuerza en el suelo sin romper las cajas de engranajes o las extremidades.

«La velocidad a la que puede cambiar las fuerzas sobre el terreno es realmente rápida», dice Katz. «Cuando está funcionando, sus pies están solo en el suelo durante unos 150 milisegundos a la vez, durante los cuales una computadora le dice que aumente la fuerza en el pie, luego la cambie para equilibrarlo y luego disminuya esa fuerza realmente rápido para levantar. Así que puede hacer cosas realmente dinámicas, como saltar en el aire con cada paso, o correr con dos pies en el suelo a la vez. La mayoría de los robots no son capaces de hacer esto, así que se mueven mucho más lento».

Volteretas

Los ingenieros probaron el mini guepardo con una serie de maniobras, analizando primero su capacidad de carrera en los pasillos del Laboratorio Pappalardo del MIT y en el terreno ligeramente irregular de Killian Court.

En ambos entornos, el cuadrúpedo se movió a aproximadamente 8 km por hora. Las articulaciones del robot son capaces de girar tres veces más rápido, con el doble de fuerza, y Katz estima que el robot podría funcionar casi el doble de rápido con un poco de ajuste.

El equipo escribió otro código de computadora para hacer que el se estire y se retuerza en varias configuraciones similares al yoga, mostrando su rango de movimiento y la capacidad de rotar sus extremidades y articulaciones mientras mantiene el equilibrio. También programaron el robot para recuperarse de una fuerza inesperada, como una patada lateral. Cuando los investigadores patearon el robot al suelo, se apagó automáticamente.

«Se supone que algo ha salido terriblemente mal, así que simplemente se apaga, y las piernas se desplazan libres», dice Katz.

Cuando recibe una señal para reiniciarse, el robot primero determina su orientación y luego realiza una maniobra preprogramada de agacharse o girar el codo para enderezarse en cuatro patas.

Katz y el coautor Jared Di Carlo, un estudiante universitario en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación (EECS), se preguntaron si el robot podría realizar maniobras de mayor impacto. Inspirados por una clase que tomaron el año pasado, impartidos por el profesor Russ Tedrake de EECS, se dedicaron a programar el mini guepardo para realizar una voltereta hacia atrás.

«Pensamos que sería una buena prueba del rendimiento del robot, ya que requiere mucha potencia, torque, y hay enormes impactos al final de un giro», dice Katz.

El equipo escribió una «gigante optimización de la trayectoria, no lineal» que incorporaba la dinámica del robot y las capacidades del actuador, y especificó una trayectoria en la que el robot comenzaría en una cierta orientación del lado derecho hacia arriba y terminaría volteado 360 grados. El programa que desarrollaron luego resolvió todos los pares de torsión que debían aplicarse a cada junta, desde cada motor individual, y en cada período de tiempo entre el inicio y el final, para llevar a cabo el retroceso.

«La primera vez que lo probamos, funcionó milagrosamente», dice Katz.

«Esto es super emocionante», agrega Kim. «Imagina a Cheetah 3 haciendo una voltereta hacia atrás: se estrellaría y probablemente destruiría la máquina para correr. Podríamos hacer esto con el mini cheetah en un escritorio».



Creando robots que pueden ir a donde nosotros vamos

GIF Dan Saelinger

Los robots han caminado sobre piernas durante décadas. Los robots humanoides más avanzados de la actualidad pueden pisar sobre superficies planas e inclinadas, subir y bajar escaleras y avanzar por terrenos difíciles. Algunos incluso pueden saltar. Pero a pesar del progreso, los robots con piernas aún no pueden comenzar a igualar la agilidad, eficiencia y fuerza de los humanos y animales.

Los robots caminantes existentes consumen mucha energía y pasan demasiado tiempo en el taller. Con demasiada frecuencia fallan, caen y se rompen. Para que los ayudantes robóticos con los que hace tiempo soñamos se conviertan en realidad, estas máquinas tendrán que aprender a caminar como nosotros.

Debemos construir robots con piernas porque nuestro mundo está diseñado para piernas. Pasamos por espacios estrechos, nos movemos sobre obstáculos, subimos y bajamos escalones. Los robots con ruedas u orugas no pueden moverse fácilmente por los espacios que hemos optimizado para nuestros propios cuerpos.

De hecho, muchos humanoides tienen piernas similares a las nuestras, con caderas, rodillas, tobillos y pies. Pero las similitudes por lo general terminan ahí: si se comparan, por ejemplo, las fuerzas que estos robots ejercen en el suelo con las que ejerce un humano, se descubre que a menudo son bastante diferentes. La mayoría de los humanoides, descendientes de los primeros brazos robóticos industriales, controlan sus extremidades para seguir trayectorias específicas de la forma más precisa y rígida posible. Sin embargo, la locomoción con piernas no requiere tanto control de posición como control de fuerza, con mucha flexibilidad y elasticidad, conocidas en robótica como flexibilidad, como para permitir contactos inesperados.

Varios grupos de investigación han estado tratando de construir robots que sean menos rígidos y que puedan moverse de una manera más dinámica y humana. Tal vez el robot más famoso sea Atlas, de Boston Dynamics, un humanoide que puede correr en terrenos duros y blandos, saltar sobre troncos caídos e incluso retroceder. Pero nuevamente, cuando comparamos el movimiento de incluso los robots más sofisticados con lo que pueden lograr los animales, las máquinas se quedan cortas.

¿Qué nos falta? La tecnología no es el mayor obstáculo: los motores son lo suficientemente poderosos, los materiales son lo suficientemente fuertes, y las computadoras son lo suficientemente rápidas. Más bien, el factor limitante parece ser nuestra comprensión básica de cómo funciona la locomoción sobre patas.

Fotos: Dan Saelinger. Droides de la vida real: Agility Robotics diseñó sus robots con piernas Cassie [izquierda] y Digit para moverse de una manera más dinámica que los robots normales.

En el Dynamic Robotics Laboratory de la Universidad del Estado de Oregon, el autor dirige un grupo de investigadores que buscan identificar los principios subyacentes de la locomoción de las piernas y aplique sus descubrimientos a los robots. También es el cofundador y director de tecnología de Agility Robotics, una empresa con sede en Albany, Oregón, que está explorando los usos comerciales de la robótica con movilidad sobre piernas.

En 2017, presentaron Cassie, una plataforma bípeda que han vendido a varios grupos de investigación. Pronto tendrán un nuevo robot listo para salir al mundo: Digit, que tiene patas similares a las de Cassie, pero también cuenta con sensores de percepción y un par de brazos que utilizará para la estabilidad y, en el futuro, la manipulación.

Tanto por medio del laboratorio como de la compañía, están trabajando para lograr un futuro en el que los robots puedan ir a cualquier lugar donde vaya la gente. Se cree que los robots con piernas dinámicas algún día ayudarán a cuidar de las personas mayores y enfermas en sus hogares, ayudarán en los esfuerzos de salvamento en incendios y terremotos, y entregarán paquetes en las puertas de las casas.

Las piernas robóticas también permitirán exoesqueletos y extremidades protésicas motorizadas para dar más movilidad a las personas con discapacidades. Finalmente traerán los robots imaginados en la ciencia ficción a nuestras vidas diarias.

CLIC PARA VER VIDEO

Algunas aves corren mejor de lo que pueden volar, si es que pueden volar. Avestruces, pavos, gallinas y codornices no pueden volar como un halcón, pero son rápidas con sus patas. En colaboración con Monica Daley del Royal Veterinary College de la Universidad de Londres, el autor y sus colegas han pasado innumerables horas observando a las aves caminando y corriendo en el laboratorio. Quieren entender cómo es que estos animales se mueven de manera tan ágil y eficiente, ¡la mayoría de estas máquinas emplumadas son impulsadas solo por semillas!

En un experimento, una gallina de Guinea corre por una pista cuando y pisa un hoyo oculto por una hoja de papel de seda. El ave no sabía que iba a meterse en un bache a media pierna de profundidad; sin embargo, el animal no pierde un paso, su pierna se estira para ajustarse a la caída a medida que pasa el obstáculo. Lo que sucede aquí es bastante notable: el cerebro del ave no tiene que sentir ni reaccionar ante la perturbación porque sus patas pueden manejarse por sí mismas.

Esto ofrece una visión importante para los diseñadores de robots: si primero construyes tu robot y luego intentas programarlo para que sea ágil, es probable que estés condenado a fallar. Al igual que con las aves de Guinea, la agilidad de un robot se derivará en gran parte de las propiedades mecánicas inherentes de su cuerpo, o lo que los robotistas llaman dinámica pasiva. Y esto se ha descuidado en la mayoría de los proyectos de robots con patas. Al diseñar cuidadosamente la dinámica pasiva de un robot en paralelo con el control de software como un sistema integrado se aumentan las posibilidades de crear un robot que se aproxime al rendimiento de un animal.

Ahora, vale la pena señalar que, aunque uno se inspire en los animales, no replican la forma del pie de un pájaro o la disposición de músculos y huesos en una pierna humana. En su lugar, se desea capturar la física de la locomoción animal y extraer de ella un modelo matemático que se pueda entender, probar en simulaciones por computadora y luego implementarlo en robots reales. Debido a que están utilizando metal y componentes electrónicos en lugar de huesos y cerebros para construir estos robots, pueden parecer muy diferentes de un animal y al mismo tiempo tener la misma física.




Uno de los modelos matemáticos más simples consiste en una masa puntual (que representa la parte superior del cuerpo) unida a un par de resortes ideales, que representan las piernas. Este modelo, conocido como modelo de masa de resorte, es una simplificación, por supuesto: se asemeja a un dibujo de palotes y no tiene en cuenta que las piernas tienen articulaciones, o que los pies no tocan el suelo en puntos discretos. Aún así, el modelo de muelles de resortes puede producir resultados sorprendentes: en las simulaciones, puede generar casi todas las maneras de caminar y correr observadas en personas y animales.

Foto: Oregon State University. Primeros pasos: Las piernas de ATRIAS no se parecen a las de una persona, pero el robot fue la primera máquina en demostrar dinámicas de andar de forma humana.

Primeros pasos:

Para probar el modelo de masa de resorte en una máquina, el grupo en Oregon State, en colaboración con Hartmut Geyer de la Universidad Carnegie Mellon y Jessy Grizzle de la Universidad de Michigan, desarrolló ATRIAS, un robot bípedo cuyo nombre es un acrónimo que refleja la premisa principal: Supongamos que el robot es una esfera. La idea era que la dinámica pasiva del robot pudiera acercarse lo más posible a la reproducción de la masa puntual con patas elásticas.

Construyeron cada pata con varillas de fibra de carbono livianas, dispuestas en una estructura en forma de paralelogramo conocida como enlace de cuatro barras. Esta estructura minimiza la masa de las piernas y su inercia asociada, aproximándose al modelo de masa de resorte. También equiparon la parte superior de las piernas con resortes de fibra de vidrio, que encarnan físicamente la parte de «resorte» del modelo, manejando los impactos en el suelo y almacenando energía mecánica.

Al principio, ATRIAS apenas podía sostenerse, y se lo sostuvo con una atadura por arriba de él. Pero a medida que refinaron su controlador, que hacía un seguimiento de la velocidad y la inclinación del cuerpo, el robot dio sus primeros pasos y pronto estaba caminando por el laboratorio. A continuación ATRIAS aprendió a recuperarse de las perturbaciones, que en un experimento consistió en que los alumnos le lanzaran pelotas. También llevaron a ATRIAS al campo de fútbol de la universidad, lo aceleraron a una velocidad máxima de 7,6 kilómetros por hora y luego, por supuesto, lo detuvieron rápidamente en la zona final.

CLIC PARA VER VIDEO

Para comprender mejor cómo lo estaba haciendo el robot, imagine que usted tiene los ojos vendados y camina sobre zancos con la parte superior del cuerpo envuelta en una alfombra, de modo que no puede usar los brazos para equilibrarse. Todo lo que se puede hacer es seguir caminando, y eso es lo que hizo ATRIAS. Incluso fue capaz de manejarse ante obstáculos, como una pila de madera contrachapada colocada en su camino.

Si bien era importante la agilidad, también era fundamental que ATRIAS fuera económico en consumo de energía. Confirmaron que lo era al medir un parámetro que se conoce como costo de transporte (COT). Se define como la relación entre el consumo de energía y peso por velocidad, y se usa para comparar la eficiencia energética en cómo se mueven los animales y las máquinas. Cuanto menor sea el COT, mejor. Una persona que camina, por ejemplo, tiene un COT de 0,2, mientras que los robots humanoides convencionales tienen valores mucho más altos, entre 2 y 3, según algunas estimaciones [PDF]. Los experimentos mostraron que ATRIAS, con su manera de caminar, tenía un COT de 1,13 [PDF], demostrando beneficios de eficiencia de robots dinámicos [PDF]. De hecho, unas cuantas baterías pequeñas de polímero de litio, del tipo que se usa en los automóviles controlados por radio, podrían mantener el funcionamiento de ATRIAS durante aproximadamente una hora.

También midieron las fuerzas [PDF] que el robot ejercía en el suelo. Colocaron ATRIAS, que pesa 72,5 kilogramos (aproximadamente lo mismo que una persona) en una placa de fuerza, un instrumento que se usa a menudo en medicina deportiva para evaluar la marcha de una persona al medir las fuerzas de reacción contra el suelo. Mientras el robot caminaba, grabaron los datos de fuerza aplicada. Luego reemplazaron a ATRIAS por uno de los alumnos y registraron sus pasos. Cuando graficaron las fuerzas de reacción del terreno a lo largo del tiempo, los dos conjuntos de datos tenían exactamente la misma forma. Por lo que se sabe hasta el momento, es la implementación robótica más realista de la dinámica de la marcha humana que se haya realizado.

Los resultados confirmaron que un simple sistema accionado por masa de resorte es algo que se puede construir en un robot; habilitando muchos de los rasgos buscados, tales como eficiencia, robustez y agilidad; y llegar al núcleo de lo que es la locomoción bípeda. Ya era hora de que construyeran el siguiente robot.

Foto: Dan Saelinger. Caminante dinámico: Para moverse con agilidad por un terreno complejo, Cassie usa cinco motores y dos resortes en cada pierna.


Y establecieron una vara elevada: querían que Cassie pudiera correr a través de un bosque, capaz de manejarse en terrenos difíciles operando durante horas con una batería, sin correa de seguridad.

Cassie se basa en los mismos conceptos desarrollados para ATRIAS, pero decidieron darle un nuevo tipo de piernas. Usaron dos motores para alimentar la conexión de cuatro barras en cada tramo de ATRIAS. Esta disposición minimizó su masa, pero hubo una complicación: durante parte del ciclo de pasos, un motor actuaba como un freno del otro, lo que le costaba una energía significativa e innecesaria. Para Cassie, estudiaron configuraciones alternativas para las piernas [PDF] para eliminar ese efecto. El nuevo diseño permite que los motores sean más pequeños y, por lo tanto, hace que el robot sea incluso más eficiente que ATRIAS.

Es importante tener en cuenta que la configuración de la pierna de Cassie fue resultado de este análisis. El hecho de que la pata se asemeje a la de un avestruz u otro terópodo puede ser una señal de que están en el camino correcto, pero el objetivo nunca fue crear un robot que, con unas pocas plumas bien colocadas, pudiera encajar con una multitud de avestruces.

CLIC PARA VER VIDEO


Cada una de las piernas de Cassie tiene cinco ejes de movimiento, o grados de libertad en el lenguaje robótico, cada uno impulsado por un motor. Las caderas tienen tres grados de libertad, similares a las nuestras, permitiendo que la pierna gire en cualquier dirección. Otros dos motores potencian las articulaciones en la rodilla y el pie. Cassie tiene grados adicionales de libertad en su espinilla y tobillo; estos son pasivos, no controlados por motores, sino más bien unidos a resortes, que ayudan al robot a moverse a través de terrenos complejos que los humanoides de pies planos no pueden manejar.

Las nuevas piernas de Cassie requerían un controlador de bajo nivel más sofisticado que el de ATRIAS. Con ATRIAS, la extensión de una pierna se logró simplemente mediante la aplicación de pares iguales y opuestos con los dos motores. Con la pierna de Cassie, mover el pie en una dirección específica requiere calcular diferentes pares de torsión para cada motor. Para hacer eso, el controlador debe tener en cuenta la inercia de las patas, así como la dinámica de los motores y cajas de engranajes.

Gif: Dan Saelinger. Paso a paso: El controlador de Cassie usa posiciones planeadas en pasos y balanceo dinámico para permitir que el robot suba las escaleras.


Es cierto que el problema de control se volvió más complejo, pero este método permite un mejor rendimiento y una gama de comportamientos mucho más amplia. Cassie puede alcanzar una velocidad de marcha de 5 km/h usando uno de los controladores iniciales. El consumo de energía varía de 100 vatios (cuando está de pie) a aproximadamente 300 vatios (en marcha), y la batería de iones de litio permite aproximadamente 5 horas de funcionamiento continuo. Las nuevas piernas también le permiten a Cassie moverse de una manera que ATRIAS no podría. Y gracias a una articulación motorizada en el pie, puede colocarse en su lugar sin tener que mover sus pies constantemente como lo hace ATRIAS.

Cassie también pesa solo 31 kg, la mitad que ATRIAS. Es posible cargar dos Cassies en el baúl de un automóvil en menos de un minuto. Y es mucho más robusto: las partes de su cuerpo están hechas de aluminio y fibra de carbono, y una cubierta protectora hecha de cloruro de polivinilo acrílico termoformado, un plástico fuerte que lo protege de colisiones y caídas.

Cassie todavía no corre por los bosques. Pero lo han probado al aire libre, sin amarres de seguridad, y ha caminado sobre tierra, hierba y hojas, caminos desparejos. Ahora están aprendiendo cómo integrar comportamientos dinámicos con planificación de movimiento [PDF] , lo que le permite subir escaleras, por ejemplo. También están trabajando en otra característica que podría hacer que un robot como Cassie sea mucho más útil: brazos.

Foto: Dan Saelinger. Cuerpo a estrenar: Digit tiene patas similares a las de Cassie, pero también tiene un torso lleno de sensores y un par de brazos diseñados para ayudar con la movilidad y el equilibrio.


Digit es un descendiente directo de Cassie. Tiene piernas similares, pero agregaron un torso y un par de brazos. Los brazos están diseñados para ayudar con la movilidad y el equilibrio del robot, ya que giran en coordinación con la marcha. También permitirán que Digit se cuide a sí mismo al caer, y reorientará su cuerpo para volver a subir.

Digit tiene algo más que Cassie no tenía: la percepción integrada. Agregaron numerosos sensores al robot, incluido un LIDAR sobre el torso. Estos sensores ayudarán a recopilar datos para permitir que el robot navegue por un mundo lleno de obstáculos, como habitaciones desordenadas y escaleras, y confiar en la dinámica estable subyacente solo cuando maneje situaciones inesperadas y detecte errores.

Digit y los robots con patas que seguirán aún tienen un largo camino por recorrer. Pero sus diseñadores están convencidos de que cambiarán el mundo. Su impacto podría ser tan grande como el automóvil en términos de cambios en los estilos de vida e incluso patrones de tráfico y aspectos de los diseños de la ciudad, donde estos robots prometen transformar la logística y la entrega de paquetes.

En un futuro no muy lejano, a medida que los vehículos ganen autonomía, los fabricantes de automóviles y las compañías de viajes compartidos como Lyft y Uber poseerán grandes flotas de vehículos que transporten personas, con un tráfico máximo durante las horas pico, como hoy. Pero a altas horas de la noche y en medio del día, ¿qué harán estos vehículos automatizados? En lugar de simplemente estar inactivos, podrían transportar paquetes desde los almacenes automáticos a su hogar. Sin embargo, estos vehículos de entrega están limitados en la acera: sin un ser humano, llevar el paquete a la puerta de una casa es un gran desafío. Ahí es donde entran los robots con piernas. Viajando en estos vehículos, cubrirán esos últimos metros. Aunque las ruedas y las alas pueden cumplir algunos de estos roles, en un mundo diseñado para bípedos, ninguna plataforma de movilidad podría ser tan versátil como un robot bípedo.

Fotos: Dan Saelinger. Entrega especial: Digit está aprendiendo a caminar en diferentes tipos de terreno y también a subir escaleras, por lo que algún día puede entregar paquetes directamente a la puerta de su casa.


Los robots de entrega formarán parte de un sistema de logística cada vez más automatizado que va de los fabricantes y los distribuidores directamente a su puerta. Este sistema reducirá los costos de envío hasta que sea significativamente menos costoso recibir los artículos en su hogar que comprarlos en un almacén grande, bien iluminado, con calefacción, y accesible para personas. Se volverán superfluas las grandes tiendas que hoy venden lo que son, en esencia, productos básicos. La gente todavía disfrutará de las compras en la tienda de ciertos productos, por supuesto. Pero para los comestibles de la semana, los robots de entrega le ahorrarán tiempo y dinero.

La locomoción bípeda también ayudará a poner robots en nuestros hogares y negocios. Los robots que pueden moverse por las escaleras y los entornos abarrotados mientras interactúan de manera segura con los humanos a nivel de los ojos y a escala humana, nos permitirán envejecer con gracia en nuestros propios hogares. Ayudarán a llevar las cosas y servirán como dispositivos de telepresencia, permitiendo a los familiares y amigos usar el robot para hablar con las personas de forma remota y hacerles compañía.

Los robots con piernas también irán a donde es peligroso que vayan los humanos. Se lanzarán en paracaídas a los incendios forestales para recopilar datos en tiempo real, se apresurarán a entrar a edificios incendiados para buscar ocupantes, o ingresar a zonas de desastre, como la central nuclear de Fukushima Daiichi, para explorar áreas de difícil acceso. Llevarán a cabo inspecciones periódicas de los espacios internos de las represas hidroeléctricas y explorarán las minas abandonadas, para que no tengamos que hacerlo nosotros.

Se deben resolver muchos desafíos para llevarnos a ese futuro. Pero el autor está convencido de que la comunidad robótica puede hacer que esta tecnología sea práctica. Será un pequeño paso para un robot, un gran salto para la humanidad.

Este artículo es una adaptación al español del que aparece en la edición impresa de IEE Spectrum de marzo de 2019 como «Walk This Way».

Sobre el autor:

Jonathan Hurst es director de tecnología y cofundador de Agility Robotics, así como profesor asociado de robótica y profesor de la Facultad de Ingeniería Dean en Oregon State University. Él tiene un B.S. en ingeniería mecánica y un M.S. y Ph.D. en robótica, todo de la Universidad Carnegie Mellon. Su investigación universitaria se centra en la comprensión de las mejores prácticas de ciencia e ingeniería fundamentales para la locomoción bípeda. Agility Robotics está utilizando esta investigación para desarrollar aplicaciones comerciales para la movilidad con patas robóticas.



Una prótesis que restaura la sensación de dónde está tu mano

Los investigadores han desarrollado una mano biónica de nueva generación que permite a los amputados recuperar su propiocepción. Los resultados del estudio son la culminación de diez años de investigación en robótica.

El nuevo dispositivo permite a los pacientes alcanzar un objeto en una mesa y determinar la consistencia, la forma, la posición y el tamaño de un elemento sin tener que mirarlo.

La mano biónica de la próxima generación, desarrollada por investigadores de la EPFL, la Escuela de Estudios Avanzados Sant’Anna en Pisa y el Policlínico Universitario A. Gemelli en Roma, permite a los amputados recuperar un sentido del tacto muy sutil y casi natural. Los científicos lograron reproducir la sensación de propiocepción, que es la capacidad de nuestro cerebro para detectar al instante y con precisión la posición de nuestros miembros durante y después del movimiento, incluso en la oscuridad o con los ojos cerrados.

El nuevo dispositivo permite a los pacientes alcanzar un objeto en una mesa y determinar la consistencia, la forma, la posición y el tamaño de un elemento sin tener que mirarlo. La prótesis ha sido probada con éxito en varios pacientes y funciona estimulando los nervios en el muñón del amputado. Los nervios pueden proporcionar retroalimentación sensorial a los pacientes en tiempo real, casi como lo hacen en una mano natural.

Los hallazgos han sido publicados en la revista Science Robotics. Son el resultado de diez años de investigación científica coordinada por Silvestro Micera, profesor de bioingeniería en la EPFL y en la Escuela de Estudios Avanzados Sant’Anna, y Paolo Maria Rossini, director de neurociencia del Policlínico Universitario A. Gemelli en Roma.

Retroalimentación sensorial

Las prótesis mioeléctricas actuales permiten a los amputados recuperar el control motor voluntario de su extremidad artificial mediante la explotación de la función muscular residual en el antebrazo. Sin embargo, la falta de retroalimentación sensorial significa que los pacientes tienen que confiar mucho en las señales visuales. Esto puede evitar que sientan que su extremidad artificial es parte de su cuerpo y causa que su uso sea más antinatural.

Recientemente, varios grupos de investigación han logrado proporcionar retroalimentación táctil en personas con amputaciones, lo que ha llevado a una mejor función y realización de prótesis. Pero este último estudio ha llevado las cosas un paso más allá.

«Nuestro estudio muestra que la sustitución sensorial basada en la estimulación intraneural puede ofrecer tanto la retroalimentación de posición como la retroalimentación táctil de manera simultánea y en tiempo real», explica Micera. «El cerebro no tiene problemas para combinar esta información, y los pacientes pueden procesar ambos tipos en tiempo real con excelentes resultados».

La estimulación intraneural restablece el flujo de información externa mediante pulsos eléctricos enviados por electrodos insertados directamente en el muñón del paciente. Luego, los pacientes deben someterse a entrenamiento para aprender gradualmente a traducir esos pulsos en sensaciones propioceptivas y táctiles.

Esta técnica permitió a dos amputados recuperar una agudeza propioceptiva alta, con resultados comparables a los obtenidos en sujetos sanos. La entrega simultánea de información de posición y la retroalimentación táctil permitieron a los dos amputados determinar el tamaño y la forma de cuatro objetos con un alto nivel de precisión (75,5%).

«Estos resultados muestran que los amputados pueden procesar de manera efectiva la información táctil y de posición recibida simultáneamente a través de la estimulación intraneural», dice Edoardo D’Anna, investigador de EPFL y autor principal del estudio.

Fuente de la historia: Materiales proporcionados por Ecole Polytechnique Fédérale de Lausanne.

Referencia de publicación:

Edoardo D’Anna, Giacomo Valle, Alberto Mazzoni, Ivo Strauss, Francesco Iberite, Jérémy Patton, Francesco M. Petrini, Stanisa Raspopovic, Giuseppe Granata, Riccardo Di Iorio, Marco Controzzi, Christian Cipriani, Thomas Stieglitz, Paolo M. Rossini, Silvestro Micera. A closed-loop hand prosthesis with simultaneous intraneural tactile and position feedback (Una prótesis de mano de circuito cerrado con tacto intraneural simultáneo y retroalimentación de posición). Science Robotics, 2019; 4 (27): eaau8892 DOI: 10.1126/scirobotics.aau8892



Dando a los vehículos autónomos una «visión eléctrica» más aguda

El sistema en un chip capaz de detectar las señales en longitudes de onda sub-terahercios podría ayudar a conducir los vehículos sin conductor a través de la niebla y el polvo.

Los vehículos autónomos que dependen de sensores de imagen basados en la luz a menudo tienen dificultades para ver a través de algo que obstruye la visión, como la niebla. Pero los investigadores del MIT han desarrollado un sistema de recepción de radiación sub-terahercios que podría ayudar a conducir automóviles sin conductor cuando los métodos tradicionales fallan.

Las longitudes de onda de sub-terahercios, que se encuentran entre la radiación de microondas e infrarroja en el espectro electromagnético, se pueden detectar fácilmente a través de la niebla y las nubes de polvo, mientras que los sistemas de imágenes LiDAR basados en infrarrojos utilizados en vehículos autónomos tienen dificultades. Para detectar objetos, un sistema de imágenes basado en sub-terahercios envía una señal inicial a través de un transmisor; un receptor mide la absorción y reflexión de las longitudes de onda de los sub-terahercios del rebote. Eso envía una señal a un procesador que recrea una imagen del objeto.

Pero la implementación de sensores sub-terahertcios en autos sin conductor es un desafío. Un reconocimiento de objetos sensible y preciso requiere una fuerte señal de salida del receptor al procesador. Los sistemas tradicionales, hechos de componentes discretos que producen esas señales, son grandes y costosos. Existen matrices más pequeñas de sensores en chip, pero producen señales débiles.

En un artículo publicado en línea por el IEEE Journal of Solid-State Circuits, los investigadores describen una matriz bidireccional de recepción sub-terahercios en un chip que es mucho más sensible, lo que significa que puede capturar e interpretar mejor las longitudes de onda de sub-terahercios en presencia de mucho ruido de señal.

Para lograr esto, implementaron un esquema de píxeles a partir de una mezcla de señales independientes, llamados «detectores heterodinos», que generalmente son muy difíciles de integrar en chips. Los investigadores redujeron drásticamente el tamaño de los detectores heterodinos para que muchos de ellos puedan encajar en un denso chip. El truco consistió en crear un componente multipropósito compacto que pueda mezclar simultáneamente señales de entrada, sincronizar la matriz de píxeles y producir fuertes señales de banda base de salida.

Los investigadores construyeron un prototipo, que tiene una matriz de 32 píxeles integrada en un dispositivo de 1,2 milímetros cuadrados. Los píxeles son aproximadamente 4.300 veces más sensibles que los píxeles en los sensores de matriz de sub-terahercios de hoy en día en chips. Con un poco más de desarrollo, es posible que el chip se pueda usar en autos sin conductor y robots autónomos.

«Una gran motivación para este trabajo es tener mejores ‘ojos eléctricos’ para vehículos autónomos y drones», dice el coautor Ruonan Han, profesor asociado de ingeniería eléctrica y ciencias de la computación, y director del Grupo de Electrónica Integrada Terahertz en el Microsystems Technology Laboratories (MTL) del MIT. «Nuestros sensores de sub-terahercios de bajo costo y en chip jugarán un papel complementario al LiDAR para cuando el entorno sea peligroso».

Junto a Han en la publicación, se encuentran el primer autor Zhi Hu y el coautor Cheng Wang, ambos estudiantes de doctorado en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación que trabajan en el grupo de investigación de Han.

Diseño descentralizado

La clave del diseño es lo que los investigadores denominan «descentralización». En este diseño, un píxel único, denominado píxel «heterodino», genera el ritmo de la frecuencia (la diferencia de frecuencia entre dos señales de sub-terahercios entrantes) y la «oscilación local», una señal eléctrica que cambia la frecuencia de una frecuencia de entrada. Este proceso de «mezcla descendente» produce una señal en el rango de megahercios que puede ser fácilmente interpretada por un procesador de banda base.

La señal de salida se puede usar para calcular la distancia de los objetos, de manera similar a como un LiDAR calcula el tiempo que tarda un láser en impactar un objeto y rebotar. Además, la combinación de las señales de salida de una matriz de píxeles y la dirección de los píxeles en una cierta dirección puede permitir imágenes de alta resolución de una escena. Esto permite no solo la detección, sino también el reconocimiento de objetos, algo fundamental en vehículos autónomos y robots.

La colección de píxeles heterodinos funciona solo cuando las señales de oscilación locales de todos los píxeles están sincronizadas, lo que significa que se necesita una técnica de sincronización de señales. Los diseños centralizados incluyen un solo concentrador que comparte señales de oscilación locales con todos los píxeles.

Estos diseños generalmente se usan en receptores de frecuencias más bajas y pueden causar problemas en las bandas de frecuencia de sub-terahercios, donde la generación de una señal de alta potencia desde un solo concentrador es notoriamente difícil. A medida que la matriz aumenta, la potencia compartida por cada píxel disminuye, lo que reduce la intensidad de la señal de banda base de salida, que depende en gran medida de la potencia de la señal de oscilación local. Como resultado, una señal generada por cada píxel puede ser muy débil, lo que lleva a una baja sensibilidad. Se ha comenzado a usar algunos sensores en chip de este diseño, pero están limitados a ocho píxeles.

El diseño descentralizado de los investigadores aborda este compromiso de sensibilidad a la escala. Cada píxel genera su propia señal de oscilación local, utilizada para recibir y mezclar la señal entrante. Además, un acoplador integrado sincroniza su señal de oscilación local con la de su vecino. Esto le da a cada píxel más potencia de salida, ya que la señal de oscilación local no fluye desde un centro global.

Una buena analogía para el nuevo diseño descentralizado es un sistema de riego, dice Han. Un sistema de irrigación tradicional tiene una bomba que dirige un poderoso flujo de agua a través de una red de tuberías que distribuye agua a muchos sitios de rociadores. Cada aspersor escupe agua con un flujo mucho más débil que el flujo inicial de la bomba. Si se desea que los rociadores lancen agua a la misma frecuencia, eso requeriría otro sistema de control.

El diseño de los investigadores, por otro lado, le da a cada sitio su propia bomba de agua, eliminando la necesidad de conectar tuberías, y le da a cada aspersor su propia salida poderosa de agua. Cada aspersor también se comunica con su vecino para sincronizar sus pulsaciones. «Con nuestro diseño, esencialmente no hay límite para la escalabilidad», dice Han. «Puedes tener tantos sitios como quieras, y cada sitio aún bombea la misma cantidad de agua… y todas las bombas pulsan juntas».





Sin embargo, potencialmente, la nueva arquitectura hace que la huella de cada píxel sea mucho más grande, lo que plantea un gran desafío para la integración a gran escala y de alta densidad en forma de matriz. En su diseño, los investigadores combinaron varias funciones de cuatro componentes tradicionalmente separados (antena, mezclador, oscilador y acoplador) en un único componente de «multitarea» dedicado a cada píxel. Esto permite un diseño descentralizado de 32 píxeles.

«Diseñamos un componente multifuncional para un diseño [descentralizado] en un chip y combinamos algunas estructuras discretas para reducir el tamaño de cada píxel», dice Hu. «Aunque cada píxel realiza operaciones complicadas, mantiene su compacidad, por lo que aún podemos tener una matriz densa a gran escala».

Guiado por frecuencias

Para que el sistema pueda medir la distancia de un objeto, la frecuencia de la señal local de oscilación debe ser estable.

Con ese fin, los investigadores incorporaron en su chip un componente llamado bucle de bloqueo de fase, que bloquea la frecuencia de sub-terahercios de las 32 señales de oscilación local a una referencia estable de baja frecuencia. Debido a que los píxeles están acoplados, sus señales de oscilación locales comparten una fase y frecuencia idénticas y de alta estabilidad. Esto asegura que se pueda extraer información significativa de las señales de banda base de salida. Toda esta arquitectura minimiza la pérdida de señal y maximiza el control.

«En resumen, logramos una matriz coherente, al mismo tiempo con una potencia de oscilación local muy elevada en cada píxel, por lo que cada píxel alcanza una alta sensibilidad», dice Hu.



Logran que los robots rastreen objetos en movimiento con una precisión sin precedentes

El sistema usa etiquetas RFID para ubicarse en los objetivos. Podría beneficiar la fabricación robótica, drones colaborativos y otras aplicaciones.

Un nuevo sistema desarrollado en MIT utiliza etiquetas RFID para ayudar a los robots a localizar objetos en movimiento con una velocidad y precisión sin precedentes. El sistema podría permitir una mayor colaboración y precisión de los robots que trabajan en el empaquetado y el ensamblaje, y de enjambres de drones que realizan misiones de búsqueda y rescate.

En un documento que se presentará la próxima semana en el Simposio de USENIX sobre Diseño e Implementación de Sistemas en Red, los investigadores muestran que los robots que usan el sistema pueden ubicar objetos etiquetados en un promedio de 7,5 milisegundos, y con un error de menos de un centímetro.

En el sistema, llamado TurboTrack, se puede aplicar una etiqueta RFID (identificación por radiofrecuencia) a cualquier objeto. Un lector envía una señal inalámbrica que se refleja en la etiqueta RFID y otros objetos cercanos, y rebota en el lector. Un algoritmo revisa todas las señales reflejadas para encontrar la respuesta de la etiqueta RFID. Luego, los cálculos finales aprovechan el movimiento de la etiqueta RFID, algo que generalmente disminuye la precisión, para mejorar la precisión de la localización.

Los investigadores dicen que el sistema podría reemplazar la visión por computadora para algunas tareas robóticas. Al igual que con su contraparte humana, la visión de la computadora está limitada por lo que puede ver, y puede dejar de notar objetos en entornos desordenados. Las señales de radiofrecuencia no tienen estas restricciones: pueden identificar los objetivos sin visualización, dentro del desorden y a través de las paredes.

Para validar el sistema, los investigadores adjuntaron una etiqueta RFID a una tapa y otra a una botella. Un brazo robótico localizó la tapa y la colocó sobre la botella, sostenida por otro brazo robótico. En otra demostración, los investigadores rastrearon nanodrones equipados con RFID durante el acoplamiento, las maniobras y el vuelo. En ambas tareas, el sistema era tan preciso y rápido como los sistemas tradicionales de visión artificial, mientras trabajaban en escenarios donde falla la visión artificial, informan los investigadores.

“Si se usa señales de RF para tareas que normalmente se realizan con visión por computadora, no solo se habilita a los robots para que hagan cosas humanas, sino que también se puede hacer que hagan cosas sobrehumanas”, dice Fadel Adib, profesor asistente e investigador principal en el MIT Media Lab, y director fundador del Grupo de Investigación Signal Kinetics. «Y puede hacerlo de manera escalable, porque estas etiquetas RFID solo cuestan 3 centavos [de dólar] cada una».

En la fabricación, el sistema podría permitir que los brazos robóticos sean más precisos y versátiles en, digamos, recoger, ensamblar y empaquetar elementos a lo largo de una línea de ensamblaje. Otra aplicación prometedora es el uso de «nanodrones» de mano para misiones de búsqueda y rescate. Los nanodrones actualmente utilizan la visión por computadora y métodos para unir las imágenes capturadas con fines de localización. Estos drones a menudo se confunden en áreas caóticas, se pierden entre sí detrás de las paredes y no se pueden identificar de manera única. Todo esto limita su capacidad de, digamos, extenderse sobre un área y colaborar para buscar a una persona desaparecida. Usando el sistema de los investigadores, los nanodrones en enjambres podrían ubicarse mejor entre sí, para un mayor control y colaboración.

«Se puede permitir que un enjambre de nanodrones se forme de ciertas maneras, vuele en ambientes abarrotados, e incluso en entornos ocultos a la vista, con gran precisión», dice el primer autor Zhihong Luo, un estudiante graduado del Grupo de Investigación Signal Kinetics.

Los otros coautores del Media Lab en la publicación son el estudiante Qiping Zhang, el posdoctorado Yunfei Ma y el asistente de investigación Manish Singh.

Súper resolución

El grupo de Adib ha estado trabajando durante años en el uso de señales de radio para fines de seguimiento e identificación, como la detección de contaminación en los alimentos embotellados, la comunicación con los dispositivos internos del cuerpo, y la gestión de inventarios de almacenamientos.

Sistemas similares han intentado utilizar etiquetas RFID para tareas de localización. Pero estos vienen con compensaciones de precisión o velocidad. Para ser precisos, les puede llevar varios segundos encontrar un objeto en movimiento. Para aumentar la velocidad, pierden precisión.

El desafío fue lograr velocidad y precisión simultáneamente. Para hacerlo, los investigadores se inspiraron en una técnica de imagen llamada «imagen de súper resolución». Estos sistemas unen imágenes desde múltiples ángulos para lograr una imagen de resolución más fina.

«La idea era aplicar estos sistemas de súper resolución a las señales de radio», dice Adib. «A medida que algo se mueve, obtienes más perspectivas para rastrearlo, de modo que se puede explotar el movimiento para obtener precisión».

El sistema combina un lector RFID estándar con un componente «auxiliar» que se utiliza para localizar las señales de radiofrecuencia. El ayudante dispara una señal de banda ancha que comprende múltiples frecuencias, basándose en un esquema de modulación utilizado en la comunicación inalámbrica, llamado Multiplexación por división de frecuencias ortogonales.

El sistema captura todas las señales que rebotan contra objetos en el entorno, incluida la etiqueta RFID. Una de esas señales lleva una señal que es específica de una determinada etiqueta RFID, porque las señales RFID reflejan y absorben una señal entrante en un determinado patrón, correspondiente a bits 0 y 1, que el sistema puede reconocer.




Debido a que estas señales viajan a la velocidad de la luz, el sistema puede calcular un «tiempo de vuelo» (Time of Fly), que mide la distancia al calcular el tiempo que tarda una señal en viajar entre un transmisor y un receptor, para medir la ubicación de la etiqueta, así como los otros objetos en el entorno. Pero esto proporciona solo una figura de localización de estadio de béisbol, no una precisión menor a un centímetro.

Aprovechando el movimiento

Para ampliar la ubicación de la etiqueta, los investigadores desarrollaron lo que denominan un algoritmo de «súper resolución de espacio-tiempo».

El algoritmo combina las estimaciones de ubicación para todas las señales de rebote, incluida la señal RFID, que ha determinado usando el tiempo de vuelo. Usando algunos cálculos de probabilidad, reduce ese grupo a unas pocas ubicaciones potenciales para la etiqueta RFID.

A medida que la etiqueta se mueve, su ángulo de señal se altera ligeramente, un cambio que también corresponde a una determinada ubicación. El algoritmo puede usar ese cambio de ángulo para rastrear la distancia de la etiqueta a medida que se mueve. Al comparar constantemente el cambio de la medición de distancia con todas las demás mediciones de distancia de otras señales, puede encontrar la etiqueta en un espacio tridimensional. Todo esto sucede en una fracción de segundo.

«La gran idea es que, al combinar estas mediciones en el tiempo y en el espacio, se obtiene una mejor reconstrucción de la posición de la etiqueta», dice Adib.

«El trabajo informa sobre la precisión en el orden del sub-centímetro, que es muy impresionante para RFID», dice Lili Qiu, profesor de ciencias de la computación en la Universidad de Texas en Austin, cuya investigación se centra en las redes inalámbricas y las comunicaciones. «El documento propone una idea interesante que le permite a un «ayudante» transmitir una señal de banda ancha compatible con el protocolo RFID para lograr una alta precisión de seguimiento [y] desarrolla un […] marco para la localización de RF que fusiona las mediciones en el tiempo y en múltiples antenas. El sistema tiene potencial para admitir aplicaciones que son objetivo [de los investigadores], como ensamblaje robótico y nanodrones. … Sería muy interesante ver los resultados de las pruebas de campo en el futuro».

El trabajo fue patrocinado, en parte, por la Fundación Nacional de Ciencia.