Archivo de la categoría: Diseños

¿Instrucciones para tejer un robot?

Fabrican objetos blandos y accionados utilizando máquinas de tejer comerciales

Los investigadores de la Universidad Carnegie Mellon han usado máquinas de tejer controladas por computadora para crear juguetes de peluche y otros objetos tejidos que son accionados por tendones. Es un enfoque que, según dicen, podría usarse algún día para hacer robots blandos y tecnologías portátiles.

El software desarrollado por investigadores de Morphing Matter Lab y Dev Lab de CMU en el Human-Computer Interaction Institute hace posible que los objetos emerjan de las máquinas de tejer en sus formas deseadas y con los tendones ya integrados. Luego se pueden rellenar y los tendones se unen a los motores, según sea necesario.

Lea Albaugh, una Ph.D. estudiante que dirigió el esfuerzo de investigación, desarrolló la técnica de inserción de tendones y exploró este espacio de diseño para hacer pantallas que cambian de forma, figuras rellenas que dan abrazos cuando se tocan en el estómago, e incluso un suéter con una manga que se mueve por sí solo. Aunque en gran parte son fantasiosos, estos objetos demuestran capacidades que podrían tener aplicaciones serias, como robots blandos (ver video).

«La robótica suave es un campo en crecimiento», señaló Albaugh. «La idea es construir robots a partir de materiales que sean intrínsecamente seguros para que las personas estén cerca, por lo que sería muy difícil lastimar a alguien. Los componentes blandos actuados serían baratos de producir en las máquinas de tejer comerciales.

«Tenemos tantos objetos blandos en nuestras vidas y muchos de ellos podrían interactuar con esta tecnología», agregó. «Una prenda de vestir podría ser parte de su sistema de información personal. Su suéter, por ejemplo, podría darle un golpecito en el hombro para llamar su atención. La tela de una silla podría servir como una interfaz háptica. Las mochilas podrían abrirse».


Fabricación digital de objetos de acción suave mediante tejido a máquina de Morphing Matter Lab

Albaugh y sus co-investigadores, Scott Hudson y Lining Yao, miembros de la facultad de HCII, presentarán su investigación en CHI 2019, la Conferencia de la Asociación para Maquinaria de Computación sobre Factores Humanos en Sistemas de Computación, del 4 al 9 de mayo en Glasgow, Escocia.

Las máquinas de tejer comerciales están bien desarrolladas y se utilizan ampliamente, pero generalmente requieren una programación minuciosa para cada prenda. Esta nueva investigación se basa en el trabajo anterior de CMU para automatizar el proceso, lo que facilita el uso de estas máquinas de producción en serie para producir diseños personalizados y únicos.

«Es una línea muy conveniente para usar para producir objetos de punto activos», dijo Yao, profesor asistente de HCII. Otros investigadores han experimentado con objetos textiles accionados, anotó, pero se han enfrentado a la tarea que lleva mucho tiempo de agregar tendones a los artículos terminados. Insertar tendones en los materiales a medida que se crean ahorra tiempo y esfuerzo, y agrega precisión a sus movimientos.

Los investigadores desarrollaron métodos para insertar líneas de tendones en forma horizontal, vertical y diagonal en láminas y tubos de tela. Mostraron que la forma de la tela, combinada con la orientación del recorrido del tendón, puede producir una variedad de efectos de movimiento, entre ellos curvas asimétricas, curvas en forma de S y giros. La rigidez de los objetos se puede ajustar rellenándolos con diversos materiales disponibles para los aficionados.

Se pueden usar tendones hechos con varios materiales, incluidos hilos de acolchado envueltos en poliéster, hilo de seda pura y monofilamento de nylon.

La estudiante Lea Albaugh desarrolló una técnica de inserción de tendones y exploró técnicas como hacer muñecos de peluche que dan abrazos cuando se los presiona en el estómago.

Además de activar los objetos, estas técnicas también pueden agregar capacidades de detección a los objetos. Al unir sensores a cada tendón, por ejemplo, es posible sentir la dirección en que se está doblando o torciendo el objeto. Al tejer con hilo conductor, los investigadores demostraron que podían crear tanto almohadillas de contacto para una detección táctil capacitiva, como sensores de tensión para detectar si una muestra está estirada.

Ya se está utilizando impresión 3D para hacer objetos personalizados, con movimientos y componentes robóticos, dijo Albaugh, aunque los materiales por lo general son duros. El tejido de punto controlado por computadora tiene el potencial de ampliar las posibilidades y hacer que los resultados sean más amigables para las personas.

«Creo que hay un enorme poder en el uso de materiales que las personas ya asocian con la comodidad», dijo.

Los ingenieros crean material «similar a la vida», con metabolismo artificial

Como material genético, el ADN es responsable de toda la vida conocida. Pero el ADN también es un polímero. Aprovechando la naturaleza única de la molécula, los ingenieros de Cornell han creado máquinas simples construidas con biomateriales con propiedades de seres vivos.

Con el uso de lo que denominan materiales DASH (DNA-based Assembly and Synthesis of Hierarchical materials, Ensamblaje y Síntesis de Jerarquías a base de ADN), los ingenieros de Cornell construyeron un material de ADN con capacidades de metabolismo, además del autoensamblaje y la organización, tres características clave de la vida.

“Estamos introduciendo un concepto de material completamente nuevo y realista impulsado por su propio metabolismo artificial”. «No estamos haciendo algo que está vivo, pero estamos creando materiales que son mucho más reales que nunca se han visto antes», dijo Dan Luo, profesor de ingeniería biológica y ambiental en la Facultad de Agricultura y Ciencias de la Vida.

El artículo es «Material de ADN dinámico con comportamiento de locomoción emergente impulsado por el metabolismo artificial» (Dynamic DNA material with emergent locomotion behavior powered by artificial metabolism), publicado el 10 de abril en Science Robotics.

Para que cualquier organismo vivo se mantenga, debe haber un sistema para gestionar el cambio. Se deben generar nuevas células; Las células viejas y los desechos deben ser barridos. La biosíntesis y la biodegradación son elementos clave de la autosostenibilidad y requieren metabolismo para mantener su forma y funciones.

A través de este sistema, las moléculas de ADN se sintetizan y ensamblan en patrones de manera jerárquica, lo que resulta en algo que puede perpetuar un proceso dinámico y autónomo de crecimiento y decadencia.

Usando DASH, los ingenieros de Cornell crearon un biomaterial que puede emerger de forma autónoma de sus bloques de construcción a nanoescala y organizarse por sí mismo, primero en polímeros y finalmente en formas de mesoescala (componentes en un rango de aproximadamente 0,1 mm a 5 mm). Partiendo de una secuencia de semillas de 55 nucleótidos, las moléculas de ADN se multiplicaron cientos de miles de veces, creando cadenas de ADN de repetición de unos pocos milímetros de tamaño. La solución de reacción se inyectó luego en un dispositivo microfluídico que proporcionaba un flujo de energía líquida y los componentes básicos necesarios para la biosíntesis.

A medida que el flujo invadía el material, el ADN sintetizaba sus propias nuevas hebras, con el extremo frontal del material creciendo y el extremo de la cola degradándose en un equilibrio optimizado. De esta manera, hizo su propia locomoción, avanzando lentamente, contra el flujo, de manera similar a como se mueve el moho mucilaginoso.

La habilidad de locomoción permitió a los investigadores enfrentar grupos del material entre sí en carreras competitivas. Debido a la aleatoriedad en el entorno, un cuerpo eventualmente obtendría una ventaja sobre el otro, permitiendo que uno cruzara primero una línea de meta.

“Los diseños siguen siendo primitivos, pero mostraron una nueva ruta para crear máquinas dinámicas a partir de biomoléculas. Estamos en un primer paso en la construcción de robots reales mediante el metabolismo artificial”, dijo Shogo Hamada, profesor e investigador asociado en el laboratorio de Luo, y autor principal y coautor del artículo. “Incluso a partir de un diseño simple, pudimos crear comportamientos sofisticados como las competencias. El metabolismo artificial podría abrir una nueva frontera en robótica».

Actualmente, los ingenieros están explorando formas para que el material reconozca los estímulos y puedan buscarlos de manera autónoma en el caso de la luz o los alimentos, o evitarlos si son dañinos.

El metabolismo programado incrustado en los materiales de ADN es la innovación clave. El ADN contiene el conjunto de instrucciones para el metabolismo y la regeneración autónoma. Después de eso, es por su cuenta.

“Todo, desde su capacidad para moverse y competir, todos esos procesos son independientes. No hay interferencia externa «, dijo Luo. “La vida comenzó miles de millones de años a partir de unos pocos tipos de moléculas. Esto podría ser lo mismo».

El material que el equipo creó puede durar dos ciclos de síntesis y degradación antes de que caduque. Según los investigadores, es probable que la longevidad se extienda, lo que abre la posibilidad de más «generaciones» de material a medida que se auto-replica. «En última instancia, el sistema puede llevar a máquinas auto-reproductivas realistas», dijo Hamada.

«Más emocionante, el uso del ADN le da a todo el sistema una posibilidad de auto-evolución», dijo Luo. «Eso es enorme».

Teóricamente, podría diseñarse para que las generaciones subsiguientes surjan en segundos. Según Luo, la reproducción a este ritmo acelerado aprovecharía las propiedades de mutación naturales del ADN y aceleraría el proceso evolutivo.

En el futuro, el sistema podría usarse como un biosensor para detectar la presencia de cualquier ADN y ARN. El concepto también podría usarse para crear una plantilla dinámica para hacer proteínas sin células vivas.

El trabajo fue financiado en parte por la National Science Foundation y apoyado por el Fondo de Ciencia y Tecnología de NanoEscala de Cornell y el Instituto Kavli en Cornell for Nanoscale Science. Entre los colaboradores se encuentran Jenny Sabin, la profesora de Arquitectura Arthur L. e Isabel B. Wiesenberger, y los investigadores forman la Universidad Jiaotong de Shanghai y la Academia China de Ciencias.

Hay una patente pendiente en el Centro de Licencias de Tecnología.



Este puede ser el Apple II de los brazos de robot impulsados ​​por IA

Un nuevo brazo robótico de bajo costo que se puede controlar con un casco de realidad virtual facilitará la experimentación con inteligencia artificial y robótica.

Los robots en las fábricas de hoy son potentes y precisos, pero tan tontos como una tostadora. Un nuevo brazo robot, desarrollado por un equipo de investigadores de UC Berkeley, está destinado a cambiar eso al proporcionar una plataforma barata y potente para la experimentación de la Inteligencia Artificial. El equipo compara su creación con la Apple II, la computadora personal que atrajo a los aficionados y hackers en los años 70 y 80, iniciando una revolución tecnológica.

Los robots y la inteligencia artificial han evolucionado en paralelo como áreas de investigación durante décadas. En los últimos años, sin embargo, la IA ha avanzado rápidamente cuando se aplica a problemas abstractos como etiquetar imágenes o jugar videojuegos. Pero mientras que los robots industriales pueden hacer las cosas con mucha precisión, requieren una programación minuciosa y no pueden adaptarse a los cambios más pequeños. Han surgido robots más baratos y seguros, pero la mayoría no están diseñados específicamente para ser controlados con software de IA.

“Los robots son cada vez más capaces de aprender nuevas tareas, ya sea a través de prueba y error, o mediante una demostración experta”, dice Stephen McKinley, un postdoctorado en UC Berkeley que estuvo involucrado en el desarrollo del robot. “Sin una plataforma de bajo costo ─un dispositivo tipo Apple II─ la experimentación, la prueba y el error y la investigación productiva continuarán avanzando lentamente. Existe un potencial para que la investigación se acelere en gran medida al hacer que más robots sean más accesibles «.

El nuevo brazo, conocido como Blue, cuesta alrededor de $ 5.000, y puede controlarse a través de un casco de realidad virtual, una técnica que está resultando útil para entrenar algoritmos de IA que controlan robots.


Blue es capaz de transportar cargas relativamente pesadas, pero también es extremadamente «manejable», lo que significa que obedecerá cuando se lo empuje o jale. Esto hace que sea seguro para que las personas trabajen a su lado y permite que se le muestre físicamente cómo hacer algo. El sistema proporciona software de bajo nivel para controlar el robot y para el sistema de realidad Virtual, y está diseñado para ser compatible con cualquier computadora que ejecute el software de Inteligencia Artificial.



El proyecto proviene del laboratorio de Pieter Abbeel, un profesor de la UC Berkeley que ha sido pionero en la aplicación de la inteligencia artificial a la robótica. Las prácticas informáticas para el proyecto han sido licenciadas por UC Berkeley por una nueva compañía llamada Berkeley Open Arms, que desarrollará y venderá el hardware.

Sigue siendo extremadamente difícil traducir el aprendizaje automático de un entorno virtual al mundo real. A pesar de esto, los investigadores académicos han avanzado en la aplicación del aprendizaje automático al hardware del robot, lo que ha llevado a demostraciones espectaculares y algunas empresas comerciales.

Algunas compañías astutas han tomado nota de la tendencia. Nvidia, un fabricante de chips que ha impulsado el auge de la IA al hacer microprocesadores y software para el aprendizaje profundo, lanzó recientemente un laboratorio dedicado a explorar las aplicaciones de la IA a los robots.

El CEO de Nvidia, Jensen Huang, describe al robot de Berkeley como «muy emocionante».

Huang señala que si bien comprar un robot industrial puede costar alrededor de $ 50.000, puede costar muchas veces eso reprogramarlo para una nueva serie de tareas diferentes. «Está al revés», dice. Espera grandes avances en robótica en los próximos años gracias a los avances en el aprendizaje automático y la simulación de realidad virtual: «Los robots y la IA son ahora lo mismo».



Ver a través de los ojos de un robot ayuda a personas con grandes deficiencias motoras

Un interfaz que utiliza la tecnología de realidad aumentada podría ayudar a las personas con profundas deficiencias motoras a operar un robot humanoide para alimentarse sin ayuda y a realizar la rutina de las tareas de cuidado personal, tales como rascarse una picazón y aplicarse loción para la piel. La interfaz basada en la web muestra la visión de un robot de los alrededores para ayudar a los usuarios a interactuar con el mundo a través de la máquina.

El sistema, descrito en la revista PLOS ONE, podría ayudar a hacer que los robots sofisticados sean más útiles para las personas que no tienen experiencia en la operación de sistemas robóticos complejos. Los participantes del estudio interactuaron con la interfaz del robot utilizando tecnologías estándar de acceso asistido por computadora, tales como rastreadores oculares y rastreadores de movimiento de la cabeza, que ellos ya estaban usando para controlar sus computadoras personales.

El documento informa sobre dos estudios que muestran cómo tales «sustitutos corporales robóticos», que pueden realizar tareas similares a las de los humanos, podrían mejorar la calidad de vida de los usuarios. El trabajo podría proporcionar una base para desarrollar robots de asistencia más rápidos y capaces.

«Nuestros resultados sugieren que las personas con deficiencias motoras profundas pueden mejorar su calidad de vida utilizando sustitutos corporales robóticos», dijo Phillip Grice, un reciente graduado Ph.D del Instituto de Tecnología de Georgia, quien es primer autor del artículo. «Hemos dado el primer paso para hacer posible que alguien compre un tipo apropiado de robot, lo tenga en su hogar y obtenga un beneficio real de él».

Grice y el profesor Charlie Kemp del Departamento de Ingeniería Biomédica de Wallace H. Coulter en Georgia Tech y Emory University utilizaron un manipulador móvil PR2 fabricado por Willow Garage para los dos estudios. El robot con ruedas tiene 20 grados de libertad, con dos brazos y una «cabeza», que le da la capacidad de manipular objetos como botellas de agua, paños, cepillos para el cabello e incluso una afeitadora eléctrica.

(A) El robot PR2. (B) Uno de los siete brazos DoF del robot, incluida la piel de tela táctil (gris) y el relleno de espuma (negro) en la pinza metálica. (C) La base del robot, incluida la piel de tela sensible al tacto (azul), colocada sobre el relleno de espuma.

«Nuestro objetivo es dar a las personas con uso limitado de sus propios cuerpos acceso a cuerpos robóticos para que puedan interactuar con el mundo de nuevas maneras», dijo Kemp.

En su primer estudio, Grice y Kemp pusieron el PR2 conectado a través de Internet para un grupo de 15 participantes con discapacidades motoras graves. Los participantes aprendieron a controlar el robot en forma remota, utilizando su propio equipo de asistencia que utilizaban para operar el cursor del mouse para realizar una tarea de cuidado personal. El ochenta por ciento de los participantes pudieron manipular el robot para recoger una botella de agua y llevarla a la boca de un maniquí.

«En comparación con las personas sanas, las capacidades del robot son limitadas», dijo Grice. «Pero los participantes pudieron realizar tareas de manera efectiva y mostraron una mejora en una evaluación clínica que midió su capacidad para manipular objetos en comparación con lo que hubieran podido hacer sin el robot».

En el segundo estudio, los investigadores proporcionaron el PR2 y el sistema de interfaz a Henry Evans, un hombre de California que ha estado ayudando a los investigadores de Georgia Tech a estudiar y mejorar los sistemas de asistencia robótica desde 2011. Evans, que tiene un control muy limitado de su cuerpo, probó el robot en su casa durante siete días y no solo completó las tareas, sino que también ideó nuevos usos combinando la operación de ambos brazos de robot al mismo tiempo, usando un brazo para controlar una toalla y el otro para usar un cepillo.

«El sistema fue muy liberador para mí, ya que me permitió manipular mi entorno de forma independiente por primera vez desde mi ataque», dijo Evans. «Con respecto a otras personas, me emocionó ver a Phil obtener resultados abrumadoramente positivos cuando probó objetivamente el sistema con otras 15 personas».

Los investigadores se alegraron de que Evans desarrollara nuevos usos para el robot, combinando el movimiento de los dos brazos en formas que no habían esperado.

«Cuando le dimos a Henry acceso gratuito al robot durante una semana, encontró nuevas oportunidades para usarlo que no habíamos anticipado», dijo Grice. «Esto es importante porque gran parte de la tecnología de asistencia disponible en la actualidad está diseñada para propósitos muy específicos. Lo que Henry ha demostrado es que este sistema es poderoso para brindar asistencia y capacitar a los usuarios. Las oportunidades para esto son potencialmente muy amplias».

La interfaz le permitió a Evans cuidarse en la cama durante un período prolongado de tiempo. «El aspecto más útil del sistema de interfaz fue que podía operar el robot de forma totalmente independiente, con solo movimientos pequeños de la cabeza utilizando una interfaz gráfica de usuario extremadamente intuitiva», dijo Evans.

La interfaz basada en la web muestra a los usuarios cómo se ve el mundo desde las cámaras ubicadas en la cabeza del robot. Los controles sobre los que se puede hacer clic superpuestos en la vista permiten a los usuarios mover el robot en un hogar u otro entorno y controlar las manos y los brazos del robot. Cuando los usuarios mueven la cabeza del robot, por ejemplo, la pantalla muestra el cursor del mouse como un par de globos oculares para mostrar a dónde mirará el robot cuando el usuario haga clic. Al hacer clic en un disco que rodea las manos robóticas, los usuarios pueden seleccionar un movimiento. Mientras se conduce al robot alrededor de una habitación, las líneas que siguen al cursor en la interfaz indican la dirección en que viajará.

La construcción de la interfaz en torno a las acciones de un simple mouse de un solo botón permite a las personas con una variedad de discapacidades usar la interfaz sin largas sesiones de entrenamiento.

«Tener una interfaz que puedan operar los individuos con una amplia gama de discapacidades físicas significa que podemos proporcionar acceso a una amplia gama de personas, una forma de diseño universal», señaló Grice. «Debido a su capacidad, este es un sistema muy complejo, por lo que el desafío que tuvimos que superar fue hacerlo accesible a las personas que tienen un control muy limitado de sus propios cuerpos».




Si bien los resultados del estudio demostraron lo que los investigadores se habían propuesto hacer, Kemp está de acuerdo en que se pueden hacer mejoras. El sistema existente es lento y los errores cometidos por los usuarios pueden crear contratiempos significativos. Aún así, dijo, «la gente podría usar esta tecnología hoy y realmente beneficiarse de ella».

Evans sugirió que el costo y el tamaño del PR2 deberían reducirse significativamente para que el sistema sea comercialmente viable. Kemp dice que estos estudios señalan el camino hacia un nuevo tipo de tecnología de asistencia.

«Me parece plausible, basado en este estudio, que los sustitutos robóticos del cuerpo podrán proporcionar beneficios significativos a los usuarios», agregó Kemp.

Artículos relacionados:

Una prótesis que restaura la sensación de dónde está tu mano
Logran que los robots rastreen objetos en movimiento con una precisión sin precedentes
Dando sentido del tacto a los robots

Historia De Fuente:

Material proporcionado por el Instituto de Tecnología de Georgia.

Publicación de referencia:

Phillip M. Grice, Charles C. Kemp. In-home and remote use of robotic body surrogates by people with profound motor deficits. PLOS ONE, 2019; 14 (3): e0212904 DOI: 10.1371/journal.pone.0212904

Georgia Institute of Technology. «Seeing through a robot’s eyes helps those with profound motor impairments.» ScienceDaily. ScienceDaily March 2019.



Piernas robóticas que se basan en la evolución animal para aprender a caminar

Investigadores de la Universidad de Carolina del Sur (USC) han construido un robot que puede aprender solo a caminar. Inspirados por la forma de aprender de los humanos, y de los animales que han evolucionado para aprender esta habilidad a los pocos minutos de nacer, se espera que la investigación abra nuevas posibilidades en los campos de las prótesis dinámicas y los robots que aprenden sobre la marcha en entornos desconocidos.

La nueva extremidad robótica conectada a una máquina de cuatro patas (Crédito: Matthew Lin)

«Hoy en día, para que un robot esté listo para interactuar con el mundo se necesita el equivalente de meses o años de entrenamiento, pero queremos lograr el rápido aprendizaje y las adaptaciones que se ven en la naturaleza», dice Francisco J. Valero-Cuevas, un profesor de Ingeniería Biomédica.

En pos de este objetivo, Valero-Cuevas y sus colegas desarrollaron una pierna robótica accionada por tendones de tipo animal y controlada por algoritmos de Inteliencia Artificial bio-inspirados. Esto permite que el robot desarrolle la habilidad de caminar de manera similar a los humanos, por medio de lo que se conoce en los círculos de robótica como Motor Babbling (“babbling” es el balbuceo de los bebés que están probando su capacidad de hablar), que implica realizar movimientos exploratorios repetidos.

«Estos movimientos aleatorios de la pierna permiten al robot construir un mapa interno de su extremidad y sus interacciones con el medio ambiente», dice el estudiante de doctorado de ingeniería de la USC, Ali Marjaninejad, autor del estudio.

Los investigadores han desarrollado una extremidad robótica accionada por tendones de tipo animal y controlada por algoritmos de inteligencia artificial específicos.

Al aprender sobre su estructura y entorno, el miembro robótico puede desarrollar su propio andar personalizado y aprender una nueva tarea de caminar después de solo cinco minutos de pruebas puramente descoordinadas. A tal punto que puede recuperarse si tropieza al querer dar su próximo paso con seguridad en el suelo, aunque no esté programado para hacerlo. Los investigadores creen que este es el primer robot capaz de tal hazaña, y están entusiasmados con las posibilidades que abre el avance.
Como explican, los robots pueden programarse para realizar ciertas tareas en ciertos escenarios, pero no se pueden preparar para toda posibilidad. Este tipo de robots, por otro lado, que son capaces de desarrollar sus propios movimientos personalizados en respuesta a su entorno, podrán asumir una gama más amplia de tareas.

«Si se deja que estos robots aprendan de la experiencia relevante, finalmente encontrarán una solución que, una vez lograda, se utilizará y adaptará según sea necesario», dice Marjaninejad. «La solución puede no ser perfecta, pero se adoptará si es lo suficientemente buena para la situación. No todos necesitamos o deseamos, o podemos gastar tiempo y esfuerzo en ganar una medalla olímpica».





Las prótesis sensibles son un área en la que este tipo de tecnología podría tener un impacto, ya que ayuda a las personas con discapacidades, al permitirles extremidades más intuitivas, naturales y que se mejoran a sí mismas. La exploración espacial es otra, donde los robots podrían colocarse en planetas o lunas lejanos y usar sus capacidades de aprendizaje para ajustar su modo de andar y navegar por terreno desconocido.

«La capacidad de una especie para aprender y adaptar sus movimientos a medida que cambian sus cuerpos y ambientes ha sido, desde el principio, un poderoso impulsor de la evolución», dice Brian Cohn, también estudiante de doctorado y autor del estudio. «Nuestro trabajo constituye un paso hacia la capacitación de los robots para aprender y adaptarse de cada experiencia, tal como lo hacen los animales».

Artículos relacionados:
Creando robots que pueden ir a donde nosotros vamos
Walbi, el bípedo que aprende a caminar
Un guepardo robótico capaz de dar volteretas hacia atrás
Una prótesis que restaura la sensación de dónde está tu mano
Logran que los robots rastreen objetos en movimiento con una precisión sin precedentes
Un robot que procura moverse tan bien como una hormiga
Dando sentido del tacto a los robots
¿Por qué está resultando difícil construir robots para convivir y trabajar con nosotros en la vida real?

La investigación fue publicada en la revista Nature Machine Intelligence.
Fuente: Universidad del sur de California