Archivo de la categoría: Hardware

Guante lleno de sensores aprende las señales del tacto humano

Científicos del Instituto Tecnológico de Massachusetts (MIT) presentaron ayer un estudio en el que demostraban cómo un guante de bajo costo, recubierto con una red de sensores, podría reconocer objetos por medio de la presión, y ser utilizado en prótesis o robots, entre otros.

Se trata del proyecto Scalable TActile Glove (STAG), del Laboratorio de Ciencias de la Computación e Inteligencia Artificial, que creó este dispositivo de bajo costo, equipado con unos 550 sensores diminutos en casi toda la mano puede transmitir información en tiempo real.

En detalle, el guante capta cambios de presión por medio de una red de fibras conductoras —conocida técnicamente como una Red Neural Convolucional—, que procesan los datos con un algoritmo de sus sensores y buscan una coincidencia con objetos específicos para identificarlos.

“La información táctil recogida se proyecta sobre la forma de una mano humana, para que podamos entender fácilmente el contexto espacial”, explicó el director de la investigación, Subramanian Sundaraman a los medios. Y añadió: “Se podría considerar que el guante es como una cámara deformable que mide espacialmente las presiones o las fuerzas, lo que no es muy distinto a lo que ocurre en el mundo natural”.

En un artículo publicado en Nature, los investigadores describen un conjunto de datos que compilaron utilizando el STAG con 26 objetos comunes, entre ellos una lata de refresco, tijeras, una pelota de tenis, cuchara, bolígrafo y taza. Usando el conjunto de datos, el sistema predijo las identidades de los objetos con una precisión de hasta el 76 por ciento.

El guante, que sólo cuesta US$10 dólares, también puede predecir los pesos correctos de la mayoría de los objetos dentro de unos 60 gramos.




STAG está laminado con un polímero eléctricamente conductor que cambia la resistencia a la presión aplicada. Los investigadores cosieron hilos conductores a través de orificios en la película de polímero conductor, desde la punta de los dedos hasta la base de la palma. Los hilos se superponen de una manera que los convierte en sensores de presión. Cuando alguien que usa el guante siente, levanta, sujeta y suelta un objeto, los sensores registran la presión en cada punto.

Los hilos se conectan desde el guante a un circuito externo que traduce los datos de presión en «mapas táctiles», que son esencialmente videos breves de puntos que crecen y se contraen en un gráfico de una mano. Los puntos representan la ubicación de los puntos de presión, y su tamaño representa la fuerza: cuanto más grande es el punto, mayor es la presión.

A partir de esos mapas, los investigadores compilaron un conjunto de datos de aproximadamente 135.000 cuadros de video de interacciones con 26 objetos. Esos marcos pueden ser utilizados por una red neuronal para predecir la identidad y el peso de los objetos, y proporcionar información sobre la comprensión humana.

Para identificar objetos, los investigadores diseñaron una red neuronal convolucional (CNN), que generalmente se usa para clasificar imágenes, para asociar patrones de presión específicos con objetos específicos. Pero el truco fue elegir marcos de diferentes tipos de agarres para obtener una imagen completa del objeto.

La idea era imitar la forma en que los humanos pueden sostener un objeto de diferentes maneras para reconocerlo, sin usar su vista. De manera similar, la red neuronal convolucional de los investigadores elige hasta ocho cuadros semi-aleatorios del video que representan las capturas más diferentes, por ejemplo, sosteniendo una taza desde la parte inferior, superior y del mango.

El sistema podría mejorar la comprensión del funcionamiento del tacto, y de esta manera cómo se controlan las manos; una información que para algunos investigadores podría utilizarse para incorporar sensores táctiles a miembros artificiales, o partes mecánicas, y así revolucionar el desarrollo de prótesis y manos robóticas.

La red nerviosa de los mamíferos, dicen algunos, es todo un prodigio. En ella miles de millones de sensores distribuidos por la piel envían mensajes a nuestro cerebro, discriminan qué es importante y qué no, siendo clave para nuestras experiencias e incluso para la supervivencia.

Artículos Relacionados:

Dando sentido del tacto a los robots
Una prótesis que restaura la sensación de dónde está tu mano
Ver a través de los ojos de un robot ayuda a personas con grandes deficiencias motoras
Crean piel electrónica resistente al agua, sensible y con capacidad de auto-reparación



El robot Slothbot hace monitoreo ambiental basado en su lentitud

Para el monitoreo ambiental, la agricultura de precisión, el mantenimiento de la infraestructura y ciertas aplicaciones de seguridad, una eficiencia lenta y de bajo consumo de energía puede ser mejor que algo rápido, que necesita una recarga continua. Ahí es donde tiene su lugar «SlothBot».

Impulsado por un par de paneles fotovoltaicos y diseñado para permanecer en el dosel del bosque funcionando durante meses, SlothBot (“Robot Perezoso”) se mueve solo cuando es necesario para medir cambios ambientales, como el clima y los factores químicos en el ambiente, que solo se pueden observar con una presencia a largo plazo. El prototipo de prueba del hipereficiente robot, descrito el 21 de mayo en la Conferencia Internacional sobre Robótica y Automatización (ICRA) en Montreal, pronto se encontrará entre los cables de los árboles en el Jardín Botánico de Atlanta.

«En robótica, parece que siempre estamos presionando por robots más rápidos, más ágiles y más extremos», dijo Magnus Egerstedt, Director de la Escuela de Ingeniería Eléctrica e Informática Steve W. Chaddick en el Instituto de Tecnología de Georgia e investigador principal de Slothbot. “Pero hay muchas aplicaciones donde no hay necesidad de ser rápido. Solo tiene que estar allí, persistiendo durante largos períodos de tiempo, observando lo que está ocurriendo».

Basado en lo que Egerstedt llamó la «teoría de la lentitud», el asistente de investigación graduado Gennaro Notomista diseñó SlothBot junto con su compañero, Yousef Emam, utilizando piezas impresas en 3D para los mecanismos de engranaje y de paso de cable a cable que son necesarios para rastrear a través de una red de cables en los árboles El mayor desafío para un robot de rastreo de cables es cambiar de un cable a otro sin caerse, dijo Notomista.

«El desafío es sujetar suavemente un cable mientras se agarra a otro», dijo. «Es una maniobra difícil y tienes que hacerlo bien para proporcionar una transición a prueba de fallos. Asegurarse de que los traspasos funcionen bien durante largos períodos de tiempo es realmente el mayor desafío».

Mecánicamente, SlothBot consiste en dos cuerpos conectados por una bisagra controlada. Cada cuerpo aloja un motor de accionamiento conectado a una llanta en la que se monta un neumático. El uso de ruedas para la locomoción es simple, eficiente en energía y más seguro que otros tipos de locomoción por cable, según los investigadores.

SlothBot ha operado hasta ahora en una red de cables en el campus de Georgia Tech. A continuación, una nueva carcasa impresa en 3D, que hace que el robot se vea más como un perezoso, protegerá los motores, engranajes, actuadores, cámaras, computadoras y otros componentes de la lluvia y el viento. Eso establecerá las bases para estudios a más largo plazo en el dosel de los árboles en el Jardín Botánico de Atlanta, donde Egerstedt espera que los visitantes vean pronto las condiciones de monitoreo de SlothBot, en el próximo otoño boreal.

El nombre de SlothBot no es una coincidencia. Los perezosos de la vida real son pequeños mamíferos que viven en los doseles de la selva de América del Sur y Central. Se mantienen comiendo hojas de árboles, y estos animales pueden sobrevivir con el equivalente calórico diario de una papa pequeña. Con su metabolismo lento, los perezosos descansan tanto como 22 horas al día y rara vez descienden de los árboles, donde pueden pasar toda su vida.

«La vida de un perezoso es bastante lenta y no hay mucha emoción a nivel diario», dijo Jonathan Pauli, profesor asociado en el Departamento de Ecología de Bosques y Vida Silvestre de la Universidad de Wisconsin-Madison, quien ha consultado con el equipo de Georgia Tech sobre el proyecto. «Lo bueno de una vida llevada con lentitud es que realmente no se necesita mucha energía. Puede tener una larga duración y persistencia en un área limitada, con muy pocas entradas de energía durante un largo tiempo».

Eso es exactamente lo que los investigadores esperan de SlothBot, cuyo desarrollo ha sido financiado por la Oficina de Investigación Naval de los Estados Unidos.

«Hay mucho que no sabemos sobre lo que realmente sucede en áreas densas cubiertas de árboles», dijo Egerstedt. «La mayoría de las veces, SlothBot solo se quedará colgado, y de vez en cuando se moverá a un lugar soleado para recargar la batería».

Los investigadores también esperan probar SlothBot en una plantación de cacao en Costa Rica, que ya es hogar de perezosos reales. «Los cables utilizados para mover el cacao se han convertido en una autopista de perezosos porque a los animales les resulta útil moverse», dijo Egerstedt. «Si todo va bien, desplegaremos SlothBots a lo largo de los cables para monitorear a los perezosos».




Egerstedt es conocido por los algoritmos que manejan enjambres de pequeños robots con ruedas o voladores. Pero durante una visita a Costa Rica, se interesó por los perezosos y comenzó a desarrollar lo que él llama «una teoría de la lentitud» junto con el profesor Ron Arkin en la Escuela de Computación Interactiva de Georgia Tech. La teoría aprovecha los beneficios de la eficiencia energética.

«Si estás haciendo cosas como el monitoreo ambiental, quieres estar en el bosque durante meses», dijo Egerstedt. «Eso cambia tu forma de pensar acerca de los sistemas de control a un alto nivel».

Ya se usan robots voladores para monitoreo ambiental, pero sus necesidades de alta energía implican que no pueden quedarse por mucho tiempo. Los robots con ruedas pueden arreglárselas con menos energía, pero pueden quedar atrapados en el lodo o ser obstaculizados por las raíces de los árboles, y no puede obtener una vista de gran detalle desde el suelo.

«Lo que cuesta energía más que cualquier otra cosa es el movimiento», dijo Egerstedt. “Moverse es mucho más costoso que sentir o pensar. Para los robots ambientales, solo debes moverte cuando es absolutamente necesario. Teníamos que pensar en cómo sería eso».

Para Pauli, que estudia una variedad de vida silvestre, ha sido gratificante trabajar con Egerstedt para ayudar a SlothBot a cobrar vida.

«Es genial ver a un robot inspirado en la biología de los perezosos», dijo. “Ha sido divertido compartir cómo viven los perezosos y otros organismos que viven en estos ecosistemas durante largos períodos de tiempo. Será interesante ver a los robots reflejando lo que vemos en las comunidades ecológicas naturales”.

Esta investigación fue patrocinada por la Oficina de Investigación Naval de los EE. UU. A través de la concesión N00014-15-2115.



Un sistema llamado ‘Neural Lander’ usa IA para aterrizar drones sin problemas

El nuevo sistema emplea una red neuronal profunda para superar el desafío de la turbulencia de efecto suelo

Aterrizar los drones multi-rotor sin problemas es difícil. Una compleja turbulencia es creada por el flujo de aire de cada rotor que rebota del suelo a medida que el suelo crece cada vez más cerca durante un descenso. Esta turbulencia no se comprende bien, ni es fácil de compensar, especialmente en los drones autónomos. Es por eso que a menudo el despegue y el aterrizaje son las dos partes más difíciles del vuelo de un avión no tripulado. Los drones normalmente se tambalean y avanzan con lentitud hasta el aterrizaje, cuando finalmente se corta la energía y se dejan caer la distancia restante al suelo.

En el Centro de Tecnologías y Sistemas Autónomos (CAST – Center for Autonomous Systems and Technologies) de Caltech, los expertos en inteligencia artificial se han unido a expertos en control para desarrollar un sistema que utiliza una red neuronal profunda para ayudar a los drones autónomos a «aprender» cómo aterrizar de forma más segura y rápida, mientras se consume menos energía. El sistema que han creado, denominado «Neural Lander», es un controlador basado en aprendizaje que rastrea la posición y la velocidad del avión no tripulado, y modifica su trayectoria de aterrizaje y la velocidad del rotor para lograr el aterrizaje más suave posible.

«Este proyecto tiene el potencial de ayudar a los drones a volar de manera más suave y segura, especialmente en presencia de ráfagas de viento impredecibles, y consumir menos energía de la batería, ya que los drones pueden aterrizar más rápidamente», dice Soon-Jo Chung, profesor de Aeronáutica de Bren, División de Ingeniería y Ciencias Aplicadas (EAS) e investigador científico en JPL, que Caltech administra para la NASA. El proyecto es una colaboración entre los expertos en inteligencia artificial (AI) de Chung y Caltech, Anima Anandkumar, profesora de informática y ciencias matemáticas, y Yisong Yue, profesora asistente de informática y ciencias matemáticas.

Un documento que describe el Neural Lander se presentó en la Conferencia Internacional sobre Robótica y Automatización del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE). Los coautores principales del artículo son los estudiantes graduados de Caltech Guanya Shi, cuya investigación de doctorado es supervisada conjuntamente por Chung y Yue, así como Xichen Shi y Michael O’Connell, que son estudiantes de doctorado en el Grupo de Control y Robótica Aeroespacial de Chung.

Las redes neuronales profundas (DNN) son sistemas de IA que se inspiran en sistemas biológicos como el cerebro. La parte «profunda» del nombre se refiere al hecho de que las entradas de datos se mueven a través de múltiples capas, cada una de las cuales procesa la información entrante de una manera diferente para descubrir detalles cada vez más complejos. Los DNN son capaces de aprendizaje automático, lo que los hace ideales para tareas repetitivas.

 

Para asegurarse de que el drone vuele suavemente bajo la guía del DNN, el equipo empleó una técnica conocida como normalización espectral, que suaviza las salidas de la red neuronal para que no realice predicciones muy variadas a medida que cambian las entradas y condiciones. Las mejoras en el aterrizaje se midieron al examinar la desviación de una trayectoria idealizada en el espacio 3D. Se realizaron tres tipos de pruebas: un aterrizaje vertical recto; un arco descendente de aterrizaje; y el vuelo en el que el avión no tripulado roza una superficie que se corta, como en el borde de una mesa, donde el efecto de la turbulencia del suelo variaría considerablemente.

El nuevo sistema reduce el error vertical en un 100 por ciento, lo que permite aterrizajes controlados y reduce la deriva lateral en hasta un 90 por ciento. En sus experimentos, el nuevo sistema logra un aterrizaje real en lugar de quedarse atrapado a unos 10 a 15 centímetros por encima del suelo, como suelen hacer los controladores de vuelo convencionales no modificados. Además, durante la prueba el Neural Lander produjo una transición mucho más suave cuando el dron hizo la transición de deslizarse sobre la mesa para volar en el espacio libre más allá del borde.

«Con menos errores, el Neural Lander es capaz de un aterrizaje más rápido y suave, y de deslizarse suavemente sobre la superficie del suelo», dice Yue. El nuevo sistema se probó en el aeródromo de tres pisos de CAST, que puede simular una variedad casi ilimitada de condiciones de viento en el exterior. Inaugurado en 2018, CAST es una instalación de 10.000 pies cuadrados donde los investigadores de EAS, JPL y la División de Ciencias Geológicas y Planetarias de Caltech se unen para crear la próxima generación de sistemas autónomos, mientras avanzan los campos de investigación de drones, exploración autónoma, y sistemas bioinspirados.

«Este esfuerzo interdisciplinario trae expertos de los sistemas de aprendizaje automático y control. Apenas hemos comenzado a explorar las ricas conexiones entre las dos áreas», dice Anandkumar.

Además de sus obvias aplicaciones comerciales, Chung y sus colegas han presentado una patente sobre el nuevo sistema. Éste podría ser crucial para los proyectos que actualmente se están desarrollando en CAST, incluido un transporte médico autónomo que podría aterrizar en lugares de difícil acceso. (como un tráfico bloqueado). «La importancia de poder aterrizar de forma rápida y sin problemas cuando se transporta a una persona lesionada no se puede exagerar», dice Morteza Gharib, Profesor de Aeronáutica e Ingeniería Bioinspirada; director de CAST; y uno de los principales investigadores del proyecto de ambulancia aérea.



Advertencia sobre los motores con reducción en el Mercado

Atención a los que compran, sea en Argentina o afuera, motores con reducción como el de la foto.

Motor chino con rueda de gomaMotor con reductor de velocidad

Hay una tanda más barata -y posiblemente sean los que más están llegando ahora a Argentina- de motores que consumen UNA ENORMIDAD de corriente. Más o menos el TRIPLE que los que se vienen en Kit junto con las bases robóticas de acrílico. Se ven idénticos a los otros, pero se nota la diferencia al mover la rueda con la mano

Pero el problema mayor es que el engranaje reductor de estos nuevos motores es mucho más pesado que el los otros, de modo que al arrancar los motores producen un pico de corriente de 800 mA mínimo.

Algunos circuitos simples de robots con salida a transistores que utilizan, por ejemplo, PN2222A o su equivalente 2N2222A, no soportan esta corriente. (Solamente los transistores de este tipo marca Fairchild indican en su hoja de datos que soportan 1A; las otras marcas indican 600 mA a 800 mA los mejores.)

Busquen siempre que el vendedor ponga en su publicación una hoja de datos que liste CLARAMENTE el consumo de corriente a los distintos voltajes: 3V, 6V, etc. como la que pongo en la imagen.

Hoja de datos de un motorHoja de datos de un motor

O al menos lleven un tester para medir corriente y un portapilas de 4 pilas con pilas cargadas y cableen para probar el consumo del motor antes de comprar. Es muy útil llevar ya preparado un circuito ya armado con pincitas/clips de prueba ya preparadas para conectar al motor y al tester (si son pinzas «cocodrilo» que sean pequeñas: los contactos del motor son muy débiles).

Distintos clips y pinzas para pruebas electrónicasClips y pinzaas




Este puede ser el Apple II de los brazos de robot impulsados ​​por IA

Un nuevo brazo robótico de bajo costo que se puede controlar con un casco de realidad virtual facilitará la experimentación con inteligencia artificial y robótica.

Los robots en las fábricas de hoy son potentes y precisos, pero tan tontos como una tostadora. Un nuevo brazo robot, desarrollado por un equipo de investigadores de UC Berkeley, está destinado a cambiar eso al proporcionar una plataforma barata y potente para la experimentación de la Inteligencia Artificial. El equipo compara su creación con la Apple II, la computadora personal que atrajo a los aficionados y hackers en los años 70 y 80, iniciando una revolución tecnológica.

Los robots y la inteligencia artificial han evolucionado en paralelo como áreas de investigación durante décadas. En los últimos años, sin embargo, la IA ha avanzado rápidamente cuando se aplica a problemas abstractos como etiquetar imágenes o jugar videojuegos. Pero mientras que los robots industriales pueden hacer las cosas con mucha precisión, requieren una programación minuciosa y no pueden adaptarse a los cambios más pequeños. Han surgido robots más baratos y seguros, pero la mayoría no están diseñados específicamente para ser controlados con software de IA.

“Los robots son cada vez más capaces de aprender nuevas tareas, ya sea a través de prueba y error, o mediante una demostración experta”, dice Stephen McKinley, un postdoctorado en UC Berkeley que estuvo involucrado en el desarrollo del robot. “Sin una plataforma de bajo costo ─un dispositivo tipo Apple II─ la experimentación, la prueba y el error y la investigación productiva continuarán avanzando lentamente. Existe un potencial para que la investigación se acelere en gran medida al hacer que más robots sean más accesibles «.

El nuevo brazo, conocido como Blue, cuesta alrededor de $ 5.000, y puede controlarse a través de un casco de realidad virtual, una técnica que está resultando útil para entrenar algoritmos de IA que controlan robots.


Blue es capaz de transportar cargas relativamente pesadas, pero también es extremadamente «manejable», lo que significa que obedecerá cuando se lo empuje o jale. Esto hace que sea seguro para que las personas trabajen a su lado y permite que se le muestre físicamente cómo hacer algo. El sistema proporciona software de bajo nivel para controlar el robot y para el sistema de realidad Virtual, y está diseñado para ser compatible con cualquier computadora que ejecute el software de Inteligencia Artificial.



El proyecto proviene del laboratorio de Pieter Abbeel, un profesor de la UC Berkeley que ha sido pionero en la aplicación de la inteligencia artificial a la robótica. Las prácticas informáticas para el proyecto han sido licenciadas por UC Berkeley por una nueva compañía llamada Berkeley Open Arms, que desarrollará y venderá el hardware.

Sigue siendo extremadamente difícil traducir el aprendizaje automático de un entorno virtual al mundo real. A pesar de esto, los investigadores académicos han avanzado en la aplicación del aprendizaje automático al hardware del robot, lo que ha llevado a demostraciones espectaculares y algunas empresas comerciales.

Algunas compañías astutas han tomado nota de la tendencia. Nvidia, un fabricante de chips que ha impulsado el auge de la IA al hacer microprocesadores y software para el aprendizaje profundo, lanzó recientemente un laboratorio dedicado a explorar las aplicaciones de la IA a los robots.

El CEO de Nvidia, Jensen Huang, describe al robot de Berkeley como «muy emocionante».

Huang señala que si bien comprar un robot industrial puede costar alrededor de $ 50.000, puede costar muchas veces eso reprogramarlo para una nueva serie de tareas diferentes. «Está al revés», dice. Espera grandes avances en robótica en los próximos años gracias a los avances en el aprendizaje automático y la simulación de realidad virtual: «Los robots y la IA son ahora lo mismo».