Archivo de la categoría: Sensores

Un robot del MIT monitorea los bíceps para aprender a manipular cosas

Aprender a moverse: los investigadores del MIT han creado un robot que monitorea de cerca nuestros bíceps mientras levantamos y movemos las cosas. Pero no se limita a admirar nuestros músculos, la idea consiste en desarrollar un sistema capaz de colaborar con las personas de forma más efectiva.

Aprender a controlar sus músculos: el robot, bautizado como RoboRaise, monitorea los músculos de una persona a través de unos sensores electromiográficos a los que está conectada. El aprendizaje automático compara las señales captadas por esos sensores con una representación del movimiento del brazo que hace la persona. Con esta información, el robot aprende repetir esa acción.

Aprender a trabajar en equipo: la mayoría de los robots de trabajo son tan torpes y peligrosos que es necesario ponerlos a trabajar aislados de los humanos, pero existe un creciente interés en que los robots colaboren con los trabajadores humanos. Este concepto, conocido como cobot, utiliza los avances en sensores y en algoritmos informáticos para volverlos más seguros y más inteligentes.

A observar cuidadosamente: el enfoque de RoboRaise resulta fascinante, y muestra cómo, en teoría, los robots podrían captar señales mucho más sutiles sobre el comportamiento de una persona. Esto podría crear máquinas que se coordinen mejor con nuestras acciones e intenciones.


Las personas saben instintivamente cómo trabajar juntas cuando llega el momento de levantar algo para lo que son necesarias dos personas. Las personas coordinan sus movimientos y trabajan para asegurarse de que cada lado de lo que se está llevando se mantenga a la misma altura. Si bien las tareas de este tipo son naturales para un humano, para los robots no es nada natural.
 
Los robots tienen que estar entrenados para trabajar bien con un humano y, por lo general, eso significa enseñar comandos de voz al robot de manera similar a cómo funciona un asistente de voz como Siri. Los investigadores del MIT han desarrollado un robot que puede colaborar con humanos sin necesidad de usar comandos hablados. El sistema robótico puede coordinar movimientos al monitorear sus movimientos musculares.

El sistema del MIT se llama RoboRaise, y requiere que los sensores se apliquen a los bíceps y tríceps del usuario para controlar su actividad muscular. Cuando los algoritmos detectan cambios en el nivel del brazo de la persona junto con gestos discretos con las manos hacia arriba y hacia abajo, el usuario puede hacer movimientos más finos.




El equipo pudo usar su sistema para tareas relacionadas con recoger cosas y ensamblar componentes simulados de aviones. El equipo dice que cuando el usuario y el robot trabajaron en estas tareas, aquel pudo controlar el robot a unos centímetros de la altura deseada. El sistema fue más preciso cuando se utilizaron gestos, respondiendo correctamente a aproximadamente el 70% de todos ellos.

Uno de los estudiantes del proyecto dice que puede imaginar a personas usando RoboRaise para fabricar, construir y ayudar en la casa. La nueva tecnología se basa en la tecnología anterior desarrollada en MIT, que permite a los usuarios corregir errores del robot con ondas cerebrales y gestos con las manos.

El equipo quiere desarrollar un sistema de asistencia robótica en el que el robot se adapte a lo humano, no al revés. El usuario puede comenzar a usar el robot rápidamente con una calibración mínima después de que los sensores están en su lugar.

Relacionados:
Guante lleno de sensores aprende las señales del tacto humano
Logran que los robots rastreen objetos en movimiento con una precisión sin precedentes
Piernas robóticas que se basan en la evolución animal para aprender a caminar
Creando robots que pueden ir a donde nosotros vamos
Una prótesis que restaura la sensación de dónde está tu mano



Guante lleno de sensores aprende las señales del tacto humano

Científicos del Instituto Tecnológico de Massachusetts (MIT) presentaron ayer un estudio en el que demostraban cómo un guante de bajo costo, recubierto con una red de sensores, podría reconocer objetos por medio de la presión, y ser utilizado en prótesis o robots, entre otros.

Se trata del proyecto Scalable TActile Glove (STAG), del Laboratorio de Ciencias de la Computación e Inteligencia Artificial, que creó este dispositivo de bajo costo, equipado con unos 550 sensores diminutos en casi toda la mano puede transmitir información en tiempo real.

En detalle, el guante capta cambios de presión por medio de una red de fibras conductoras —conocida técnicamente como una Red Neural Convolucional—, que procesan los datos con un algoritmo de sus sensores y buscan una coincidencia con objetos específicos para identificarlos.

“La información táctil recogida se proyecta sobre la forma de una mano humana, para que podamos entender fácilmente el contexto espacial”, explicó el director de la investigación, Subramanian Sundaraman a los medios. Y añadió: “Se podría considerar que el guante es como una cámara deformable que mide espacialmente las presiones o las fuerzas, lo que no es muy distinto a lo que ocurre en el mundo natural”.

En un artículo publicado en Nature, los investigadores describen un conjunto de datos que compilaron utilizando el STAG con 26 objetos comunes, entre ellos una lata de refresco, tijeras, una pelota de tenis, cuchara, bolígrafo y taza. Usando el conjunto de datos, el sistema predijo las identidades de los objetos con una precisión de hasta el 76 por ciento.

El guante, que sólo cuesta US$10 dólares, también puede predecir los pesos correctos de la mayoría de los objetos dentro de unos 60 gramos.




STAG está laminado con un polímero eléctricamente conductor que cambia la resistencia a la presión aplicada. Los investigadores cosieron hilos conductores a través de orificios en la película de polímero conductor, desde la punta de los dedos hasta la base de la palma. Los hilos se superponen de una manera que los convierte en sensores de presión. Cuando alguien que usa el guante siente, levanta, sujeta y suelta un objeto, los sensores registran la presión en cada punto.

Los hilos se conectan desde el guante a un circuito externo que traduce los datos de presión en «mapas táctiles», que son esencialmente videos breves de puntos que crecen y se contraen en un gráfico de una mano. Los puntos representan la ubicación de los puntos de presión, y su tamaño representa la fuerza: cuanto más grande es el punto, mayor es la presión.

A partir de esos mapas, los investigadores compilaron un conjunto de datos de aproximadamente 135.000 cuadros de video de interacciones con 26 objetos. Esos marcos pueden ser utilizados por una red neuronal para predecir la identidad y el peso de los objetos, y proporcionar información sobre la comprensión humana.

Para identificar objetos, los investigadores diseñaron una red neuronal convolucional (CNN), que generalmente se usa para clasificar imágenes, para asociar patrones de presión específicos con objetos específicos. Pero el truco fue elegir marcos de diferentes tipos de agarres para obtener una imagen completa del objeto.

La idea era imitar la forma en que los humanos pueden sostener un objeto de diferentes maneras para reconocerlo, sin usar su vista. De manera similar, la red neuronal convolucional de los investigadores elige hasta ocho cuadros semi-aleatorios del video que representan las capturas más diferentes, por ejemplo, sosteniendo una taza desde la parte inferior, superior y del mango.

El sistema podría mejorar la comprensión del funcionamiento del tacto, y de esta manera cómo se controlan las manos; una información que para algunos investigadores podría utilizarse para incorporar sensores táctiles a miembros artificiales, o partes mecánicas, y así revolucionar el desarrollo de prótesis y manos robóticas.

La red nerviosa de los mamíferos, dicen algunos, es todo un prodigio. En ella miles de millones de sensores distribuidos por la piel envían mensajes a nuestro cerebro, discriminan qué es importante y qué no, siendo clave para nuestras experiencias e incluso para la supervivencia.

Artículos Relacionados:

Dando sentido del tacto a los robots
Una prótesis que restaura la sensación de dónde está tu mano
Ver a través de los ojos de un robot ayuda a personas con grandes deficiencias motoras
Crean piel electrónica resistente al agua, sensible y con capacidad de auto-reparación



Logran que catéter robótico ingrese por sí solo al corazón palpitante de cerdo vivo

El sistema de senseo del dispositivo fue inspirado por la forma en que las cucarachas se mueven a lo largo de los túneles.

Operar dentro de un corazón que late es un procedimiento complejo y delicado que requiere cirujanos expertos. El personal médico generalmente utiliza joysticks de control y una combinación de rayos X o ultrasonido para guiar con cuidado los catéteres a través del cuerpo.

Ahora, por primera vez, un catéter robótico ha sido capaz de navegar de forma autónoma dentro de un corazón para ayudar a llevar a cabo un procedimiento particularmente complejo. El dispositivo, que se inspiró en la forma en que ciertos animales aprenden sobre su entorno, se utilizó para ayudar a los cirujanos a cerrar las hemorragias en los corazones de cinco cerdos vivos.

«Las ratas usan bigotes para palpar a lo largo de la pared, los humanos sienten su camino y las cucarachas usan sus antenas», dice Pierre Dupont en la Escuela de Medicina de Harvard, quien dirigió el nuevo estudio publicado en Science Robotics. «Del mismo modo, este dispositivo usa sensores táctiles para elabora dónde está, y dónde ir a continuación, basado en un mapa del corazón «.

El dispositivo tiene 8 mm de ancho, con una cámara y una luz LED en su extremo que funciona como un sensor óptico y táctil combinado. Se usó un algoritmo de aprendizaje automático que se entrenó en alrededor de 2000 imágenes de tejido cardíaco para guiarlo a medida que se movía. El sensor táctil palpa periódicamente el tejido del corazón mientras se mueve, lo que ayuda a saber dónde está y asegurándose de no dañar el tejido.




Durante el experimento, el catéter navegó a la ubicación correcta el 95% del tiempo de los 83 ensayos en cinco cerdos. Esta es una tasa de éxito similar a la de un clínico con experiencia, y el procedimiento no dejó hematomas ni daños en los tejidos, según el equipo de investigación. Una vez en posición, los cirujanos tomaron el control y llevaron a cabo el procedimiento para reparar la hemorragia. Aunque han estado disponibles catéteres robóticos durante algunos años, este es el primero que ha podido encontrar su camino sin ayuda humana.

La idea es que, un día, esa tecnología podría liberar a los cirujanos para concentrarse en otras tareas o ayudar al personal médico menos experimentado a realizar procedimientos más complejos. La tecnología podría ser reutilizada para su uso en humanos dentro de cinco años, dice Dupont.

Artículo original:
Technology Review
Science Robotics



¿Qué es BeagleBone Blue?


BeagleBone® Blue es una computadora integrada en un sistema compacto en una placa, basada en Linux y pensada para robótica, que consta de una sola plaqueta pequeña (8,9 cm x 5,5 cm).

El microprocesador es Octavo Systems OSD3358, posee wifi/bluetooth, IMU, barómetro, regulación de potencia y estado de LED de carga para una batería LiPo de 2 celdas. Tiene puentes H y conectores para 4 motores de CC + sus codificadores (encoders), para 8 servos y todos los buses comúnmente necesarios para adicionar periféricos en aplicaciones integradas.

De código abierto y con un activo respaldo de una comunidad, su rendimiento en tiempo real, flexibilidad para funcionan en redes y el amplio conjunto de capacidades orientadas a la robótica hacen que construir robots móviles con Blue sea rápida, ágil, asequible y divertida.

Especificaciones

■ Procesador: Octavo Systems OSD3358
■ AM335x 1GHz ARM® Cortex-A8 processor
■ 512MB DDR3 RAM
■ 4GB 8-bit eMMC flash storage
■ Manejo Integrado de alimentación.
■ 2×32-bit 200-MHz unidades programables de tiempo real (programmable real-time units, PRUs)
■ Acelerador NEON de punto-flotante.
■ ARM Cortex-M3
■ USB 2 cliente con alimentación y comunicaciones, USB 2 host
■ Programado con Debian Linux

Connectividad y sensores

■ Soporte para batería LiPo de 2 celdas con carga balanceada y monitor LED del estado de carga
■ Entrada del cargador: 9-18 V
■ Conexión inalámbrica: wifi IEEE 802.11bgn, Bluetooth 4.1 y BLE
■ Control de Motores: 8 salidas para servo 6V, 4 salidas puente-H para motores CC, 4 entradas para encoder de cuadratura
■ Sensores: IMU MPU9250 de 9 ejes (acelerómetros, giroscopios, magnetómetro), BMP280 barómetro y termómetro
■ Interfaz de usuario: 11 LEDs programables por el usuario, 2 botones programables por el usuario
■ Interfaces con conectores JST para agregar buses y periféricos adicionales: GPS, radio DSM2, UARTs, SPI, I2C, 1,8V analog, GPIOs 3,3V

Compatibilidad de Software

ROS (Robot Operating System)
ArduPilot
MATLAB – Simulink
LabVIEW
Cloud9 IDE en Node.js
Python
OpenCV
Copter
■ Y aún más…

Especial para utilizarlo en drones y en robots navegadores autónomos.

Página de BeagleBone
Literatura de respaldo



Crean piel electrónica resistente al agua, sensible y con capacidad de auto-reparación

Un equipo de científicos de la Universidad Nacional de Singapur (NUS) se inspiró en los invertebrados submarinos como las medusas para crear una piel electrónica con una funcionalidad similar.

Al igual que una medusa, la piel electrónica es transparente, estirable, sensible al tacto y se auto-repara en entornos acuáticos. Pero además es conductora de la electricidad, y podría usarse en todo, desde pantallas táctiles resistentes al agua hasta robots acuáticos blandos.

El profesor asistente Benjamin Tee y su equipo del Departamento de Ciencia e Ingeniería de Materiales de la Facultad de Ingeniería de la Universidad Nacional de Singapur desarrollaron el material, junto con colaboradores de la Universidad de Tsinghua y la Universidad de California en Riverside.

El equipo de ocho investigadores dedicó poco más de un año a desarrollar el material, y su invención se publicó por primera vez este año en la revista Nature Electronics.

Materiales auto-reparables, transparentes e impermeables para un amplio rango de usos

El profesor asistente Tee ha estado trabajando en pieles electrónicas durante muchos años, y fue parte del equipo que desarrolló los primeros sensores electrónicos de piel con auto-reparación en 2012.

Su experiencia en esta área de investigación lo llevó a identificar los obstáculos clave que aún no han superado las pieles electrónicas auto-reparables. «Uno de los desafíos con la mayoría de los materiales auto-reparables actuales es que no son transparentes y no funcionan de manera eficiente cuando están mojados», dijo. «Estos inconvenientes los hacen menos útiles para aplicaciones electrónicas, como las pantallas táctiles, que a menudo deben usarse en condiciones de clima con humedad extrema».

Continuó: «Con esta idea en mente, comenzamos a observar a las medusas; son transparentes y capaces de percibir en el ambiente acuático. Entonces, nos preguntamos cómo podríamos hacer un material artificial que pudiera imitar la naturaleza resistente al agua de las medusas y, sin embargo, fuese sensible al tacto».

Tuvieron éxito en este esfuerzo al crear un gel que consiste en un polímero a base de fluorocarbono con un líquido ionizado rico en flúor. Cuando se los combina, la red de polímeros interactúa con el líquido iónico a través de interacciones ión-dipolo altamente reversibles, lo que le permite auto-repararse.

Al elaborar las ventajas de esta configuración, el profesor Tee explicó: «La mayoría de los geles de polímeros conductores, como los hidrogeles, se hinchan al sumergirlos en agua o se secan con el tiempo en el aire, lo que hace que nuestro material sea diferente es que puede conservar su forma tanto en entornos húmedos como secos. Funciona bien en agua de mar e incluso en ambientes ácidos o alcalinos».


La próxima generación de robots blandos

La piel electrónica se crea imprimiendo el material nuevo dentro de circuitos electrónicos. Como es un material blando y estirable, sus propiedades eléctricas cambian cuando se toca, presiona o se tensa.

«Luego podemos medir este cambio y convertirlo en señales eléctricas legibles para crear una amplia gama de diferentes aplicaciones de sensores», agregó el profesor Tee.

«La capacidad de imprimir nuestro material en 3D también muestra potencial en la creación de tableros de circuitos totalmente transparentes que podrían usarse en aplicaciones robóticas. Esperamos que este material pueda usarse para desarrollar varias aplicaciones en tipos emergentes de robots blandos», agregó el profesor Tee, quien también pertenece al Departamento de Ingeniería Eléctrica e Informática de NUS, y el Instituto Biomédico para la Investigación y Tecnología de Salud Global (BIGHEART) en NUS.





Los robots blandos, y la electrónica blanda en general, buscan imitar los tejidos biológicos para hacerlos más compatibles mecánicamente con las interacciones hombre-máquina. Además de las aplicaciones de robots blandos convencionales, la tecnología impermeable de este nuevo material permite el diseño de robots anfibios y dispositivos electrónicos resistentes al agua.

Una ventaja adicional de esta piel electrónica autorreparable es el potencial que tiene para reducir la basura tecnológica. Tee explicó: «Cada año, se generan globalmente millones de toneladas de desechos electrónicos provenientes de teléfonos móviles, tabletas, etc. Esperamos crear un futuro en el que los dispositivos electrónicos hechos de materiales inteligentes puedan realizar acciones de reparación automática para reducir la cantidad de desechos electrónicos en el mundo».

Próximos pasos

El profesor Tee y su equipo continuarán su investigación y esperan explorar más posibilidades de este material en el futuro. Dijo: «Actualmente, estamos haciendo uso de las propiedades integrales del material para hacer nuevos dispositivos optoelectrónicos, que podrían utilizarse en muchas nuevas interfaces de comunicación hombre-máquina».

Fuente de la historia: ScienceDaily. Materiales proporcionados por la Universidad Nacional de Singapur. Referencia de la publicación: Yue Cao, Yu Jun Tan, Si Li, Wang Wei Lee, Hongchen Guo, Yongqing Cai, Chao Wang, Benjamin C.-K. Tee. Pieles electrónicas autocurables para ambientes acuáticos. Nature Electronics, 2019; 2 (2): 75 DOI: 10.1038 / s41928-019-0206-5

Artículos relacionados:
Dando sentido del tacto a los robots
Nuevos micro robots de tamaño celular podrían hacer viajes increíbles
Una prótesis que restaura la sensación de dónde está tu mano
Módulo de teclado sensible al tacto TTP229
Un pequeño robot blando con muchas patas administraría fármacos al cuerpo humano
Usando electricidad y agua, un nuevo tipo de motor puede poner microrobots en movimiento
FlexShapeGripper: el agarre de la lengua de un camaleón