Archivo de la categoría: Sensores

VL53L0X: Sensor de distancia que mide por la velocidad de la luz (Time-of-Fly)

El VL53L0X es un producto novedoso basado en el sistema FlightSense de la empresa ST Microelectronics. Es una tecnología innovadora que permite medir distancia con independencia de la reflectividad del objetivo.

En lugar de calcular la distancia midiendo la cantidad de luz reflejada desde el objeto (en lo que influye significativamente el color y tipo de superficie), el VL53L0X mide con precisión el tiempo que tarda la luz en viajar desde el objeto más cercano y volver reflejada hasta el sensor (un proceso llamado Time-of-Fly, o Tiempo de vuelo).

Debido a que utiliza una fuente de luz con un haz muy estrecho, es bueno para determinar la distancia de solamente la superficie que está directamente delante. A diferencia de los sonares ultrasónicos que hacen rebotar sus ondas de sonido, en este caso el «cono» de la detección es muy estrecho. A diferencia de los sensores de distancia IR que intentan medir la cantidad de luz que regresa, el VL53L0x es mucho más preciso y no tiene problemas de linealidad o «imágenes dobles», en las que no se puede saber si un objeto está muy lejos o muy cerca.

Puede medir distancia con un alcance de hasta 2 m.

El control del procesador y la lectura de los resultados se realizan por medio de una interfaz I2C.

Características clave

  • Emisor infrarrojo: 940 nm
  • Distancia: hasta 2000 mm
  • Dirección I2C: Programable
  • Fuente de luz VCSEL (Vertical-cavity surface-emitting laser = Láser de emisión de superficie de cavidad vertical)
  • Sensor de rango con avanzado microcontrolador
  • El chip mide sólo 4,4 x 2,4 x 1,0 mm
  • Medición de distancia rápida y precisa
  • Mide rango absoluto hasta 2 m.
  • El rango reportado es independiente de la reflectividad del objetivo
  • Compensación óptica cruzada integrada avanzada para simplificar la selección del vidrio de cobertura
  • Seguro para el ojo humano
  • Dispositivo láser de clase 1 que cumple con la última norma IEC 60825-1: 2014 – 3ª edición
  • Fácil integración por el sistema de montaje de soldadura del chip
  • No tiene óptica adicional
  • Fuente de alimentación individual
  • Regulador de voltaje integrado en la plaqueta
  • Interfaz I2C para control de dispositivos y transferencia de datos
  • Pines de entrada salida de uso general Xshutdown (para reinicio) e Interrupt (interrupción)
  • Dirección I2C programable

Conexión con Arduino

  • VCC (en algunos fabricantes VIN) es la fuente de alimentación, el módulo acepta de 3 a 5V de alimentación. Use el mismo voltaje en el que se basa la lógica del microcontrolador. Para la mayoría de los Arduinos es 5V.
  • Conecte GND a tierra/alimentación común (marcado también GND en el Arduino).
  • Conecte el pin SCL al pin SCL (señal de reloj I2C en su Arduino. En un Arduino UNO también se conoce como pin A5, aunque está disponible del lado de los pines digitales. En un Mega es el digital 21 y en un Leonardo es el digital 3.
  • Conecte el pin SDA al pin SDA (datos I2C) en su Arduino. En un Arduino UNO también se conoce como pin A4, en un Mega es el digital 20 y en un Leonardo es el digital 2.

Los pines adicionales son:

GPIO1: este es un pin que usa el sensor para indicar que están listos los datos. Es útil para cuando se realiza una detección continua. Tenga en cuenta que no hay ajuste de nivel en este pin, es posible que no se pueda leer el voltaje de nivel lógico de 2,8V en un microcontrolador de 5V (podríamos en un Arduino UNO, pero no es seguro). La biblioteca de Adafruit no hace uso de este pin, pero está ahí para usuarios avanzados.

XSHUT – es el pin de apagado/reinicio para el sensor. Por defecto es alto. Hay un diodo de cambio de nivel para que se pueda usar la lógica de 3,3 – 5 V en este pin. Cuando el pin va a nivel bajo, el sensor entra en modo de apagado.




Abra el IDE de Arduino. Mantenga siempre actualizado a la última versión.

Abra en el menú HERRAMIENTAS la opción ADMINISTRAR BIBLIOTECAS.

Búsqueda y carga en el IDE Arduino de la biblioteca del VL53L0X

La elección ADMINISTRAR BIBLIOTECAS abrirá la siguiente ventana del Gestor de Bibliotecas:

En esa ventana tenemos, en la parte superior derecha una ventana de editor con la leyenda «Filtre su búsqueda…«, donde debemos escribir el nombre del dispositivo:

Esta búsqueda nos ofrece varias bibliotecas. Para Arduino UNO y relacionados tenemos la de Adafruit y la de Pololu. En artículos en la web recomiendan la de Pololu, porque es más simple que la del otro fabricante. De todos modos, podemos instalar ambas. No hay conflictos en esto. El botón que dice «Instalar» aparece cuando se coloca el puntero del mouse en la biblioteca elegida. Si no aparece, es porque ya está instalada. Si no fuese así, recurra a el enlace «More info» y descargue la biblioteca desde el sitio GitHub, en formato ZIP, y proceda a instalarla con las instrucciones que ofrecen AQUÍ.

El gestor nos indicará que la biblioteca está lista con un cartel remarcado «INSTALLED».

Las bibliotecas quedan listas para ser utilizadas. La que corresponde a Pololu se llama VL53L0X, mientras que la de Adafruit se llama igual y está dentro de todas las bibliotecas de este fabricante, que llevan su nombre comercial como prefijo.

Dirección para el bus I2C

La dirección por defecto de I2C es 0x29, pero recuerde que es posible programar esta dirección en el VL53L0X. Con la biblioteca Adafruit, hay dos maneras de establecer la nueva dirección. Durante la inicialización, en lugar de llamar a lox.begin(), se llama a lox.begin(0x30) para establecer la dirección en 0x30. O se puede, más adelante, llamar a lox.setAddress(0x30) en cualquier momento. Es importante realizar esta operación con una sola placa VL53L0X conectada al bus I2C, o todas quedarán cambiadas.

Programas de prueba

«Continuous», de Pololu
(Este ejemplo muestra cómo usar el «modo continuo» para tomar mediciones de distancia con el VL53L0X. La información se muestra en la pantalla emergente del Monitor Serie, que debe estar fijado en 9600 baudios.)

Y el que sigue es un ejemplo con la biblioteca de Adafruit, con los comentarios traducidos. Siempre con la misma conexión del diagrama de arriba.

En el programa que sigue, para reducir el ruido de la medición se muestra el promedio de varias medidas. Las líneas comentadas muestran los distintos modos de funcionamiento.



Un robot del MIT monitorea los bíceps para aprender a manipular cosas

Aprender a moverse: los investigadores del MIT han creado un robot que monitorea de cerca nuestros bíceps mientras levantamos y movemos las cosas. Pero no se limita a admirar nuestros músculos, la idea consiste en desarrollar un sistema capaz de colaborar con las personas de forma más efectiva.

Aprender a controlar sus músculos: el robot, bautizado como RoboRaise, monitorea los músculos de una persona a través de unos sensores electromiográficos a los que está conectada. El aprendizaje automático compara las señales captadas por esos sensores con una representación del movimiento del brazo que hace la persona. Con esta información, el robot aprende repetir esa acción.

Aprender a trabajar en equipo: la mayoría de los robots de trabajo son tan torpes y peligrosos que es necesario ponerlos a trabajar aislados de los humanos, pero existe un creciente interés en que los robots colaboren con los trabajadores humanos. Este concepto, conocido como cobot, utiliza los avances en sensores y en algoritmos informáticos para volverlos más seguros y más inteligentes.

A observar cuidadosamente: el enfoque de RoboRaise resulta fascinante, y muestra cómo, en teoría, los robots podrían captar señales mucho más sutiles sobre el comportamiento de una persona. Esto podría crear máquinas que se coordinen mejor con nuestras acciones e intenciones.


Las personas saben instintivamente cómo trabajar juntas cuando llega el momento de levantar algo para lo que son necesarias dos personas. Las personas coordinan sus movimientos y trabajan para asegurarse de que cada lado de lo que se está llevando se mantenga a la misma altura. Si bien las tareas de este tipo son naturales para un humano, para los robots no es nada natural.
 
Los robots tienen que estar entrenados para trabajar bien con un humano y, por lo general, eso significa enseñar comandos de voz al robot de manera similar a cómo funciona un asistente de voz como Siri. Los investigadores del MIT han desarrollado un robot que puede colaborar con humanos sin necesidad de usar comandos hablados. El sistema robótico puede coordinar movimientos al monitorear sus movimientos musculares.

El sistema del MIT se llama RoboRaise, y requiere que los sensores se apliquen a los bíceps y tríceps del usuario para controlar su actividad muscular. Cuando los algoritmos detectan cambios en el nivel del brazo de la persona junto con gestos discretos con las manos hacia arriba y hacia abajo, el usuario puede hacer movimientos más finos.




El equipo pudo usar su sistema para tareas relacionadas con recoger cosas y ensamblar componentes simulados de aviones. El equipo dice que cuando el usuario y el robot trabajaron en estas tareas, aquel pudo controlar el robot a unos centímetros de la altura deseada. El sistema fue más preciso cuando se utilizaron gestos, respondiendo correctamente a aproximadamente el 70% de todos ellos.

Uno de los estudiantes del proyecto dice que puede imaginar a personas usando RoboRaise para fabricar, construir y ayudar en la casa. La nueva tecnología se basa en la tecnología anterior desarrollada en MIT, que permite a los usuarios corregir errores del robot con ondas cerebrales y gestos con las manos.

El equipo quiere desarrollar un sistema de asistencia robótica en el que el robot se adapte a lo humano, no al revés. El usuario puede comenzar a usar el robot rápidamente con una calibración mínima después de que los sensores están en su lugar.

Relacionados:
Guante lleno de sensores aprende las señales del tacto humano
Logran que los robots rastreen objetos en movimiento con una precisión sin precedentes
Piernas robóticas que se basan en la evolución animal para aprender a caminar
Creando robots que pueden ir a donde nosotros vamos
Una prótesis que restaura la sensación de dónde está tu mano



Guante lleno de sensores aprende las señales del tacto humano

Científicos del Instituto Tecnológico de Massachusetts (MIT) presentaron ayer un estudio en el que demostraban cómo un guante de bajo costo, recubierto con una red de sensores, podría reconocer objetos por medio de la presión, y ser utilizado en prótesis o robots, entre otros.

Se trata del proyecto Scalable TActile Glove (STAG), del Laboratorio de Ciencias de la Computación e Inteligencia Artificial, que creó este dispositivo de bajo costo, equipado con unos 550 sensores diminutos en casi toda la mano puede transmitir información en tiempo real.

En detalle, el guante capta cambios de presión por medio de una red de fibras conductoras —conocida técnicamente como una Red Neural Convolucional—, que procesan los datos con un algoritmo de sus sensores y buscan una coincidencia con objetos específicos para identificarlos.

“La información táctil recogida se proyecta sobre la forma de una mano humana, para que podamos entender fácilmente el contexto espacial”, explicó el director de la investigación, Subramanian Sundaraman a los medios. Y añadió: “Se podría considerar que el guante es como una cámara deformable que mide espacialmente las presiones o las fuerzas, lo que no es muy distinto a lo que ocurre en el mundo natural”.

En un artículo publicado en Nature, los investigadores describen un conjunto de datos que compilaron utilizando el STAG con 26 objetos comunes, entre ellos una lata de refresco, tijeras, una pelota de tenis, cuchara, bolígrafo y taza. Usando el conjunto de datos, el sistema predijo las identidades de los objetos con una precisión de hasta el 76 por ciento.

El guante, que sólo cuesta US$10 dólares, también puede predecir los pesos correctos de la mayoría de los objetos dentro de unos 60 gramos.




STAG está laminado con un polímero eléctricamente conductor que cambia la resistencia a la presión aplicada. Los investigadores cosieron hilos conductores a través de orificios en la película de polímero conductor, desde la punta de los dedos hasta la base de la palma. Los hilos se superponen de una manera que los convierte en sensores de presión. Cuando alguien que usa el guante siente, levanta, sujeta y suelta un objeto, los sensores registran la presión en cada punto.

Los hilos se conectan desde el guante a un circuito externo que traduce los datos de presión en «mapas táctiles», que son esencialmente videos breves de puntos que crecen y se contraen en un gráfico de una mano. Los puntos representan la ubicación de los puntos de presión, y su tamaño representa la fuerza: cuanto más grande es el punto, mayor es la presión.

A partir de esos mapas, los investigadores compilaron un conjunto de datos de aproximadamente 135.000 cuadros de video de interacciones con 26 objetos. Esos marcos pueden ser utilizados por una red neuronal para predecir la identidad y el peso de los objetos, y proporcionar información sobre la comprensión humana.

Para identificar objetos, los investigadores diseñaron una red neuronal convolucional (CNN), que generalmente se usa para clasificar imágenes, para asociar patrones de presión específicos con objetos específicos. Pero el truco fue elegir marcos de diferentes tipos de agarres para obtener una imagen completa del objeto.

La idea era imitar la forma en que los humanos pueden sostener un objeto de diferentes maneras para reconocerlo, sin usar su vista. De manera similar, la red neuronal convolucional de los investigadores elige hasta ocho cuadros semi-aleatorios del video que representan las capturas más diferentes, por ejemplo, sosteniendo una taza desde la parte inferior, superior y del mango.

El sistema podría mejorar la comprensión del funcionamiento del tacto, y de esta manera cómo se controlan las manos; una información que para algunos investigadores podría utilizarse para incorporar sensores táctiles a miembros artificiales, o partes mecánicas, y así revolucionar el desarrollo de prótesis y manos robóticas.

La red nerviosa de los mamíferos, dicen algunos, es todo un prodigio. En ella miles de millones de sensores distribuidos por la piel envían mensajes a nuestro cerebro, discriminan qué es importante y qué no, siendo clave para nuestras experiencias e incluso para la supervivencia.

Artículos Relacionados:

Dando sentido del tacto a los robots
Una prótesis que restaura la sensación de dónde está tu mano
Ver a través de los ojos de un robot ayuda a personas con grandes deficiencias motoras
Crean piel electrónica resistente al agua, sensible y con capacidad de auto-reparación



Logran que catéter robótico ingrese por sí solo al corazón palpitante de cerdo vivo

El sistema de senseo del dispositivo fue inspirado por la forma en que las cucarachas se mueven a lo largo de los túneles.

Operar dentro de un corazón que late es un procedimiento complejo y delicado que requiere cirujanos expertos. El personal médico generalmente utiliza joysticks de control y una combinación de rayos X o ultrasonido para guiar con cuidado los catéteres a través del cuerpo.

Ahora, por primera vez, un catéter robótico ha sido capaz de navegar de forma autónoma dentro de un corazón para ayudar a llevar a cabo un procedimiento particularmente complejo. El dispositivo, que se inspiró en la forma en que ciertos animales aprenden sobre su entorno, se utilizó para ayudar a los cirujanos a cerrar las hemorragias en los corazones de cinco cerdos vivos.

«Las ratas usan bigotes para palpar a lo largo de la pared, los humanos sienten su camino y las cucarachas usan sus antenas», dice Pierre Dupont en la Escuela de Medicina de Harvard, quien dirigió el nuevo estudio publicado en Science Robotics. «Del mismo modo, este dispositivo usa sensores táctiles para elabora dónde está, y dónde ir a continuación, basado en un mapa del corazón «.

El dispositivo tiene 8 mm de ancho, con una cámara y una luz LED en su extremo que funciona como un sensor óptico y táctil combinado. Se usó un algoritmo de aprendizaje automático que se entrenó en alrededor de 2000 imágenes de tejido cardíaco para guiarlo a medida que se movía. El sensor táctil palpa periódicamente el tejido del corazón mientras se mueve, lo que ayuda a saber dónde está y asegurándose de no dañar el tejido.




Durante el experimento, el catéter navegó a la ubicación correcta el 95% del tiempo de los 83 ensayos en cinco cerdos. Esta es una tasa de éxito similar a la de un clínico con experiencia, y el procedimiento no dejó hematomas ni daños en los tejidos, según el equipo de investigación. Una vez en posición, los cirujanos tomaron el control y llevaron a cabo el procedimiento para reparar la hemorragia. Aunque han estado disponibles catéteres robóticos durante algunos años, este es el primero que ha podido encontrar su camino sin ayuda humana.

La idea es que, un día, esa tecnología podría liberar a los cirujanos para concentrarse en otras tareas o ayudar al personal médico menos experimentado a realizar procedimientos más complejos. La tecnología podría ser reutilizada para su uso en humanos dentro de cinco años, dice Dupont.

Artículo original:
Technology Review
Science Robotics



Crean piel electrónica resistente al agua, sensible y con capacidad de auto-reparación

Un equipo de científicos de la Universidad Nacional de Singapur (NUS) se inspiró en los invertebrados submarinos como las medusas para crear una piel electrónica con una funcionalidad similar.

Al igual que una medusa, la piel electrónica es transparente, estirable, sensible al tacto y se auto-repara en entornos acuáticos. Pero además es conductora de la electricidad, y podría usarse en todo, desde pantallas táctiles resistentes al agua hasta robots acuáticos blandos.

El profesor asistente Benjamin Tee y su equipo del Departamento de Ciencia e Ingeniería de Materiales de la Facultad de Ingeniería de la Universidad Nacional de Singapur desarrollaron el material, junto con colaboradores de la Universidad de Tsinghua y la Universidad de California en Riverside.

El equipo de ocho investigadores dedicó poco más de un año a desarrollar el material, y su invención se publicó por primera vez este año en la revista Nature Electronics.

Materiales auto-reparables, transparentes e impermeables para un amplio rango de usos

El profesor asistente Tee ha estado trabajando en pieles electrónicas durante muchos años, y fue parte del equipo que desarrolló los primeros sensores electrónicos de piel con auto-reparación en 2012.

Su experiencia en esta área de investigación lo llevó a identificar los obstáculos clave que aún no han superado las pieles electrónicas auto-reparables. «Uno de los desafíos con la mayoría de los materiales auto-reparables actuales es que no son transparentes y no funcionan de manera eficiente cuando están mojados», dijo. «Estos inconvenientes los hacen menos útiles para aplicaciones electrónicas, como las pantallas táctiles, que a menudo deben usarse en condiciones de clima con humedad extrema».

Continuó: «Con esta idea en mente, comenzamos a observar a las medusas; son transparentes y capaces de percibir en el ambiente acuático. Entonces, nos preguntamos cómo podríamos hacer un material artificial que pudiera imitar la naturaleza resistente al agua de las medusas y, sin embargo, fuese sensible al tacto».

Tuvieron éxito en este esfuerzo al crear un gel que consiste en un polímero a base de fluorocarbono con un líquido ionizado rico en flúor. Cuando se los combina, la red de polímeros interactúa con el líquido iónico a través de interacciones ión-dipolo altamente reversibles, lo que le permite auto-repararse.

Al elaborar las ventajas de esta configuración, el profesor Tee explicó: «La mayoría de los geles de polímeros conductores, como los hidrogeles, se hinchan al sumergirlos en agua o se secan con el tiempo en el aire, lo que hace que nuestro material sea diferente es que puede conservar su forma tanto en entornos húmedos como secos. Funciona bien en agua de mar e incluso en ambientes ácidos o alcalinos».


La próxima generación de robots blandos

La piel electrónica se crea imprimiendo el material nuevo dentro de circuitos electrónicos. Como es un material blando y estirable, sus propiedades eléctricas cambian cuando se toca, presiona o se tensa.

«Luego podemos medir este cambio y convertirlo en señales eléctricas legibles para crear una amplia gama de diferentes aplicaciones de sensores», agregó el profesor Tee.

«La capacidad de imprimir nuestro material en 3D también muestra potencial en la creación de tableros de circuitos totalmente transparentes que podrían usarse en aplicaciones robóticas. Esperamos que este material pueda usarse para desarrollar varias aplicaciones en tipos emergentes de robots blandos», agregó el profesor Tee, quien también pertenece al Departamento de Ingeniería Eléctrica e Informática de NUS, y el Instituto Biomédico para la Investigación y Tecnología de Salud Global (BIGHEART) en NUS.





Los robots blandos, y la electrónica blanda en general, buscan imitar los tejidos biológicos para hacerlos más compatibles mecánicamente con las interacciones hombre-máquina. Además de las aplicaciones de robots blandos convencionales, la tecnología impermeable de este nuevo material permite el diseño de robots anfibios y dispositivos electrónicos resistentes al agua.

Una ventaja adicional de esta piel electrónica autorreparable es el potencial que tiene para reducir la basura tecnológica. Tee explicó: «Cada año, se generan globalmente millones de toneladas de desechos electrónicos provenientes de teléfonos móviles, tabletas, etc. Esperamos crear un futuro en el que los dispositivos electrónicos hechos de materiales inteligentes puedan realizar acciones de reparación automática para reducir la cantidad de desechos electrónicos en el mundo».

Próximos pasos

El profesor Tee y su equipo continuarán su investigación y esperan explorar más posibilidades de este material en el futuro. Dijo: «Actualmente, estamos haciendo uso de las propiedades integrales del material para hacer nuevos dispositivos optoelectrónicos, que podrían utilizarse en muchas nuevas interfaces de comunicación hombre-máquina».

Fuente de la historia: ScienceDaily. Materiales proporcionados por la Universidad Nacional de Singapur. Referencia de la publicación: Yue Cao, Yu Jun Tan, Si Li, Wang Wei Lee, Hongchen Guo, Yongqing Cai, Chao Wang, Benjamin C.-K. Tee. Pieles electrónicas autocurables para ambientes acuáticos. Nature Electronics, 2019; 2 (2): 75 DOI: 10.1038 / s41928-019-0206-5

Artículos relacionados:
Dando sentido del tacto a los robots
Nuevos micro robots de tamaño celular podrían hacer viajes increíbles
Una prótesis que restaura la sensación de dónde está tu mano
Módulo de teclado sensible al tacto TTP229
Un pequeño robot blando con muchas patas administraría fármacos al cuerpo humano
Usando electricidad y agua, un nuevo tipo de motor puede poner microrobots en movimiento
FlexShapeGripper: el agarre de la lengua de un camaleón