Archivo de la categoría: Componentes

Chips de potencia ultra baja ayudan a hacer robots pequeños más capaces

Se muestra un automóvil robótico controlado por un chip híbrido de potencia ultra baja en una pista creada para demostrar su capacidad para aprender y colaborar con otro robot. Crédito: Allison Carter, Georgia Tech

Un chip híbrido de potencia ultra baja inspirado en el cerebro podría ayudar a que robots de tamaño pequeño puedan colaborar y aprender de sus experiencias. Combinado con las nuevas generaciones de motores y sensores de baja potencia, el nuevo Circuito Integrado de Aplicación Específica (ASIC = Application-Specific Integrated Circuit), que funciona con milivatios de potencia, podría ser de ayuda para que los enjambres de robots inteligentes operen durante horas en lugar de minutos.

Para ahorrar energía, los chips utilizan un procesador híbrido digital/analógico basado en dominio de tiempo (time domain), en el que la información se codifica en el ancho de pulso de las señales. El circuito integrado de red neuronal se adapta tanto a la programación basada en modelos como al aprendizaje reforzado por colaboración, lo que podría proporcionar a estos pequeños robots mayores capacidades de reconocimiento, búsqueda y rescate, y otras misiones.

Investigadores del Instituto de Tecnología de Georgia demostraron autos robóticos conducidos por ASIC únicos en la Conferencia Internacional de Circuitos de Estado Sólido (ISSCC) IEEE 2019. La investigación fue patrocinada por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) y la Corporación de Investigación de Semiconductores (SRC) a través del Centro para la Habilitación de Inteligencia Autónoma Inspirada en el Cerebro (CBRIC).

“Estamos tratando de poner inteligencia en estos robots tan pequeños para que puedan aprender sobre su entorno y moverse de forma autónoma, sin infraestructura”, dijo Arijit Raychowdhury, profesor asociado de la Escuela de Ingeniería Eléctrica e Informática de Georgia Tech. “Para lograrlo, queremos incorporar diseños de circuitos de baja potencia a estos dispositivos tan pequeños para que puedan tomar decisiones por su cuenta. Existe una gran demanda de robots muy pequeños pero capaces, que no requieren infraestructura”.

Los autos demostrados por Raychowdhury junto a los estudiantes de posgrado Ningyuan Cao, Muya Chang y Anupam Golder navegan a través de una pista rodeada de almohadillas de goma y paredes de bloques de cartón. Mientras buscan un objetivo, los robots deben esquivar conos de tráfico y evitarse entre ellos, aprendiendo del entorno a medida que avanzan y se comunican continuamente.

Los autos utilizan sensores de inercia y ultrasonido para determinar su ubicación y detectar objetos a su alrededor. La información de los sensores va al ASIC híbrido, que sirve como el “cerebro” de los vehículos. Luego, las instrucciones van a un controlador Raspberry Pi, que es el que envía instrucciones a los motores eléctricos.


En los pequeños robot, tres sistemas principales consumen energía: los motores y controladores utilizados para conducir y dirigir las ruedas, el procesador y el sistema de detección. En los autos construidos por el equipo de Raychowdhury, que el ASIC sea de baja potencia significa que los motores consumen la mayor parte de ésta. “Hemos podido reducir la potencia de cómputo a un nivel en el que el cálculo está dominado por las necesidades de los motores”, dijo.

El equipo está trabajando con colaboradores en motores que utilizan tecnología microelectromecánica (MEMS) capaz de operar con mucha menos potencia que los motores convencionales.

“Quisiéramos construir un sistema en el que la potencia de detección, las comunicaciones y la potencia de la computadora y la actuación estén aproximadamente al mismo nivel, del orden de cientos de milivatios”, dijo Raychowdhury, quien es profesor adjunto de Semiconductores ON en la Escuela de Ingeniería Eléctrica y Computación. “Si podemos construir estos robots del tamaño de la palma de la mano con motores y controladores eficientes, deberíamos poder obtener tiempos de operación de varias horas con un par de baterías AA. Ahora tenemos una buena idea de qué tipo de plataformas informáticas necesitamos para ofrecer esto, pero todavía necesitamos los otros componentes para ponernos al día”.

ASIC


En la computación basada en time-domain, la información se transporta en dos voltajes diferentes, codificados en el ancho de los pulsos. Eso le da a los circuitos las ventajas de eficiencia energética de los circuitos analógicos con la robustez de los dispositivos digitales.

“El tamaño del chip se reduce a la mitad, y el consumo de energía es un tercio de lo que necesitaría un chip digital tradicional”, dijo Raychowdhury. “Usamos varias técnicas en los diseños de lógica y memoria para reducir el consumo de energía al rango de milivatios (un milivatio es una milésima de vatio), y al mismo tiempo cumplir con el objetivo de rendimiento”.

Con cada ancho de pulso representando un valor diferente, el sistema es más lento que los dispositivos digitales o analógicos, pero Raychowdhury dice que la velocidad es suficiente para estos robots pequeños.

“Para estos sistemas de control, no necesitamos circuitos que operen a múltiples gigahercios porque los dispositivos no se mueven tan rápido”, dijo. “Estamos sacrificando un poco de rendimiento para obtener eficiencias energéticas extremas. Incluso si la computadora funciona a 10 o 100 megahercios, eso será suficiente para las aplicaciones que se buscan”.





Los chips CMOS de 65 nanómetros se adaptan a los dos tipos de aprendizaje apropiados para un robot. El sistema puede programarse para seguir algoritmos basados en modelos, y puede aprender de su entorno utilizando un sistema de fortalecimiento que fomenta un mejor y mejor desempeño a lo largo del tiempo, como un niño que aprende a caminar tropezando con cosas.

“Se inicia el sistema con un conjunto predeterminado de “pesos” en la red neuronal para que el robot pueda comenzar desde un buen lugar y no se bloquee de inmediato ni proporcione información errónea”, dijo Raychowdhury. “Cuando usted lo ubica en un nuevo sitio, el entorno tendrá algunas estructuras que reconocerá y otras que el sistema tendrá que aprender. Luego, el sistema tomará las decisiones por su cuenta y evaluará la efectividad de cada decisión para optimizar sus movimientos”.

La comunicación entre los robots les permite colaborar para buscar un objetivo.

“En un entorno de colaboración, el robot no solo necesita entender lo que está haciendo, sino también lo que están haciendo los demás en el mismo grupo”, dijo. “Trabajarán para maximizar logros totales del grupo en lugar de una recompensa individual”.

Con su demostración en la Conferencia Internacional de Circuitos de Estado Sólido, que les aportó una prueba del diseño, el equipo continúa optimizando el desarrollo y está trabajando en un sistema en chip para integrar los circuitos de computación y control.

“Queremos habilitar más y más funcionalidad en estos pequeños robots”, agregó Raychowdhury. “Hemos demostrado lo que es posible, y lo que hemos hecho ahora tendrá que ser aumentado por otras innovaciones”.

Fuente: Instituto de Tecnología de Georgia

Artículos Relacionados:
Walbi, el bípedo que aprende a caminar
Usando electricidad y agua, un nuevo tipo de motor puede poner microrobots en movimiento
Un robot que procura moverse tan bien como una hormiga
LSM6DSOX: acelerómetro y giroscopio con aprendizaje automático incorporado
Logran que los robots rastreen objetos en movimiento con una precisión sin precedentes
Nuevos micro robots de tamaño celular podrían hacer viajes increíbles



Servidor web básico NodeMCU con IDE de Arduino

Diseñamos aquí un servidor HTTP básico con una placa NodeMCU con ESP8266 y el IDE de Arduino 


Para más referencia de cómo agregar la familia de plaquetas y las bibliotecas necesarias para la familia ESP, les ofrezco leer el reciente artículo ESP8266 (WiFi): Hacer que parpadee un LED desde el IDE de Arduino (más básico que este) donde se desarrollada con mucho detalle tanto que es un ESP8266 como esta instalación.

Es posible que la comunidad ESP no tenga mucho entusiasmo en programar con Arduino, y sí hacerlo con las herramientas propias de la línea del ESP8266. Y es totalmente lógico y razonable. Pero a veces es un alivio disponer de la facilidad del uso del IDE de Arduino y su lenguaje simplificado, más cuando uno está acostumbrado a estas herramientas.

Por eso se ha escrito una biblioteca (o librería) y definición de placas, para programar esta versátil y potente línea con el IDE de Arduino.

Usaremos una placa NodeMCU, que contiene un módulo ESP12E, versión 1.0, un cable USB adecuado para esta placa y una computadora conectada a Internet. El ESP8266, el chip básico del sistema, requiere una red WiFi, así que suponemos que ese tipo de conexión estará disponible.

La definición de dispositivos y librería

Necesitamos disponer del IDE de Arduino, una versión actualizada. La última que ofrece oficialmente http://arduino.cc es la 1.8.8. Si usted está trabajando con una de versión anterior a 1.8.x le recomiendo actualizar.

Copio aquí la explicación del artículo anterior. Si ya instaló en esa ocasión, no tiene que hacer todo esto y puede saltar a la sección Diseño del servido http básico, más abajo.


El ESP8266 se puede programar desde el IDE de Arduino. Para eso hay que instalar lo que se llama un plugin, en el que está incluido todo lo necesario para compilar y subir programas que fueron escritos tal como si fuesen .INO de Arduino.

Debemos incorporar librerías y los programas de manejo de las placas con el chip ESP8266 a nuestro IDE. Para hacerlo, debemos indicarle la URL desde donde se obtienen.

Para hacerlo, debemos abrir el menú Archivo, y luego Preferencias.

Veremos este panel, en la parte inferior el recuadro de texto rotulado Gestor de URLs Adicionales de Tarjetas. Dentro de él, usando copiar y pegar, se debe introducir el texto indicado aquí:

http://arduino.esp8266.com/stable/package_esp8266com_index.json

(copie y pegue en el recuadro):

Luego pulse en el botón Ok.

Ahora debemos ir al menú Herramientas, luego Placa.

Y finalmente Gestor de Tarjetas, se abrirá una ventana como la que sigue, en la cual escribimos, en el recuadro superior de filtro/busqueda, “ESP8266” (antes de terminar de escribir ya aparecerá el Gestor de Tarjetas que buscamos, que indica que fue creado por “ESP8266 Community”. Allí pulsamos sobre Instalar:

Al abrir nuevamente Herramientas, y luego Placa, deslizamos la lista para ver lo que aparece al final de ella (abajo), y vemos que ya existen las opciones referidas a los ESP8266:

Así queda todo preparado para programar NodeMCU ESP12E desde el IDE Arduino.





Servidor HTTP básico

Este pequeño servidor que proponemos muestra el título que elijamos en nuestro navegador. Hemos elegido escribir “Saludos de Robots Argentina”, pero el texto es a elección del programador.

Declaramos la librería ESP8266WiFi.h al inicio, definimos el nombre y el password de la red (la de su proveedor y la de su conexión; y un puerto.

En la función setup() inicializamos el puerto Serial. A través de él podremos monitorear desde la PC para saber a qué IP se ha conectado la placa.

Ahora se realiza la conexión a la red WiFi. Si se logra, lo indica por serie y lo veremos en el Monitor Serie del IDE.

Puesta en operación del servidor.

Mostrar por Monitor Serie la dirección IP que le ha otorgado a la placa el router de la red.

En la función loop() se comprueba si está establecida la nueva conexión. Si así es, se envía el contenido de la página web, que consta de cabeceras HTML y el contenido que deseamos para la página.

Programa completo:

Copiamos el programa en el IDE del Arduino, y ahora, antes de probar si se compila correctamente, debemos conectar la placa NodeMCU a USB y decirle al IDE de Arduino qué tipo de placa vamos a programar. Debemos elegir en Herramientas el “NodeMCU 1.0 (ESP-12E Module)”. Si usted tiene otro tipo de placa con ESP8266 y sabe cómo conectarla a USB, elija en la lista su módulo correcto y todo funcionará del mismo modo. Espere a que el IDE detecte la placa y defina en que número de COM serie está.

Cargar el programa

Dentro del menú “Herramientas” cambiamos el tipo de placa por una NodeMCU 1.0 (ESP-12E Module), o el modelo que tengamos.

Al elegir y si se conecta bien indicará estos valores: frecuencia de la CPU: 80 MHz, tamaño de flash: 4M (1M SPIFFS), velocidad de carga: 115200. El puerto dependerá de la máquina (en Linux puede ser /dev/ttyUSB0 o /dev/ttyUSB1).

Determinada esta elección dispositivo y conexión COM, ya se puede cargar el programa de la manera habitual.

Al correr el programa nos indicará en qué dirección IP encontramos la página web que hemos creado en la placa. Introduciéndola en la barra de dirección del navegador, podremos verla con el mensaje que hemos elegido. Si este mensaje tuviese una parte variable, por ejemplo algún valor que varía, como el registro de un sensor de temperatura u otro indicador, y/o la hora/minuto/segundo.

Artículos relacionados: ESP8266 (WiFi): Hacer que parpadee un LED desde el IDE de Arduino



Dando a los vehículos autónomos una “visión eléctrica” más aguda

El sistema en un chip capaz de detectar las señales en longitudes de onda sub-terahercios podría ayudar a conducir los vehículos sin conductor a través de la niebla y el polvo.

Los vehículos autónomos que dependen de sensores de imagen basados en la luz a menudo tienen dificultades para ver a través de algo que obstruye la visión, como la niebla. Pero los investigadores del MIT han desarrollado un sistema de recepción de radiación sub-terahercios que podría ayudar a conducir automóviles sin conductor cuando los métodos tradicionales fallan.

Las longitudes de onda de sub-terahercios, que se encuentran entre la radiación de microondas e infrarroja en el espectro electromagnético, se pueden detectar fácilmente a través de la niebla y las nubes de polvo, mientras que los sistemas de imágenes LiDAR basados en infrarrojos utilizados en vehículos autónomos tienen dificultades. Para detectar objetos, un sistema de imágenes basado en sub-terahercios envía una señal inicial a través de un transmisor; un receptor mide la absorción y reflexión de las longitudes de onda de los sub-terahercios del rebote. Eso envía una señal a un procesador que recrea una imagen del objeto.

Pero la implementación de sensores sub-terahertcios en autos sin conductor es un desafío. Un reconocimiento de objetos sensible y preciso requiere una fuerte señal de salida del receptor al procesador. Los sistemas tradicionales, hechos de componentes discretos que producen esas señales, son grandes y costosos. Existen matrices más pequeñas de sensores en chip, pero producen señales débiles.

En un artículo publicado en línea por el IEEE Journal of Solid-State Circuits, los investigadores describen una matriz bidireccional de recepción sub-terahercios en un chip que es mucho más sensible, lo que significa que puede capturar e interpretar mejor las longitudes de onda de sub-terahercios en presencia de mucho ruido de señal.

Para lograr esto, implementaron un esquema de píxeles a partir de una mezcla de señales independientes, llamados “detectores heterodinos”, que generalmente son muy difíciles de integrar en chips. Los investigadores redujeron drásticamente el tamaño de los detectores heterodinos para que muchos de ellos puedan encajar en un denso chip. El truco consistió en crear un componente multipropósito compacto que pueda mezclar simultáneamente señales de entrada, sincronizar la matriz de píxeles y producir fuertes señales de banda base de salida.

Los investigadores construyeron un prototipo, que tiene una matriz de 32 píxeles integrada en un dispositivo de 1,2 milímetros cuadrados. Los píxeles son aproximadamente 4.300 veces más sensibles que los píxeles en los sensores de matriz de sub-terahercios de hoy en día en chips. Con un poco más de desarrollo, es posible que el chip se pueda usar en autos sin conductor y robots autónomos.

“Una gran motivación para este trabajo es tener mejores ‘ojos eléctricos’ para vehículos autónomos y drones”, dice el coautor Ruonan Han, profesor asociado de ingeniería eléctrica y ciencias de la computación, y director del Grupo de Electrónica Integrada Terahertz en el Microsystems Technology Laboratories (MTL) del MIT. “Nuestros sensores de sub-terahercios de bajo costo y en chip jugarán un papel complementario al LiDAR para cuando el entorno sea peligroso”.

Junto a Han en la publicación, se encuentran el primer autor Zhi Hu y el coautor Cheng Wang, ambos estudiantes de doctorado en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación que trabajan en el grupo de investigación de Han.

Diseño descentralizado

La clave del diseño es lo que los investigadores denominan “descentralización”. En este diseño, un píxel único, denominado píxel “heterodino”, genera el ritmo de la frecuencia (la diferencia de frecuencia entre dos señales de sub-terahercios entrantes) y la “oscilación local”, una señal eléctrica que cambia la frecuencia de una frecuencia de entrada. Este proceso de “mezcla descendente” produce una señal en el rango de megahercios que puede ser fácilmente interpretada por un procesador de banda base.

La señal de salida se puede usar para calcular la distancia de los objetos, de manera similar a como un LiDAR calcula el tiempo que tarda un láser en impactar un objeto y rebotar. Además, la combinación de las señales de salida de una matriz de píxeles y la dirección de los píxeles en una cierta dirección puede permitir imágenes de alta resolución de una escena. Esto permite no solo la detección, sino también el reconocimiento de objetos, algo fundamental en vehículos autónomos y robots.

La colección de píxeles heterodinos funciona solo cuando las señales de oscilación locales de todos los píxeles están sincronizadas, lo que significa que se necesita una técnica de sincronización de señales. Los diseños centralizados incluyen un solo concentrador que comparte señales de oscilación locales con todos los píxeles.

Estos diseños generalmente se usan en receptores de frecuencias más bajas y pueden causar problemas en las bandas de frecuencia de sub-terahercios, donde la generación de una señal de alta potencia desde un solo concentrador es notoriamente difícil. A medida que la matriz aumenta, la potencia compartida por cada píxel disminuye, lo que reduce la intensidad de la señal de banda base de salida, que depende en gran medida de la potencia de la señal de oscilación local. Como resultado, una señal generada por cada píxel puede ser muy débil, lo que lleva a una baja sensibilidad. Se ha comenzado a usar algunos sensores en chip de este diseño, pero están limitados a ocho píxeles.

El diseño descentralizado de los investigadores aborda este compromiso de sensibilidad a la escala. Cada píxel genera su propia señal de oscilación local, utilizada para recibir y mezclar la señal entrante. Además, un acoplador integrado sincroniza su señal de oscilación local con la de su vecino. Esto le da a cada píxel más potencia de salida, ya que la señal de oscilación local no fluye desde un centro global.

Una buena analogía para el nuevo diseño descentralizado es un sistema de riego, dice Han. Un sistema de irrigación tradicional tiene una bomba que dirige un poderoso flujo de agua a través de una red de tuberías que distribuye agua a muchos sitios de rociadores. Cada aspersor escupe agua con un flujo mucho más débil que el flujo inicial de la bomba. Si se desea que los rociadores lancen agua a la misma frecuencia, eso requeriría otro sistema de control.

El diseño de los investigadores, por otro lado, le da a cada sitio su propia bomba de agua, eliminando la necesidad de conectar tuberías, y le da a cada aspersor su propia salida poderosa de agua. Cada aspersor también se comunica con su vecino para sincronizar sus pulsaciones. “Con nuestro diseño, esencialmente no hay límite para la escalabilidad”, dice Han. “Puedes tener tantos sitios como quieras, y cada sitio aún bombea la misma cantidad de agua… y todas las bombas pulsan juntas”.





Sin embargo, potencialmente, la nueva arquitectura hace que la huella de cada píxel sea mucho más grande, lo que plantea un gran desafío para la integración a gran escala y de alta densidad en forma de matriz. En su diseño, los investigadores combinaron varias funciones de cuatro componentes tradicionalmente separados (antena, mezclador, oscilador y acoplador) en un único componente de “multitarea” dedicado a cada píxel. Esto permite un diseño descentralizado de 32 píxeles.

“Diseñamos un componente multifuncional para un diseño [descentralizado] en un chip y combinamos algunas estructuras discretas para reducir el tamaño de cada píxel”, dice Hu. “Aunque cada píxel realiza operaciones complicadas, mantiene su compacidad, por lo que aún podemos tener una matriz densa a gran escala”.

Guiado por frecuencias

Para que el sistema pueda medir la distancia de un objeto, la frecuencia de la señal local de oscilación debe ser estable.

Con ese fin, los investigadores incorporaron en su chip un componente llamado bucle de bloqueo de fase, que bloquea la frecuencia de sub-terahercios de las 32 señales de oscilación local a una referencia estable de baja frecuencia. Debido a que los píxeles están acoplados, sus señales de oscilación locales comparten una fase y frecuencia idénticas y de alta estabilidad. Esto asegura que se pueda extraer información significativa de las señales de banda base de salida. Toda esta arquitectura minimiza la pérdida de señal y maximiza el control.

“En resumen, logramos una matriz coherente, al mismo tiempo con una potencia de oscilación local muy elevada en cada píxel, por lo que cada píxel alcanza una alta sensibilidad”, dice Hu.



Logran que los robots rastreen objetos en movimiento con una precisión sin precedentes

El sistema usa etiquetas RFID para ubicarse en los objetivos. Podría beneficiar la fabricación robótica, drones colaborativos y otras aplicaciones.

Un nuevo sistema desarrollado en MIT utiliza etiquetas RFID para ayudar a los robots a localizar objetos en movimiento con una velocidad y precisión sin precedentes. El sistema podría permitir una mayor colaboración y precisión de los robots que trabajan en el empaquetado y el ensamblaje, y de enjambres de drones que realizan misiones de búsqueda y rescate.

En un documento que se presentará la próxima semana en el Simposio de USENIX sobre Diseño e Implementación de Sistemas en Red, los investigadores muestran que los robots que usan el sistema pueden ubicar objetos etiquetados en un promedio de 7,5 milisegundos, y con un error de menos de un centímetro.

En el sistema, llamado TurboTrack, se puede aplicar una etiqueta RFID (identificación por radiofrecuencia) a cualquier objeto. Un lector envía una señal inalámbrica que se refleja en la etiqueta RFID y otros objetos cercanos, y rebota en el lector. Un algoritmo revisa todas las señales reflejadas para encontrar la respuesta de la etiqueta RFID. Luego, los cálculos finales aprovechan el movimiento de la etiqueta RFID, algo que generalmente disminuye la precisión, para mejorar la precisión de la localización.

Los investigadores dicen que el sistema podría reemplazar la visión por computadora para algunas tareas robóticas. Al igual que con su contraparte humana, la visión de la computadora está limitada por lo que puede ver, y puede dejar de notar objetos en entornos desordenados. Las señales de radiofrecuencia no tienen estas restricciones: pueden identificar los objetivos sin visualización, dentro del desorden y a través de las paredes.

Para validar el sistema, los investigadores adjuntaron una etiqueta RFID a una tapa y otra a una botella. Un brazo robótico localizó la tapa y la colocó sobre la botella, sostenida por otro brazo robótico. En otra demostración, los investigadores rastrearon nanodrones equipados con RFID durante el acoplamiento, las maniobras y el vuelo. En ambas tareas, el sistema era tan preciso y rápido como los sistemas tradicionales de visión artificial, mientras trabajaban en escenarios donde falla la visión artificial, informan los investigadores.

“Si se usa señales de RF para tareas que normalmente se realizan con visión por computadora, no solo se habilita a los robots para que hagan cosas humanas, sino que también se puede hacer que hagan cosas sobrehumanas”, dice Fadel Adib, profesor asistente e investigador principal en el MIT Media Lab, y director fundador del Grupo de Investigación Signal Kinetics. “Y puede hacerlo de manera escalable, porque estas etiquetas RFID solo cuestan 3 centavos [de dólar] cada una”.

En la fabricación, el sistema podría permitir que los brazos robóticos sean más precisos y versátiles en, digamos, recoger, ensamblar y empaquetar elementos a lo largo de una línea de ensamblaje. Otra aplicación prometedora es el uso de “nanodrones” de mano para misiones de búsqueda y rescate. Los nanodrones actualmente utilizan la visión por computadora y métodos para unir las imágenes capturadas con fines de localización. Estos drones a menudo se confunden en áreas caóticas, se pierden entre sí detrás de las paredes y no se pueden identificar de manera única. Todo esto limita su capacidad de, digamos, extenderse sobre un área y colaborar para buscar a una persona desaparecida. Usando el sistema de los investigadores, los nanodrones en enjambres podrían ubicarse mejor entre sí, para un mayor control y colaboración.

“Se puede permitir que un enjambre de nanodrones se forme de ciertas maneras, vuele en ambientes abarrotados, e incluso en entornos ocultos a la vista, con gran precisión”, dice el primer autor Zhihong Luo, un estudiante graduado del Grupo de Investigación Signal Kinetics.

Los otros coautores del Media Lab en la publicación son el estudiante Qiping Zhang, el posdoctorado Yunfei Ma y el asistente de investigación Manish Singh.

Súper resolución

El grupo de Adib ha estado trabajando durante años en el uso de señales de radio para fines de seguimiento e identificación, como la detección de contaminación en los alimentos embotellados, la comunicación con los dispositivos internos del cuerpo, y la gestión de inventarios de almacenamientos.

Sistemas similares han intentado utilizar etiquetas RFID para tareas de localización. Pero estos vienen con compensaciones de precisión o velocidad. Para ser precisos, les puede llevar varios segundos encontrar un objeto en movimiento. Para aumentar la velocidad, pierden precisión.

El desafío fue lograr velocidad y precisión simultáneamente. Para hacerlo, los investigadores se inspiraron en una técnica de imagen llamada “imagen de súper resolución”. Estos sistemas unen imágenes desde múltiples ángulos para lograr una imagen de resolución más fina.

“La idea era aplicar estos sistemas de súper resolución a las señales de radio”, dice Adib. “A medida que algo se mueve, obtienes más perspectivas para rastrearlo, de modo que se puede explotar el movimiento para obtener precisión”.

El sistema combina un lector RFID estándar con un componente “auxiliar” que se utiliza para localizar las señales de radiofrecuencia. El ayudante dispara una señal de banda ancha que comprende múltiples frecuencias, basándose en un esquema de modulación utilizado en la comunicación inalámbrica, llamado Multiplexación por división de frecuencias ortogonales.

El sistema captura todas las señales que rebotan contra objetos en el entorno, incluida la etiqueta RFID. Una de esas señales lleva una señal que es específica de una determinada etiqueta RFID, porque las señales RFID reflejan y absorben una señal entrante en un determinado patrón, correspondiente a bits 0 y 1, que el sistema puede reconocer.




Debido a que estas señales viajan a la velocidad de la luz, el sistema puede calcular un “tiempo de vuelo” (Time of Fly), que mide la distancia al calcular el tiempo que tarda una señal en viajar entre un transmisor y un receptor, para medir la ubicación de la etiqueta, así como los otros objetos en el entorno. Pero esto proporciona solo una figura de localización de estadio de béisbol, no una precisión menor a un centímetro.

Aprovechando el movimiento

Para ampliar la ubicación de la etiqueta, los investigadores desarrollaron lo que denominan un algoritmo de “súper resolución de espacio-tiempo”.

El algoritmo combina las estimaciones de ubicación para todas las señales de rebote, incluida la señal RFID, que ha determinado usando el tiempo de vuelo. Usando algunos cálculos de probabilidad, reduce ese grupo a unas pocas ubicaciones potenciales para la etiqueta RFID.

A medida que la etiqueta se mueve, su ángulo de señal se altera ligeramente, un cambio que también corresponde a una determinada ubicación. El algoritmo puede usar ese cambio de ángulo para rastrear la distancia de la etiqueta a medida que se mueve. Al comparar constantemente el cambio de la medición de distancia con todas las demás mediciones de distancia de otras señales, puede encontrar la etiqueta en un espacio tridimensional. Todo esto sucede en una fracción de segundo.

“La gran idea es que, al combinar estas mediciones en el tiempo y en el espacio, se obtiene una mejor reconstrucción de la posición de la etiqueta”, dice Adib.

“El trabajo informa sobre la precisión en el orden del sub-centímetro, que es muy impresionante para RFID”, dice Lili Qiu, profesor de ciencias de la computación en la Universidad de Texas en Austin, cuya investigación se centra en las redes inalámbricas y las comunicaciones. “El documento propone una idea interesante que le permite a un “ayudante” transmitir una señal de banda ancha compatible con el protocolo RFID para lograr una alta precisión de seguimiento [y] desarrolla un […] marco para la localización de RF que fusiona las mediciones en el tiempo y en múltiples antenas. El sistema tiene potencial para admitir aplicaciones que son objetivo [de los investigadores], como ensamblaje robótico y nanodrones. … Sería muy interesante ver los resultados de las pruebas de campo en el futuro”.

El trabajo fue patrocinado, en parte, por la Fundación Nacional de Ciencia.



LEDs conectados al revés podrían enfriar las computadoras del futuro

En un hallazgo que va en contra de un supuesto común en física, los investigadores de la Universidad de Michigan conectaron un diodo emisor de luz (LED) con sus electrodos invertidos para enfriar otro dispositivo a solo nanómetros de distancia.

El equipo de la UM modificó un fotodiodo infrarrojo del tamaño de un grano de arroz, que se muestra en esta imagen de microscopio electrónico. Alisaron su superficie para que pudieran colocarla cerca de un calorímetro hecho a medida, solo 55 nanómetros (0,000055 milímetros) entre ellos. Las mediciones del calorímetro mostraron que el fotodiodo, cuando se conecta con los electrodos invertidos, se comportaba como si estuviera a una temperatura más baja y enfriaba el calorímetro

El enfoque podría llevar a una nueva tecnología de refrigeración de estado sólido para microprocesadores futuros, que tendrá tantos transistores empaquetados en un espacio pequeño que los métodos actuales no pueden eliminar el calor lo suficientemente rápido.

“Hemos demostrado un segundo método para usar los fotones para enfriar los dispositivos”, dijo Pramod Reddy, quien dirigió el trabajo junto con Edgar Meyhofer, ambos profesores de ingeniería mecánica.

El primero, conocido en el campo como el enfriamiento por láser, se basa en el trabajo fundacional de Arthur Ashkin, quien compartió el Premio Nobel de Física en 2018.

Los investigadores aprovecharon el potencial químico de la radiación térmica, un concepto que se usa más comúnmente para explicar, por ejemplo, cómo funciona una batería.

“Incluso hoy, muchos asumen que el potencial químico de la radiación es cero”, dijo Meyhofer. “Pero el trabajo teórico que se remonta a la década de 1980 sugiere que bajo ciertas condiciones, este no es el caso”.

El potencial químico en una batería, por ejemplo, impulsa una corriente eléctrica cuando se coloca en un dispositivo. Dentro de la batería, los iones metálicos quieren fluir al otro lado porque pueden deshacerse de parte de la energía (energía potencial química) y nosotros utilizamos esa energía como electricidad. La radiación electromagnética, incluida la luz visible y la radiación térmica infrarroja, por lo general no tiene este tipo de potencial.

“Por lo general, para la radiación térmica, la intensidad solo depende de la temperatura, pero en realidad tenemos un interruptor adicional para controlar esta radiación, lo que hace posible el enfriamiento que investigamos”, dijo Linxiao Zhu, investigadora en ingeniería mecánica y autora principal del trabajo de investigación.

Ese interruptor es eléctrico. En teoría, revertir las conexiones eléctricas positivas y negativas en un LED infrarrojo no solo evitará que emita luz, sino que suprimirá la radiación térmica que debería estar produciendo, solo porque está a temperatura ambiente.

“El LED, con este truco de polarización inversa, se comporta como si estuviera a una temperatura más baja”, dijo Reddy.

Sin embargo, medir este enfriamiento, y probar que algo interesante sucedió, es terriblemente complicado.

Para obtener suficiente luz infrarroja para que fluya desde un objeto al LED, los dos tendrían que estar muy juntos, menos que una sola longitud de onda de luz infrarroja. Esto es necesario para aprovechar los efectos de “campo cercano” o “acoplamiento evanescente”, que permiten que más fotones infrarrojos, o partículas de luz, crucen desde el objeto para dentro del LED.

Reddy y el equipo de Meyhofer tenían una ventaja, porque ya habían estado calentando y enfriando dispositivos a nanoescala, organizándolos de modo que estuvieran separados solo por unas pocas decenas de nanómetros, o menos de una milésima del grosor de un cabello. En esta proximidad, un fotón que no habría escapado del objeto a enfriar puede pasar al LED, casi como si no existiera la brecha entre ellos. Y el equipo tuvo acceso a un laboratorio de vibraciones ultra bajas donde las mediciones de objetos separados por nanómetros se vuelven factibles porque las vibraciones, como las de alguien caminando en el edificio, se reducen drásticamente.

El grupo probó el principio construyendo un calorímetro minúsculo, que es un dispositivo que mide los cambios en la energía, y colocándolo junto a un pequeño LED del tamaño de un grano de arroz. Estos dos emitían y recibían fotones térmicos entre sí y de otras partes de sus entornos.

“Cualquier objeto que se encuentre a temperatura ambiente está emitiendo luz. Una cámara de visión nocturna, básicamente, está capturando la luz infrarroja que proviene de un cuerpo cálido”, dijo Meyhofer.

Pero una vez que el LED fue polarizado en inversa, comenzó a actuar como un objeto de muy baja temperatura, absorbiendo fotones del calorímetro. Al mismo tiempo, la brecha evita que el calor vuelva al calorímetro por medio de conducción, lo que produce un efecto de enfriamiento.

El equipo demostró un enfriamiento de 6 vatios por metro cuadrado. Teóricamente, este efecto podría producir un enfriamiento equivalente a 1.000 vatios por metro cuadrado, o alrededor del poder de la luz solar sobre la superficie de la Tierra.




Esto podría llegar a ser importante para los futuros teléfonos inteligentes, y otras computadoras. Con más potencia de cálculo en dispositivos cada vez más pequeños, la eliminación del calor del microprocesador está comenzando a limitar la cantidad de energía que se puede comprimir en un espacio determinado.

Con las mejoras en la eficiencia y las velocidades de enfriamiento de este nuevo abordaje, el equipo prevé este fenómeno como una forma de quitar rápidamente el calor de los microprocesadores en los dispositivos. Incluso podría hacer frente a los maltratos sufridos por los teléfonos inteligentes, ya que los espaciadores a nanoescala podrían proporcionar el espacio entre el microprocesador y el LED.

La investigación se publicó en la revista Nature el 14 de febrero de 2019, titulada “Enfriamiento fotónico de campo cercano mediante el control del potencial químico de los fotones” (“Near-field photonic cooling through control of the chemical potential of photons.”).

Esta investigación fue apoyada por el Departamento de Energía y la Oficina de Investigación del Ejército. Los dispositivos se fabricaron en la Instalación de Nanofabricación Lurie de la UM. Meyhofer también es profesor de ingeniería biomédica. Reddy también es profesor de ciencia de materiales e ingeniería.

Fuente de la historia:

Materiales proporcionados por la Universidad de Michigan.

Referencia de la publicación:

Linxiao Zhu, Anthony Fiorino, Dakotah Thompson, Rohith Mittapally, Edgar Meyhofer y Pramod Reddy. Near-field photonic cooling through control of the chemical potential of photons. Nature, 2019 DOI: 10.1038/s41586-019-0918-8

Universidad de Michigan. ScienceDaily, febrero de 2019. www.sciencedaily.com/releases/2019/02/190213132326.htm.