Archivo de la categoría: Componentes

Logran que los robots rastreen objetos en movimiento con una precisión sin precedentes

El sistema usa etiquetas RFID para ubicarse en los objetivos. Podría beneficiar la fabricación robótica, drones colaborativos y otras aplicaciones.

Un nuevo sistema desarrollado en MIT utiliza etiquetas RFID para ayudar a los robots a localizar objetos en movimiento con una velocidad y precisión sin precedentes. El sistema podría permitir una mayor colaboración y precisión de los robots que trabajan en el empaquetado y el ensamblaje, y de enjambres de drones que realizan misiones de búsqueda y rescate.

En un documento que se presentará la próxima semana en el Simposio de USENIX sobre Diseño e Implementación de Sistemas en Red, los investigadores muestran que los robots que usan el sistema pueden ubicar objetos etiquetados en un promedio de 7,5 milisegundos, y con un error de menos de un centímetro.

En el sistema, llamado TurboTrack, se puede aplicar una etiqueta RFID (identificación por radiofrecuencia) a cualquier objeto. Un lector envía una señal inalámbrica que se refleja en la etiqueta RFID y otros objetos cercanos, y rebota en el lector. Un algoritmo revisa todas las señales reflejadas para encontrar la respuesta de la etiqueta RFID. Luego, los cálculos finales aprovechan el movimiento de la etiqueta RFID, algo que generalmente disminuye la precisión, para mejorar la precisión de la localización.

Los investigadores dicen que el sistema podría reemplazar la visión por computadora para algunas tareas robóticas. Al igual que con su contraparte humana, la visión de la computadora está limitada por lo que puede ver, y puede dejar de notar objetos en entornos desordenados. Las señales de radiofrecuencia no tienen estas restricciones: pueden identificar los objetivos sin visualización, dentro del desorden y a través de las paredes.

Para validar el sistema, los investigadores adjuntaron una etiqueta RFID a una tapa y otra a una botella. Un brazo robótico localizó la tapa y la colocó sobre la botella, sostenida por otro brazo robótico. En otra demostración, los investigadores rastrearon nanodrones equipados con RFID durante el acoplamiento, las maniobras y el vuelo. En ambas tareas, el sistema era tan preciso y rápido como los sistemas tradicionales de visión artificial, mientras trabajaban en escenarios donde falla la visión artificial, informan los investigadores.

“Si se usa señales de RF para tareas que normalmente se realizan con visión por computadora, no solo se habilita a los robots para que hagan cosas humanas, sino que también se puede hacer que hagan cosas sobrehumanas”, dice Fadel Adib, profesor asistente e investigador principal en el MIT Media Lab, y director fundador del Grupo de Investigación Signal Kinetics. «Y puede hacerlo de manera escalable, porque estas etiquetas RFID solo cuestan 3 centavos [de dólar] cada una».

En la fabricación, el sistema podría permitir que los brazos robóticos sean más precisos y versátiles en, digamos, recoger, ensamblar y empaquetar elementos a lo largo de una línea de ensamblaje. Otra aplicación prometedora es el uso de «nanodrones» de mano para misiones de búsqueda y rescate. Los nanodrones actualmente utilizan la visión por computadora y métodos para unir las imágenes capturadas con fines de localización. Estos drones a menudo se confunden en áreas caóticas, se pierden entre sí detrás de las paredes y no se pueden identificar de manera única. Todo esto limita su capacidad de, digamos, extenderse sobre un área y colaborar para buscar a una persona desaparecida. Usando el sistema de los investigadores, los nanodrones en enjambres podrían ubicarse mejor entre sí, para un mayor control y colaboración.

«Se puede permitir que un enjambre de nanodrones se forme de ciertas maneras, vuele en ambientes abarrotados, e incluso en entornos ocultos a la vista, con gran precisión», dice el primer autor Zhihong Luo, un estudiante graduado del Grupo de Investigación Signal Kinetics.

Los otros coautores del Media Lab en la publicación son el estudiante Qiping Zhang, el posdoctorado Yunfei Ma y el asistente de investigación Manish Singh.

Súper resolución

El grupo de Adib ha estado trabajando durante años en el uso de señales de radio para fines de seguimiento e identificación, como la detección de contaminación en los alimentos embotellados, la comunicación con los dispositivos internos del cuerpo, y la gestión de inventarios de almacenamientos.

Sistemas similares han intentado utilizar etiquetas RFID para tareas de localización. Pero estos vienen con compensaciones de precisión o velocidad. Para ser precisos, les puede llevar varios segundos encontrar un objeto en movimiento. Para aumentar la velocidad, pierden precisión.

El desafío fue lograr velocidad y precisión simultáneamente. Para hacerlo, los investigadores se inspiraron en una técnica de imagen llamada «imagen de súper resolución». Estos sistemas unen imágenes desde múltiples ángulos para lograr una imagen de resolución más fina.

«La idea era aplicar estos sistemas de súper resolución a las señales de radio», dice Adib. «A medida que algo se mueve, obtienes más perspectivas para rastrearlo, de modo que se puede explotar el movimiento para obtener precisión».

El sistema combina un lector RFID estándar con un componente «auxiliar» que se utiliza para localizar las señales de radiofrecuencia. El ayudante dispara una señal de banda ancha que comprende múltiples frecuencias, basándose en un esquema de modulación utilizado en la comunicación inalámbrica, llamado Multiplexación por división de frecuencias ortogonales.

El sistema captura todas las señales que rebotan contra objetos en el entorno, incluida la etiqueta RFID. Una de esas señales lleva una señal que es específica de una determinada etiqueta RFID, porque las señales RFID reflejan y absorben una señal entrante en un determinado patrón, correspondiente a bits 0 y 1, que el sistema puede reconocer.




Debido a que estas señales viajan a la velocidad de la luz, el sistema puede calcular un «tiempo de vuelo» (Time of Fly), que mide la distancia al calcular el tiempo que tarda una señal en viajar entre un transmisor y un receptor, para medir la ubicación de la etiqueta, así como los otros objetos en el entorno. Pero esto proporciona solo una figura de localización de estadio de béisbol, no una precisión menor a un centímetro.

Aprovechando el movimiento

Para ampliar la ubicación de la etiqueta, los investigadores desarrollaron lo que denominan un algoritmo de «súper resolución de espacio-tiempo».

El algoritmo combina las estimaciones de ubicación para todas las señales de rebote, incluida la señal RFID, que ha determinado usando el tiempo de vuelo. Usando algunos cálculos de probabilidad, reduce ese grupo a unas pocas ubicaciones potenciales para la etiqueta RFID.

A medida que la etiqueta se mueve, su ángulo de señal se altera ligeramente, un cambio que también corresponde a una determinada ubicación. El algoritmo puede usar ese cambio de ángulo para rastrear la distancia de la etiqueta a medida que se mueve. Al comparar constantemente el cambio de la medición de distancia con todas las demás mediciones de distancia de otras señales, puede encontrar la etiqueta en un espacio tridimensional. Todo esto sucede en una fracción de segundo.

«La gran idea es que, al combinar estas mediciones en el tiempo y en el espacio, se obtiene una mejor reconstrucción de la posición de la etiqueta», dice Adib.

«El trabajo informa sobre la precisión en el orden del sub-centímetro, que es muy impresionante para RFID», dice Lili Qiu, profesor de ciencias de la computación en la Universidad de Texas en Austin, cuya investigación se centra en las redes inalámbricas y las comunicaciones. «El documento propone una idea interesante que le permite a un «ayudante» transmitir una señal de banda ancha compatible con el protocolo RFID para lograr una alta precisión de seguimiento [y] desarrolla un […] marco para la localización de RF que fusiona las mediciones en el tiempo y en múltiples antenas. El sistema tiene potencial para admitir aplicaciones que son objetivo [de los investigadores], como ensamblaje robótico y nanodrones. … Sería muy interesante ver los resultados de las pruebas de campo en el futuro».

El trabajo fue patrocinado, en parte, por la Fundación Nacional de Ciencia.



LEDs conectados al revés podrían enfriar las computadoras del futuro

En un hallazgo que va en contra de un supuesto común en física, los investigadores de la Universidad de Michigan conectaron un diodo emisor de luz (LED) con sus electrodos invertidos para enfriar otro dispositivo a solo nanómetros de distancia.

El equipo de la UM modificó un fotodiodo infrarrojo del tamaño de un grano de arroz, que se muestra en esta imagen de microscopio electrónico. Alisaron su superficie para que pudieran colocarla cerca de un calorímetro hecho a medida, solo 55 nanómetros (0,000055 milímetros) entre ellos. Las mediciones del calorímetro mostraron que el fotodiodo, cuando se conecta con los electrodos invertidos, se comportaba como si estuviera a una temperatura más baja y enfriaba el calorímetro

El enfoque podría llevar a una nueva tecnología de refrigeración de estado sólido para microprocesadores futuros, que tendrá tantos transistores empaquetados en un espacio pequeño que los métodos actuales no pueden eliminar el calor lo suficientemente rápido.

«Hemos demostrado un segundo método para usar los fotones para enfriar los dispositivos», dijo Pramod Reddy, quien dirigió el trabajo junto con Edgar Meyhofer, ambos profesores de ingeniería mecánica.

El primero, conocido en el campo como el enfriamiento por láser, se basa en el trabajo fundacional de Arthur Ashkin, quien compartió el Premio Nobel de Física en 2018.

Los investigadores aprovecharon el potencial químico de la radiación térmica, un concepto que se usa más comúnmente para explicar, por ejemplo, cómo funciona una batería.

«Incluso hoy, muchos asumen que el potencial químico de la radiación es cero», dijo Meyhofer. «Pero el trabajo teórico que se remonta a la década de 1980 sugiere que bajo ciertas condiciones, este no es el caso».

El potencial químico en una batería, por ejemplo, impulsa una corriente eléctrica cuando se coloca en un dispositivo. Dentro de la batería, los iones metálicos quieren fluir al otro lado porque pueden deshacerse de parte de la energía (energía potencial química) y nosotros utilizamos esa energía como electricidad. La radiación electromagnética, incluida la luz visible y la radiación térmica infrarroja, por lo general no tiene este tipo de potencial.

«Por lo general, para la radiación térmica, la intensidad solo depende de la temperatura, pero en realidad tenemos un interruptor adicional para controlar esta radiación, lo que hace posible el enfriamiento que investigamos», dijo Linxiao Zhu, investigadora en ingeniería mecánica y autora principal del trabajo de investigación.

Ese interruptor es eléctrico. En teoría, revertir las conexiones eléctricas positivas y negativas en un LED infrarrojo no solo evitará que emita luz, sino que suprimirá la radiación térmica que debería estar produciendo, solo porque está a temperatura ambiente.

«El LED, con este truco de polarización inversa, se comporta como si estuviera a una temperatura más baja», dijo Reddy.

Sin embargo, medir este enfriamiento, y probar que algo interesante sucedió, es terriblemente complicado.

Para obtener suficiente luz infrarroja para que fluya desde un objeto al LED, los dos tendrían que estar muy juntos, menos que una sola longitud de onda de luz infrarroja. Esto es necesario para aprovechar los efectos de «campo cercano» o «acoplamiento evanescente», que permiten que más fotones infrarrojos, o partículas de luz, crucen desde el objeto para dentro del LED.

Reddy y el equipo de Meyhofer tenían una ventaja, porque ya habían estado calentando y enfriando dispositivos a nanoescala, organizándolos de modo que estuvieran separados solo por unas pocas decenas de nanómetros, o menos de una milésima del grosor de un cabello. En esta proximidad, un fotón que no habría escapado del objeto a enfriar puede pasar al LED, casi como si no existiera la brecha entre ellos. Y el equipo tuvo acceso a un laboratorio de vibraciones ultra bajas donde las mediciones de objetos separados por nanómetros se vuelven factibles porque las vibraciones, como las de alguien caminando en el edificio, se reducen drásticamente.

El grupo probó el principio construyendo un calorímetro minúsculo, que es un dispositivo que mide los cambios en la energía, y colocándolo junto a un pequeño LED del tamaño de un grano de arroz. Estos dos emitían y recibían fotones térmicos entre sí y de otras partes de sus entornos.

«Cualquier objeto que se encuentre a temperatura ambiente está emitiendo luz. Una cámara de visión nocturna, básicamente, está capturando la luz infrarroja que proviene de un cuerpo cálido», dijo Meyhofer.

Pero una vez que el LED fue polarizado en inversa, comenzó a actuar como un objeto de muy baja temperatura, absorbiendo fotones del calorímetro. Al mismo tiempo, la brecha evita que el calor vuelva al calorímetro por medio de conducción, lo que produce un efecto de enfriamiento.

El equipo demostró un enfriamiento de 6 vatios por metro cuadrado. Teóricamente, este efecto podría producir un enfriamiento equivalente a 1.000 vatios por metro cuadrado, o alrededor del poder de la luz solar sobre la superficie de la Tierra.




Esto podría llegar a ser importante para los futuros teléfonos inteligentes, y otras computadoras. Con más potencia de cálculo en dispositivos cada vez más pequeños, la eliminación del calor del microprocesador está comenzando a limitar la cantidad de energía que se puede comprimir en un espacio determinado.

Con las mejoras en la eficiencia y las velocidades de enfriamiento de este nuevo abordaje, el equipo prevé este fenómeno como una forma de quitar rápidamente el calor de los microprocesadores en los dispositivos. Incluso podría hacer frente a los maltratos sufridos por los teléfonos inteligentes, ya que los espaciadores a nanoescala podrían proporcionar el espacio entre el microprocesador y el LED.

La investigación se publicó en la revista Nature el 14 de febrero de 2019, titulada «Enfriamiento fotónico de campo cercano mediante el control del potencial químico de los fotones» («Near-field photonic cooling through control of the chemical potential of photons.»).

Esta investigación fue apoyada por el Departamento de Energía y la Oficina de Investigación del Ejército. Los dispositivos se fabricaron en la Instalación de Nanofabricación Lurie de la UM. Meyhofer también es profesor de ingeniería biomédica. Reddy también es profesor de ciencia de materiales e ingeniería.

Fuente de la historia:

Materiales proporcionados por la Universidad de Michigan.

Referencia de la publicación:

Linxiao Zhu, Anthony Fiorino, Dakotah Thompson, Rohith Mittapally, Edgar Meyhofer y Pramod Reddy. Near-field photonic cooling through control of the chemical potential of photons. Nature, 2019 DOI: 10.1038/s41586-019-0918-8

Universidad de Michigan. ScienceDaily, febrero de 2019. www.sciencedaily.com/releases/2019/02/190213132326.htm.


Dando sentido del tacto a los robots

La tecnología GelSight permite a los robots medir la dureza de los objetos y manipular herramientas pequeñas

Hace ocho años, el grupo de investigación de Ted Adelson en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) de MIT reveló una nueva tecnología de sensores, llamada GelSight, que utiliza el contacto físico con un objeto para proporcionar un mapa tridimensional notablemente detallado de su superficie.

Ahora, al montar sensores GelSight en las pinzas de los brazos robóticos, dos equipos del MIT le han dado a los robots una mayor sensibilidad y destreza. Los investigadores presentaron su trabajo en dos artículos en la Conferencia Internacional sobre Robótica y Automatización.

En un artículo, el grupo de Adelson usa los datos del sensor GelSight para permitir que un robot juzgue la dureza de las superficies que toca, una habilidad crucial si los robots domésticos deben manejar objetos cotidianos.

En el otro, Robot Locomotion Group de Russ Tedrake en CSAIL utiliza sensores GelSight para permitir que un robot manipule objetos más pequeños de lo que era posible antes.

El sensor GelSight es, de alguna manera, una solución de baja tecnología para un problema difícil. Consiste en un bloque de elastómero transparente, el «gel» en el nombre de sensor, una cara del cual está recubierta con pintura metálica. Cuando la cara cubierta de pintura se presiona contra un objeto, se ajusta a la forma del objeto.

La pintura metálica hace que la superficie del objeto sea reflectiva, por lo que su geometría se vuelve mucho más fácil de inferir para los algoritmos de visión de computadora. Montados en el sensor opuesto a la cara recubierta de pintura del bloque elástico, hay tres luces de colores y una sola cámara.

«[El sistema] tiene luces de colores en diferentes ángulos, y luego tiene este material reflectivo, y al mirar los colores, la computadora … puede descubrir la forma 3D y qué es esa cosa», explica Adelson, profesora de Ciencias de la Visión en el Departamento de Cerebro y Ciencias Cognitivas.

En ambos conjuntos de experimentos, se montó un sensor GelSight en un lado de una pinza robótica, un dispositivo parecido a la cabeza de una pinza pero con superficies de agarre planas en lugar de puntas puntiagudas.

Puntos de contacto

Para un robot autónomo, medir la suavidad o dureza de los objetos es esencial para decidir no solo dónde y qué tan difícil es agarrarlos, sino también cómo se comportarán cuando los mueva, apile o coloque en diferentes superficies. La detección táctil también podría ayudar a los robots a distinguir objetos que se ven parecidos.

En trabajos anteriores, los robots han intentado evaluar la dureza de los objetos colocándolos sobre una superficie plana y empujándolos suavemente para ver cuánto dan. Pero esta no es la principal forma en que los humanos miden la dureza. Más bien, nuestros juicios parecen basarse en el grado en que el área de contacto entre el objeto y nuestros dedos cambia a medida que lo presionamos. Los objetos más blandos tienden a aplanarse más, aumentando el área de contacto.

Los investigadores del MIT adoptaron el mismo criterio. Wenzhen Yuan, una estudiante graduada en ingeniería mecánica y primera autora del artículo del grupo de Adelson, usó moldes de confitería para crear 400 grupos de objetos de silicona, con 16 objetos por grupo. En cada grupo, los objetos tenían las mismas formas pero diferentes grados de dureza, que Yuan medía usando un instrumento industrial estándar.

Ella luego presionó un sensor GelSight contra cada objeto manualmente, y registró cómo iba cambiando el patrón de contacto, en esencia produciendo una corta película para cada objeto. Para estandarizar el formato de los datos y mantener el tamaño de los datos manejable, extrajo cinco cuadros de cada película, espaciados uniformemente en el tiempo, lo que describe la deformación del objeto que se presionó.

Finalmente, alimentó los datos a una red neuronal, que buscaba automáticamente las correlaciones entre los cambios en los patrones de contacto y las mediciones de dureza. El sistema resultante toma cuadros de video como entradas y produce un puntaje de dureza con una precisión muy alta. Yuan también realizó una serie de experimentos informales en los que sujetos humanos palparon frutas y verduras y los clasificaron según su dureza. En todos los casos, el robot equipado con GelSight llegó a las mismas conclusiones.

A Yuan se le unieron en el documento sus dos asesores de tesis, Adelson y Mandayam Srinivasan, investigador científico senior en el Departamento de Ingeniería Mecánica; Chenzhuo Zhu, estudiante de la Universidad de Tsinghua que visitó el grupo de Adelson el verano pasado; y Andrew Owens, quien realizó su doctorado en ingeniería eléctrica y ciencias de la computación en el MIT y ahora es postdoctorado en la Universidad de California en Berkeley.

Visión obstruida

El documento de Robot Locomotion Group nació de la experiencia del grupo con el Desafío de Robótica (DRC) de la Agencia de Proyectos de Investigación Avanzada de la Defensa, en el que equipos académicos y de la industria compitieron para desarrollar sistemas de control que guiarían a un robot humanoide a través de una serie de tareas relacionadas con una emergencia hipotética.

Normalmente, un robot autónomo utiliza algún tipo de sistema de visión por computadora para guiar su manipulación de objetos en su entorno. Dichos sistemas pueden proporcionar información muy confiable sobre la ubicación de un objeto, hasta que el robot recoge el objeto. Especialmente si el objeto es pequeño, gran parte de él será ocluido por la pinza del robot, lo que hace que la estimación de la ubicación sea mucho más difícil. Por lo tanto, exactamente en el punto en el que el robot necesita conocer la ubicación del objeto con precisión, su estimación se vuelve poco confiable. Este fue el problema al que se enfrentó el equipo de MIT durante el DRC, cuando su robot tuvo que levantar y encender un taladro eléctrico.




«Puedes ver en nuestro video para el DRC que pasamos dos o tres minutos encendiendo el taladro», dice Greg Izatt, un estudiante graduado en ingeniería eléctrica y ciencias de la computación y primer autor del nuevo artículo. «Sería mucho mejor si tuviéramos una estimación precisa y actualizada de dónde se realizó ese ejercicio y dónde estaban nuestras manos en relación con él».

Es por eso que Robot Locomotion Group se dirigió a GelSight. Izatt y sus coautores: Tedrake, el profesor de ingeniería eléctrica y ciencias de la computación de Toyota, aeronáutica y astronáutica, e ingeniería mecánica; Adelson; y Geronimo Mirano, otro estudiante graduado en el grupo de Tedrake, que diseñaron algoritmos de control que utilizan un sistema de visión computarizada para guiar la pinza del robot hacia una herramienta y luego pasar la estimación de la ubicación a un sensor GelSight una vez que el robot tiene la herramienta en mano.

En general, el desafío con este enfoque es reconciliar los datos producidos por un sistema de visión con los datos producidos por un sensor táctil. Pero GelSight se basa en una cámara, por lo que su salida de datos es mucho más fácil de integrar con datos visuales que los datos de otros sensores táctiles.

En los experimentos de Izatt, un robot con una pinza equipada con GelSight tuvo que agarrar un destornillador pequeño, sacarlo de una funda y volverlo a su lugar. Por supuesto, los datos del sensor GelSight no describen el destornillador completo, solo una pequeña parte de él. Pero Izatt descubrió que, mientras la estimación del sistema de visión de la posición inicial del destornillador era precisa en unos pocos centímetros, sus algoritmos podrían deducir qué parte del destornillador estaba tocando el sensor GelSight y así determinar la posición del destornillador en la mano del robot.

«Creo que la tecnología GelSight, así como otros sensores táctiles de gran ancho de banda, tendrán un gran impacto en la robótica», dice Sergey Levine, profesor asistente de ingeniería eléctrica y ciencias de la computación en la Universidad de California en Berkeley. “Para los seres humanos, nuestro sentido del tacto es uno de los factores clave en nuestra sorprendente destreza manual. Los robots actuales carecen de este tipo de destreza y tienen una capacidad limitada para reaccionar a las características de la superficie cuando manipulan objetos. Si se imagina buscar un interruptor de luz en la oscuridad, extraer un objeto de su bolsillo o cualquiera de las otras muchas cosas que puede hacer sin siquiera pensar, todo se basa en la detección táctil.»

«El software finalmente está alcanzando las capacidades de nuestros sensores», agrega Levine. “Los algoritmos de aprendizaje automático inspirados por las innovaciones en el aprendizaje profundo, y la visión por computadora puede procesar los ricos datos sensoriales de sensores como GelSight para deducir las propiedades de los objetos. En el futuro, veremos este tipo de métodos de aprendizaje incorporados en el entrenamiento de las habilidades de manipulación de inicio a final, que hará que nuestros robots sean más diestros y capaces, y tal vez nos ayuden a comprender algo sobre nuestro propio sentido del tacto y control motor».

Artículos relacionados:

FlexShapeGripper: el agarre de la lengua de un camaleón


Imprimen en 3D partes mecánicas útiles con polvo similar al de la Luna

Un futuro en la luna

Para respaldar una base lunar futura y potencial, los investigadores de la Agencia Espacial Europea (ESA) imprimen en 3D y hornean polvo similar al de la Luna para formar tornillos, engranajes e incluso una moneda.

Tanto las agencias espaciales privadas como las gubernamentales han expresado serias intenciones y comenzaron a desarrollar planes para construir una base habitada por humanos en la Luna. Pero se necesita mucho combustible, capacidad de carga y dinero para lanzar cosas al espacio y bajarlas en la luna. Y construir una base lunar desde cero requerirá una gran cantidad de materiales. Por lo tanto, sería extremadamente caro llevar todas estas partes de la Tierra a la Luna, especialmente porque el mantenimiento requerirá piezas de respaldo para las reparaciones.

Es por esto que los investigadores están investigando una opción más sostenible. En lugar de llevar cosas, podríamos hacerlas usando polvo de Luna o regolito, como alimentación para una impresora 3D. De esta manera podrían crear materiales de construcción de forma económica y sencilla en la propia Luna.

Para practicar, el equipo de la ESA imprimió en 3D artículos como tornillos y engranajes con polvo lunar falso. Aunque sus propiedades difieren de las del suelo terrestre, el regolito lunar no es demasiado difícil de simular, y se le puede dar forma de objetos utilizables a los óxidos de silicio, aluminio, calcio y hierro presentes.

Cómo imprimir en 3D con polvo lunar

Para imprimir en 3D con polvo de luna falso, el equipo comenzó con un regolito hecho por el hombre. El polvo se trituró hasta el tamaño de partícula y los granos resultantes se mezclaron con un agente aglutinante que reacciona a la luz. Luego, una impresora 3D colocó la mezcla en capas hasta que tomó forma el objeto deseado. Luego se expuso el artículo a la luz para que se endureciera, y se coció en un horno para solidificarlo por completo.

El producto terminado es como una pieza de cerámica de polvo de Luna, dice la ESA en un comunicado. Estas piezas iniciales han demostrado que es probable que se impriman con el regolito real de la Luna en una base lunar, y son parte del proyecto URBAN, más grande, que examina cómo la impresión 3D podría ayudar a la colonización lunar.

VER VIDEO

«Si uno necesita imprimir herramientas o piezas de maquinaria para reemplazar las piezas rotas en una base lunar, la precisión en las dimensiones y la forma de los elementos impresos será vital», dijo el ingeniero de materiales de la ESA Advenit Makaya en el comunicado.

Esta será una ventaja crítica para futuras misiones con destino a la Luna. Especialmente, para estadías prolongadas proyectadas en el satélite terrestre, aquellas cosas están destinadas a romperse o fallar. Si un solo tornillo se pierde o se rompe, es posible que la cuadrilla no tenga tornillos adicionales con la forma y el tamaño exactos necesarios. Al crear la pieza exacta requerida usando el regolito que los rodea, la tripulación podría mantener de manera sostenible las reparaciones en una base lunar.


FlexShapeGripper: el agarre de la lengua de un camaleón

Un tema importante en automación es recoger, sostener y colocar en su lugar objetos. Los sistemas de agarre siempre han jugado un papel clave en la producción. La empresa Festo, así como otras en este mercado, están todo el tiempo a la búsqueda de nuevos métodos de agarre y soluciones innovadoras que aporten soluciones a los sistemas de producción en las fábricas futuras

Cada vez más la naturaleza es fuente de inspiración de nuevos conocimientos y tecnologías del futuro. Es por eso que Festo creó Bionic Learning Network, una alianza con universidades, institutos y empresas de desarrollo para estudiar un rango de diferentes mecanismos de agarre, en muchas ocasiones utilizando como modelo la biología.

Recoger y ubicar en su lugar todo tipo de formas

En colaboración con los Colegios de Ciencias Aplicadas de la Universidad de Oslo y de Akershus, Festo presenta ahora una pinza cuyo principio de funcionamiento deriva de la lengua de un camaleón. La FlexShapeGripper puede recoger, reunir y colocar en su lugar varios objetos de la más amplia variedad de formas en un único procedimiento, sin necesidad de una conversión manual. Esto es posible por extremo de silicona lleno de agua, que se envuelve alrededor de los artículos y los agarra de un modo flexible y ajustado.

La naturaleza como modelo

La capacidad inherente de adaptarse a diferentes formas le aporta su nombre a este sistema: FlexShapeGripper, o Pinza de Forma Flexible. En la naturaleza, la combinación única de fuerza y ajuste a la forma que posee la lengua del camaleón se pueden observar cuando éste caza insectos.

Una vez que el camaleón tiene a su presa en la mira, dispara su lengua disparar como una banda elástica. Justo antes de que la punta de la lengua alcance el insecto, se retrae en el medio, mientras que los bordes continuarán moviéndose hacia delante. Esto hace que la lengua se adapte a la forma y el tamaño de las respectivas presas, y que las atrape firmemente. La presa se adhiere a la lengua y el camaleón tira de ella como si se tratase de un hilo de pescar.

Nuevo impulso gracias a la innovación abierta

Entre los objetivos de la Bionic Learning Network (Red de Aprendizaje Biónico) no sólo está aprender de la naturaleza, sin embargo, sino también identificar buenas ideas en sus primeras etapas, y fomentarlas y al mismo tiempo aplicarlas más allá de las fronteras de la empresa. La pinza es un sobresaliente ejemplo de la estrecha colaboración de Festo con universidades internacionales que forman parte de la red.

El estímulo para este proyecto fue un taller sobre el tema de biónica en el Colegio de Ciencias Aplicadas de la universidad de Oslo y Akershus, donde Festo presentó sus actuales líneas de investigación en el Bionic Learning Network. Dos de los estudiantes se inspiraron, en primer lugar por la presentación, y luego por la propia naturaleza: como parte de su tesis de maestría, presentaron el principio de agarre biónico modelado en base a la lengua de un camaleón. Junto con los ingenieros de Festo, los materiales, diseño y componentes neumáticos de la pinza fueron optimizados y el diseño para la FlexShapeGripper se desarrolló aún más.

 

Configuración técnica de la pinza

La pinza consiste en un cilindro de doble acción, una cámara se llena con aire comprimido mientras que la segundo está permanentemente llena con agua. Esta segunda cámara está equipada con una pieza moldeada de de silicona elástica equivalente a la lengua de camaleón. El volumen de las dos cámaras está diseñado de manera que se compense la deformación de la parte de silicona. El pistón, que separa en forma estanca las dos cámaras una de otra, está fijado a una delgada varilla en el interior del extremo de silicona.

Un agarre ceñido gracias a la recarga

Durante el procedimiento de sujeción, un sistema de manipulación guía la pinza hacia el objeto de modo que toque el artículo con su extremo de silicona. A continuación, se retira el aire de la cámara de presión superior. El pistón se mueve hacia arriba a causa de un soporte de resorte y tira hacia adentro de la pieza de silicona llena de agua. Al mismo tiempo, el sistema de manipuleo lleva la pinza aún más hacia el objeto. Al hacerlo, la cobertura de silicona se envuelve alrededor del objeto a ser agarrado, que puede ser de cualquier forma, resultando en una manera apretada de soporte. La elasticidad de la silicona permite una precisa adaptación a una amplia gama de geometrías. La elevada fricción estática del material genera una buena fuerza de retención.

Ambos mecanismos de agarre y de liberación se activan neumáticamente. No se necesita energía adicional en el proceso de sostener la pieza. La calidad flexible de la compresión con el aire comprimido simplifica la coordinación entre el sistema de sostén y la pinza de manipulación durante la etapa de agarre. La fuerza y la deformación de la parte de silicona se puede ajustar de forma muy precisa con la ayuda de una válvula proporcional. Esto permite que se puedan agarrar varias piezas a la vez en un procedimiento único.

Las características especiales del camaleón

Los camaleones son criaturas fascinantes. Pueden mover sus ojos de forma independiente uno del otro y cambiar su color en función de su estado de ánimo, la temperatura y el ambiente que los rodea. Otra característica especial es su estrategia de caza. Con la única manera en que disparan su lengua, pueden atacar tan rápido como un rayo y traer de vuelta a su presa con toda seguridad.

Un camaleón puede coger todo tipo de insectos, poniendo su lengua sobre la presa, y asegurarla encerrándola. El uso de este principio en la FlexShapeGripper perimite agarrar todo tipo de objetos de forma precisa. Con su extremo de silicona elástica, incluso puede recoger varios objetos en una sola acción de agarre y ubicarlos en un nuevo lugar juntos.

Pinzas en la automatización de hoy

Ya hay una cantidad de pinzas diferentes en las áreas automatizadas de la industria de hoy, y cada una de ellas ha sido desarrollada para una tarea especial. Si cambia la forma de una pieza con la que se trabaja, la correspondiente pinza debe ser reemplazada en la máquina, o debe ser adaptada, lo que requiere un gran esfuerzo. En instalaciones que producen diversos productos, se utilizan con frecuencia sistemas de cambio, equipados con diferentes pinzas.

Requisitos de fábrica del mañana

En la producción del futuro, sin embargo, habrá una necesidad de instalaciones y componentes más flexibles, que deben ajustarse de manera independiente para el producto correspondiente en una línea de producción con el método de «enchufar y producir». Las pinzas adaptables como la FlexShapeGripper pueden asumir un papel importante en este sentido.

Usos futuros potenciales

En el futuro, la FlexShapeGripper podría ser utilizada en cualquier instalación donde se manejan al mismo tiempo varios objetos con un rango de formas diferentes; por ejemplo en el sector de la robótica de servicios, para tareas de montaje o para manipular piezas pequeñas.

En las plantas flexibles de producción, sería posible manejar todos los tipos de productos en un solo procedimiento, sin tener que cambiar la pinza. El trabajo de selección de frutas y verduras u otros objetos con formas irregulares también es una tarea posible para un pinza universal como la FlexShapeGripper.






Una vez que puesta en funcionamiento, la pinza es capaz de hacer varias tareas. Esta integración funcional es un buen ejemplo de cómo los sistemas y los componentes en sí se pueden adaptar en el futuro a una variedad de escenarios de producción.

El proyecto también muestra cómo Festo aprovecha nuevos hallazgos en la naturaleza para su negocio principal, el de la automatización, y la importancia del intercambio de información interdisciplinario más allá de las fronteras de la empresa.

Fuente: Festo. Aportado por Eduardo J. Carletti

Más información: