Archivo de la etiqueta: Diseño: Robots

Un sistema llamado ‘Neural Lander’ usa IA para aterrizar drones sin problemas

El nuevo sistema emplea una red neuronal profunda para superar el desafío de la turbulencia de efecto suelo

Aterrizar los drones multi-rotor sin problemas es difícil. Una compleja turbulencia es creada por el flujo de aire de cada rotor que rebota del suelo a medida que el suelo crece cada vez más cerca durante un descenso. Esta turbulencia no se comprende bien, ni es fácil de compensar, especialmente en los drones autónomos. Es por eso que a menudo el despegue y el aterrizaje son las dos partes más difíciles del vuelo de un avión no tripulado. Los drones normalmente se tambalean y avanzan con lentitud hasta el aterrizaje, cuando finalmente se corta la energía y se dejan caer la distancia restante al suelo.

En el Centro de Tecnologías y Sistemas Autónomos (CAST – Center for Autonomous Systems and Technologies) de Caltech, los expertos en inteligencia artificial se han unido a expertos en control para desarrollar un sistema que utiliza una red neuronal profunda para ayudar a los drones autónomos a «aprender» cómo aterrizar de forma más segura y rápida, mientras se consume menos energía. El sistema que han creado, denominado «Neural Lander», es un controlador basado en aprendizaje que rastrea la posición y la velocidad del avión no tripulado, y modifica su trayectoria de aterrizaje y la velocidad del rotor para lograr el aterrizaje más suave posible.

«Este proyecto tiene el potencial de ayudar a los drones a volar de manera más suave y segura, especialmente en presencia de ráfagas de viento impredecibles, y consumir menos energía de la batería, ya que los drones pueden aterrizar más rápidamente», dice Soon-Jo Chung, profesor de Aeronáutica de Bren, División de Ingeniería y Ciencias Aplicadas (EAS) e investigador científico en JPL, que Caltech administra para la NASA. El proyecto es una colaboración entre los expertos en inteligencia artificial (AI) de Chung y Caltech, Anima Anandkumar, profesora de informática y ciencias matemáticas, y Yisong Yue, profesora asistente de informática y ciencias matemáticas.

Un documento que describe el Neural Lander se presentó en la Conferencia Internacional sobre Robótica y Automatización del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE). Los coautores principales del artículo son los estudiantes graduados de Caltech Guanya Shi, cuya investigación de doctorado es supervisada conjuntamente por Chung y Yue, así como Xichen Shi y Michael O’Connell, que son estudiantes de doctorado en el Grupo de Control y Robótica Aeroespacial de Chung.

Las redes neuronales profundas (DNN) son sistemas de IA que se inspiran en sistemas biológicos como el cerebro. La parte «profunda» del nombre se refiere al hecho de que las entradas de datos se mueven a través de múltiples capas, cada una de las cuales procesa la información entrante de una manera diferente para descubrir detalles cada vez más complejos. Los DNN son capaces de aprendizaje automático, lo que los hace ideales para tareas repetitivas.

 

Para asegurarse de que el drone vuele suavemente bajo la guía del DNN, el equipo empleó una técnica conocida como normalización espectral, que suaviza las salidas de la red neuronal para que no realice predicciones muy variadas a medida que cambian las entradas y condiciones. Las mejoras en el aterrizaje se midieron al examinar la desviación de una trayectoria idealizada en el espacio 3D. Se realizaron tres tipos de pruebas: un aterrizaje vertical recto; un arco descendente de aterrizaje; y el vuelo en el que el avión no tripulado roza una superficie que se corta, como en el borde de una mesa, donde el efecto de la turbulencia del suelo variaría considerablemente.

El nuevo sistema reduce el error vertical en un 100 por ciento, lo que permite aterrizajes controlados y reduce la deriva lateral en hasta un 90 por ciento. En sus experimentos, el nuevo sistema logra un aterrizaje real en lugar de quedarse atrapado a unos 10 a 15 centímetros por encima del suelo, como suelen hacer los controladores de vuelo convencionales no modificados. Además, durante la prueba el Neural Lander produjo una transición mucho más suave cuando el dron hizo la transición de deslizarse sobre la mesa para volar en el espacio libre más allá del borde.

«Con menos errores, el Neural Lander es capaz de un aterrizaje más rápido y suave, y de deslizarse suavemente sobre la superficie del suelo», dice Yue. El nuevo sistema se probó en el aeródromo de tres pisos de CAST, que puede simular una variedad casi ilimitada de condiciones de viento en el exterior. Inaugurado en 2018, CAST es una instalación de 10.000 pies cuadrados donde los investigadores de EAS, JPL y la División de Ciencias Geológicas y Planetarias de Caltech se unen para crear la próxima generación de sistemas autónomos, mientras avanzan los campos de investigación de drones, exploración autónoma, y sistemas bioinspirados.

«Este esfuerzo interdisciplinario trae expertos de los sistemas de aprendizaje automático y control. Apenas hemos comenzado a explorar las ricas conexiones entre las dos áreas», dice Anandkumar.

Además de sus obvias aplicaciones comerciales, Chung y sus colegas han presentado una patente sobre el nuevo sistema. Éste podría ser crucial para los proyectos que actualmente se están desarrollando en CAST, incluido un transporte médico autónomo que podría aterrizar en lugares de difícil acceso. (como un tráfico bloqueado). «La importancia de poder aterrizar de forma rápida y sin problemas cuando se transporta a una persona lesionada no se puede exagerar», dice Morteza Gharib, Profesor de Aeronáutica e Ingeniería Bioinspirada; director de CAST; y uno de los principales investigadores del proyecto de ambulancia aérea.



Chip de cómputo basado en luz funciona similar a las neuronas

¿Una tecnología que funciona como un cerebro? En estos tiempos de inteligencia artificial, esto ya no parece tan inverosímil; por ejemplo cuando un teléfono móvil puede reconocer caras o idiomas. Sin embargo, con aplicaciones más complejas, las computadoras aún se enfrentan rápidamente a sus propias limitaciones. Una de las razones de esto es que una computadora tradicionalmente tiene unidades separadas de memoria y procesador, cuya consecuencia es que todos los datos deben enviarse entre los dos. En este sentido, el cerebro humano está muy por delante incluso de las computadoras más modernas porque procesa y almacena información en el mismo lugar, en las sinapsis o conexiones entre neuronas, de las cuales hay trillones en el cerebro. Un equipo internacional de investigadores de las Universidades de Münster (Alemania), Oxford y Exeter (ambos del Reino Unido) han tenido éxito en el desarrollo de una pieza de hardware que podría abrir camino para crear computadoras que se parezcan al cerebro humano. Los científicos lograron producir un chip que contiene una red de neuronas artificiales que funciona con la luz y puede imitar el comportamiento de las neuronas y sus sinapsis.

Los investigadores pudieron demostrar que una red neurosináptica óptica es capaz de «aprender» la información y usarla como base para calcular y reconocer patrones, al igual que un cerebro. Como el sistema funciona solo con luz y no con electrones tradicionales, puede procesar datos muchas veces más rápido. «Este sistema fotónico integrado es un hito experimental», dice el profesor Wolfram Pernice de la Universidad de Münster y socio principal del estudio. «El abordaje podría usarse más adelante en muchos campos diferentes para evaluar patrones en grandes cantidades de datos, por ejemplo, en diagnósticos médicos». El estudio se publica en el último número de la revista «Nature».

La historia en detalle – financiación y método utilizado

La mayoría de los abordajes existentes relacionados con las llamadas redes neuromórficas se basan en la electrónica, mientras que los sistemas ópticos, en los que se utilizan fotones, es decir, partículas de luz, aún están en su infancia. El principio que los científicos alemanes y británicos han presentado ahora funciona de la siguiente manera: las guías de ondas ópticas que pueden transmitir luz y pueden fabricarse en microchips ópticos se han integrado con los llamados materiales de cambio de fase, que ya se encuentran en medios de almacenamiento como el DVD regrabable. Estos materiales de cambio de fase se caracterizan por el hecho de que cambian dramáticamente sus propiedades ópticas dependiendo de si son cristalinos, cuando sus átomos se organizan de manera regular, o amorfos, cuando sus átomos se organizan de manera irregular. Este cambio de fase puede ser activado por la luz si un láser calienta el material. «Debido a que el material reacciona con tanta fuerza y cambia sus propiedades dramáticamente, es muy adecuado para imitar las sinapsis y la transferencia de impulsos entre dos neuronas», dice el autor principal Johannes Feldmann, quien realizó muchos de los experimentos como parte de su tesis doctoral en la universidad de Munster.

En su estudio, los científicos lograron por primera vez fusionar muchos materiales de cambio de fase nanoestructurados en una red neurosináptica. Los investigadores desarrollaron un chip con cuatro neuronas artificiales y un total de 60 sinapsis. La estructura del chip, que consta de diferentes capas, se basó en la llamada tecnología multiplex de división de longitud de onda, que es un proceso en el que la luz se transmite a través de diferentes canales dentro del nanocircuito óptico.

Para probar en qué medida puede reconocer patrones el sistema, los investigadores lo «alimentaron» con información en forma de pulsos de luz, utilizando dos algoritmos diferentes de aprendizaje automático. En este proceso, un sistema artificial «aprende» de ejemplos y puede, en última instancia, generalizarlos. En el caso de los dos algoritmos utilizados, tanto en el llamado aprendizaje supervisado como en el no supervisado, la red artificial pudo, en última instancia, y sobre la base de determinados patrones de luz, reconocer un patrón que se estaba buscando, uno de los cuales era cuatro letras consecutivas.

«Nuestro sistema nos ha permitido dar un paso importante hacia la creación de hardware para computadoras que se comporta de manera similar a las neuronas y las sinapsis en el cerebro, y que también puede trabajar en tareas del mundo real», dice Wolfram Pernice. «Al trabajar con fotones en lugar de electrones, podemos aprovechar al máximo el potencial conocido de las tecnologías ópticas, no solo para transferir datos, como ha sido hasta ahora, sino también para procesar y almacenarlos en un solo lugar», agrega el coautor, Prof. Harish Bhaskaran, de la Universidad de Oxford.




Un ejemplo muy específico es que, con la ayuda de dicho hardware, se podrían identificar automáticamente las células cancerosas. Sin embargo, habrá que trabajar bastante para que estas aplicaciones se conviertan en realidad. Los investigadores necesitan aumentar la cantidad de neuronas artificiales y sinapsis, y aumentar la profundidad de las redes neuronales. Esto se puede hacer, por ejemplo, con chips ópticos fabricados con tecnología de silicio. «Este paso se debe tomar en el proyecto conjunto ‘Fun-COMP’ de la UE mediante el uso del procesamiento de fundición para la producción de nanochips», dice el coautor y líder del proyecto Fun-COMP, el profesor C. David Wright de la Universidad de Exeter.

Este trabajo de colaboración fue financiado por la DFG de Alemania, la EPSRC del Reino Unido y el ERC de la Comisión Europea, y los programas H2020 (el proyecto Fun-COMP).

________________________________________

• Fuente de la historia: Materiales proporcionados por la Universidad de Münster. Referencia de la publicación: J. Feldmann et al. “All-optical spiking neurosynaptic networks with self-learning capabilities” (Redes neurosinápticas totalmente ópticas con capacidades de autoaprendizaje). Nature, 2019 DOI: 10.1038 / s41586-019-1157-8. Universidad de Münster. «Step towards light-based, brain-like computing chip» (Paso hacia un chip de computación similar a un cerebro basado en la luz). ScienceDaily, 8 de mayo de 2019.



¿Instrucciones para tejer un robot?

Fabrican objetos blandos y accionados utilizando máquinas de tejer comerciales

Los investigadores de la Universidad Carnegie Mellon han usado máquinas de tejer controladas por computadora para crear juguetes de peluche y otros objetos tejidos que son accionados por tendones. Es un enfoque que, según dicen, podría usarse algún día para hacer robots blandos y tecnologías portátiles.

El software desarrollado por investigadores de Morphing Matter Lab y Dev Lab de CMU en el Human-Computer Interaction Institute hace posible que los objetos emerjan de las máquinas de tejer en sus formas deseadas y con los tendones ya integrados. Luego se pueden rellenar y los tendones se unen a los motores, según sea necesario.

Lea Albaugh, una Ph.D. estudiante que dirigió el esfuerzo de investigación, desarrolló la técnica de inserción de tendones y exploró este espacio de diseño para hacer pantallas que cambian de forma, figuras rellenas que dan abrazos cuando se tocan en el estómago, e incluso un suéter con una manga que se mueve por sí solo. Aunque en gran parte son fantasiosos, estos objetos demuestran capacidades que podrían tener aplicaciones serias, como robots blandos (ver video).

«La robótica suave es un campo en crecimiento», señaló Albaugh. «La idea es construir robots a partir de materiales que sean intrínsecamente seguros para que las personas estén cerca, por lo que sería muy difícil lastimar a alguien. Los componentes blandos actuados serían baratos de producir en las máquinas de tejer comerciales.

«Tenemos tantos objetos blandos en nuestras vidas y muchos de ellos podrían interactuar con esta tecnología», agregó. «Una prenda de vestir podría ser parte de su sistema de información personal. Su suéter, por ejemplo, podría darle un golpecito en el hombro para llamar su atención. La tela de una silla podría servir como una interfaz háptica. Las mochilas podrían abrirse».


Fabricación digital de objetos de acción suave mediante tejido a máquina de Morphing Matter Lab

Albaugh y sus co-investigadores, Scott Hudson y Lining Yao, miembros de la facultad de HCII, presentarán su investigación en CHI 2019, la Conferencia de la Asociación para Maquinaria de Computación sobre Factores Humanos en Sistemas de Computación, del 4 al 9 de mayo en Glasgow, Escocia.

Las máquinas de tejer comerciales están bien desarrolladas y se utilizan ampliamente, pero generalmente requieren una programación minuciosa para cada prenda. Esta nueva investigación se basa en el trabajo anterior de CMU para automatizar el proceso, lo que facilita el uso de estas máquinas de producción en serie para producir diseños personalizados y únicos.

«Es una línea muy conveniente para usar para producir objetos de punto activos», dijo Yao, profesor asistente de HCII. Otros investigadores han experimentado con objetos textiles accionados, anotó, pero se han enfrentado a la tarea que lleva mucho tiempo de agregar tendones a los artículos terminados. Insertar tendones en los materiales a medida que se crean ahorra tiempo y esfuerzo, y agrega precisión a sus movimientos.

Los investigadores desarrollaron métodos para insertar líneas de tendones en forma horizontal, vertical y diagonal en láminas y tubos de tela. Mostraron que la forma de la tela, combinada con la orientación del recorrido del tendón, puede producir una variedad de efectos de movimiento, entre ellos curvas asimétricas, curvas en forma de S y giros. La rigidez de los objetos se puede ajustar rellenándolos con diversos materiales disponibles para los aficionados.

Se pueden usar tendones hechos con varios materiales, incluidos hilos de acolchado envueltos en poliéster, hilo de seda pura y monofilamento de nylon.

La estudiante Lea Albaugh desarrolló una técnica de inserción de tendones y exploró técnicas como hacer muñecos de peluche que dan abrazos cuando se los presiona en el estómago.

Además de activar los objetos, estas técnicas también pueden agregar capacidades de detección a los objetos. Al unir sensores a cada tendón, por ejemplo, es posible sentir la dirección en que se está doblando o torciendo el objeto. Al tejer con hilo conductor, los investigadores demostraron que podían crear tanto almohadillas de contacto para una detección táctil capacitiva, como sensores de tensión para detectar si una muestra está estirada.

Ya se está utilizando impresión 3D para hacer objetos personalizados, con movimientos y componentes robóticos, dijo Albaugh, aunque los materiales por lo general son duros. El tejido de punto controlado por computadora tiene el potencial de ampliar las posibilidades y hacer que los resultados sean más amigables para las personas.

«Creo que hay un enorme poder en el uso de materiales que las personas ya asocian con la comodidad», dijo.

Este puede ser el Apple II de los brazos de robot impulsados ​​por IA

Un nuevo brazo robótico de bajo costo que se puede controlar con un casco de realidad virtual facilitará la experimentación con inteligencia artificial y robótica.

Los robots en las fábricas de hoy son potentes y precisos, pero tan tontos como una tostadora. Un nuevo brazo robot, desarrollado por un equipo de investigadores de UC Berkeley, está destinado a cambiar eso al proporcionar una plataforma barata y potente para la experimentación de la Inteligencia Artificial. El equipo compara su creación con la Apple II, la computadora personal que atrajo a los aficionados y hackers en los años 70 y 80, iniciando una revolución tecnológica.

Los robots y la inteligencia artificial han evolucionado en paralelo como áreas de investigación durante décadas. En los últimos años, sin embargo, la IA ha avanzado rápidamente cuando se aplica a problemas abstractos como etiquetar imágenes o jugar videojuegos. Pero mientras que los robots industriales pueden hacer las cosas con mucha precisión, requieren una programación minuciosa y no pueden adaptarse a los cambios más pequeños. Han surgido robots más baratos y seguros, pero la mayoría no están diseñados específicamente para ser controlados con software de IA.

“Los robots son cada vez más capaces de aprender nuevas tareas, ya sea a través de prueba y error, o mediante una demostración experta”, dice Stephen McKinley, un postdoctorado en UC Berkeley que estuvo involucrado en el desarrollo del robot. “Sin una plataforma de bajo costo ─un dispositivo tipo Apple II─ la experimentación, la prueba y el error y la investigación productiva continuarán avanzando lentamente. Existe un potencial para que la investigación se acelere en gran medida al hacer que más robots sean más accesibles «.

El nuevo brazo, conocido como Blue, cuesta alrededor de $ 5.000, y puede controlarse a través de un casco de realidad virtual, una técnica que está resultando útil para entrenar algoritmos de IA que controlan robots.


Blue es capaz de transportar cargas relativamente pesadas, pero también es extremadamente «manejable», lo que significa que obedecerá cuando se lo empuje o jale. Esto hace que sea seguro para que las personas trabajen a su lado y permite que se le muestre físicamente cómo hacer algo. El sistema proporciona software de bajo nivel para controlar el robot y para el sistema de realidad Virtual, y está diseñado para ser compatible con cualquier computadora que ejecute el software de Inteligencia Artificial.



El proyecto proviene del laboratorio de Pieter Abbeel, un profesor de la UC Berkeley que ha sido pionero en la aplicación de la inteligencia artificial a la robótica. Las prácticas informáticas para el proyecto han sido licenciadas por UC Berkeley por una nueva compañía llamada Berkeley Open Arms, que desarrollará y venderá el hardware.

Sigue siendo extremadamente difícil traducir el aprendizaje automático de un entorno virtual al mundo real. A pesar de esto, los investigadores académicos han avanzado en la aplicación del aprendizaje automático al hardware del robot, lo que ha llevado a demostraciones espectaculares y algunas empresas comerciales.

Algunas compañías astutas han tomado nota de la tendencia. Nvidia, un fabricante de chips que ha impulsado el auge de la IA al hacer microprocesadores y software para el aprendizaje profundo, lanzó recientemente un laboratorio dedicado a explorar las aplicaciones de la IA a los robots.

El CEO de Nvidia, Jensen Huang, describe al robot de Berkeley como «muy emocionante».

Huang señala que si bien comprar un robot industrial puede costar alrededor de $ 50.000, puede costar muchas veces eso reprogramarlo para una nueva serie de tareas diferentes. «Está al revés», dice. Espera grandes avances en robótica en los próximos años gracias a los avances en el aprendizaje automático y la simulación de realidad virtual: «Los robots y la IA son ahora lo mismo».



Ver a través de los ojos de un robot ayuda a personas con grandes deficiencias motoras

Un interfaz que utiliza la tecnología de realidad aumentada podría ayudar a las personas con profundas deficiencias motoras a operar un robot humanoide para alimentarse sin ayuda y a realizar la rutina de las tareas de cuidado personal, tales como rascarse una picazón y aplicarse loción para la piel. La interfaz basada en la web muestra la visión de un robot de los alrededores para ayudar a los usuarios a interactuar con el mundo a través de la máquina.

El sistema, descrito en la revista PLOS ONE, podría ayudar a hacer que los robots sofisticados sean más útiles para las personas que no tienen experiencia en la operación de sistemas robóticos complejos. Los participantes del estudio interactuaron con la interfaz del robot utilizando tecnologías estándar de acceso asistido por computadora, tales como rastreadores oculares y rastreadores de movimiento de la cabeza, que ellos ya estaban usando para controlar sus computadoras personales.

El documento informa sobre dos estudios que muestran cómo tales «sustitutos corporales robóticos», que pueden realizar tareas similares a las de los humanos, podrían mejorar la calidad de vida de los usuarios. El trabajo podría proporcionar una base para desarrollar robots de asistencia más rápidos y capaces.

«Nuestros resultados sugieren que las personas con deficiencias motoras profundas pueden mejorar su calidad de vida utilizando sustitutos corporales robóticos», dijo Phillip Grice, un reciente graduado Ph.D del Instituto de Tecnología de Georgia, quien es primer autor del artículo. «Hemos dado el primer paso para hacer posible que alguien compre un tipo apropiado de robot, lo tenga en su hogar y obtenga un beneficio real de él».

Grice y el profesor Charlie Kemp del Departamento de Ingeniería Biomédica de Wallace H. Coulter en Georgia Tech y Emory University utilizaron un manipulador móvil PR2 fabricado por Willow Garage para los dos estudios. El robot con ruedas tiene 20 grados de libertad, con dos brazos y una «cabeza», que le da la capacidad de manipular objetos como botellas de agua, paños, cepillos para el cabello e incluso una afeitadora eléctrica.

(A) El robot PR2. (B) Uno de los siete brazos DoF del robot, incluida la piel de tela táctil (gris) y el relleno de espuma (negro) en la pinza metálica. (C) La base del robot, incluida la piel de tela sensible al tacto (azul), colocada sobre el relleno de espuma.

«Nuestro objetivo es dar a las personas con uso limitado de sus propios cuerpos acceso a cuerpos robóticos para que puedan interactuar con el mundo de nuevas maneras», dijo Kemp.

En su primer estudio, Grice y Kemp pusieron el PR2 conectado a través de Internet para un grupo de 15 participantes con discapacidades motoras graves. Los participantes aprendieron a controlar el robot en forma remota, utilizando su propio equipo de asistencia que utilizaban para operar el cursor del mouse para realizar una tarea de cuidado personal. El ochenta por ciento de los participantes pudieron manipular el robot para recoger una botella de agua y llevarla a la boca de un maniquí.

«En comparación con las personas sanas, las capacidades del robot son limitadas», dijo Grice. «Pero los participantes pudieron realizar tareas de manera efectiva y mostraron una mejora en una evaluación clínica que midió su capacidad para manipular objetos en comparación con lo que hubieran podido hacer sin el robot».

En el segundo estudio, los investigadores proporcionaron el PR2 y el sistema de interfaz a Henry Evans, un hombre de California que ha estado ayudando a los investigadores de Georgia Tech a estudiar y mejorar los sistemas de asistencia robótica desde 2011. Evans, que tiene un control muy limitado de su cuerpo, probó el robot en su casa durante siete días y no solo completó las tareas, sino que también ideó nuevos usos combinando la operación de ambos brazos de robot al mismo tiempo, usando un brazo para controlar una toalla y el otro para usar un cepillo.

«El sistema fue muy liberador para mí, ya que me permitió manipular mi entorno de forma independiente por primera vez desde mi ataque», dijo Evans. «Con respecto a otras personas, me emocionó ver a Phil obtener resultados abrumadoramente positivos cuando probó objetivamente el sistema con otras 15 personas».

Los investigadores se alegraron de que Evans desarrollara nuevos usos para el robot, combinando el movimiento de los dos brazos en formas que no habían esperado.

«Cuando le dimos a Henry acceso gratuito al robot durante una semana, encontró nuevas oportunidades para usarlo que no habíamos anticipado», dijo Grice. «Esto es importante porque gran parte de la tecnología de asistencia disponible en la actualidad está diseñada para propósitos muy específicos. Lo que Henry ha demostrado es que este sistema es poderoso para brindar asistencia y capacitar a los usuarios. Las oportunidades para esto son potencialmente muy amplias».

La interfaz le permitió a Evans cuidarse en la cama durante un período prolongado de tiempo. «El aspecto más útil del sistema de interfaz fue que podía operar el robot de forma totalmente independiente, con solo movimientos pequeños de la cabeza utilizando una interfaz gráfica de usuario extremadamente intuitiva», dijo Evans.

La interfaz basada en la web muestra a los usuarios cómo se ve el mundo desde las cámaras ubicadas en la cabeza del robot. Los controles sobre los que se puede hacer clic superpuestos en la vista permiten a los usuarios mover el robot en un hogar u otro entorno y controlar las manos y los brazos del robot. Cuando los usuarios mueven la cabeza del robot, por ejemplo, la pantalla muestra el cursor del mouse como un par de globos oculares para mostrar a dónde mirará el robot cuando el usuario haga clic. Al hacer clic en un disco que rodea las manos robóticas, los usuarios pueden seleccionar un movimiento. Mientras se conduce al robot alrededor de una habitación, las líneas que siguen al cursor en la interfaz indican la dirección en que viajará.

La construcción de la interfaz en torno a las acciones de un simple mouse de un solo botón permite a las personas con una variedad de discapacidades usar la interfaz sin largas sesiones de entrenamiento.

«Tener una interfaz que puedan operar los individuos con una amplia gama de discapacidades físicas significa que podemos proporcionar acceso a una amplia gama de personas, una forma de diseño universal», señaló Grice. «Debido a su capacidad, este es un sistema muy complejo, por lo que el desafío que tuvimos que superar fue hacerlo accesible a las personas que tienen un control muy limitado de sus propios cuerpos».




Si bien los resultados del estudio demostraron lo que los investigadores se habían propuesto hacer, Kemp está de acuerdo en que se pueden hacer mejoras. El sistema existente es lento y los errores cometidos por los usuarios pueden crear contratiempos significativos. Aún así, dijo, «la gente podría usar esta tecnología hoy y realmente beneficiarse de ella».

Evans sugirió que el costo y el tamaño del PR2 deberían reducirse significativamente para que el sistema sea comercialmente viable. Kemp dice que estos estudios señalan el camino hacia un nuevo tipo de tecnología de asistencia.

«Me parece plausible, basado en este estudio, que los sustitutos robóticos del cuerpo podrán proporcionar beneficios significativos a los usuarios», agregó Kemp.

Artículos relacionados:

Una prótesis que restaura la sensación de dónde está tu mano
Logran que los robots rastreen objetos en movimiento con una precisión sin precedentes
Dando sentido del tacto a los robots

Historia De Fuente:

Material proporcionado por el Instituto de Tecnología de Georgia.

Publicación de referencia:

Phillip M. Grice, Charles C. Kemp. In-home and remote use of robotic body surrogates by people with profound motor deficits. PLOS ONE, 2019; 14 (3): e0212904 DOI: 10.1371/journal.pone.0212904

Georgia Institute of Technology. «Seeing through a robot’s eyes helps those with profound motor impairments.» ScienceDaily. ScienceDaily March 2019.