Página Robots Argentina
[PRINCIPAL] [NOSOTROS] [ACTIVIDAD] [NOTICIAS] [ARTICULOS] [ENLACES] [GALERIA] [CONTACTO]

Dic 2007

Teniendo el control: Construyendo la más avanzada mano robótica

El brazo robot Stair 1.0 se tiene cámaras y escaners láser como ojos
  

Un brazo robot de 1,80 m. se balancea sobre una plataforma modificada Segway en la puerta de una sala de conferencias de la Universidad de Stanford. Se llama Stair 1.0 y tiene un brazo, cámaras y escaners láser por ojos y una maraña de intestinos eléctricos metidos en la base. No es bonito, pero ese no es el punto. Desde su asiento en una mesa muy prolija, el robotista Morgan Quigley envía al robot a una misión. "Stair, por favor busca la abrochadora en el laboratorio".

No pasa nada. Quigley pide de nuevo. Nada. Luego de un tercer intento, Stair responde con una voz sin inflexiones: "Buscaré la abrochadora para usted".

Utilizando su escaner láser para identificar obstáculos potenciales, Stair 1.0 sale de la habitación hacia el lugar de trabajo del laboratorio central, un área rectangular rodeada por escritorios. Por un lado es una especie de cementerio de robótica, una jungla de brazos robóticos de décadas de antigüedad. Un poster del humanoide NS-5 de la película "Yo Robot" parece que se burla de los investigadores con su mensaje en la pared: "Inténteme construir, punks". Quigley y el computador científico Andrew Ng, quienes dirigen el proyecto "Standford AI Robot" (Stair), caminan, observando, detrás de su robot.

Stair 1.0 busca por las filas de estaciones de trabajo, luego localiza la abrochadora. El robot se mueve hacia adelante y se detiene. Si tuviera pulmones, se podría esperar que tome aliento, debido a que ésta es la parte complicada.

Hasta este punto, Stair no hizo nada que sea muy impresionante. Montones de robots se pueden mover por una habitación... o, tal como probó el vehículo no tripulado Darpa Grand Challenge, pueden navegar por terrenos muy complejos tal como el desierto abierto. Pero ahora Stair está cambiando de observar y navegar por el mundo a interactuar con él. En lugar de sólo evitar obstáculos, el robot va a manipular algo en su entorno real.

Sí, los robots ya tocan la trompeta, mezclan químicos en laboratorios, sueldan autos. Pero estos robots sólo siguen una serie de órdenes. Con las partes desparramadas en una línea de ensamble el robot no será capaz de armar un cubo, menos aún un Buick. Afuera de estos entornos controlados, los objetos y las personas no se quedan quietas. Las abrochadoras están en cualquier parte, no se pueden usar secuencias de comando.

Sin embargo, parece que Stair 1.0 lo está haciendo bien. Localiza la abrochadora y la toma con su mano, una simple pinza de dos dedos cubiertos con goma para que parezca piel humana. Tres minutos después de que Quigley dio la orden inicial, el robot llega, cierra sus dedos y lleva su mano sobre la mesa.

Y todo lo que tiene es un poco de aire.

Para hacer el trabajo en nuestras oficinas y casas, para buscar nuestras abrochadoras y limpiar nuestras habitaciones, los robots tiene que saber controlar sus manos. Necesitan de la coordinación ojo-mano que le permite identificar objetivos, guiar sus guantes mecánicos hacia ellos y luego manipular los objetos con habilidad.

Hay una necesidad creciente de robots con estas habilidades. En Japón, la industria del cuidado de ancianos está empleando robots como asistentes. Para mantener a los mayores fuera de costosos hogares de cuidado, necesitan ser capaces de hacer cosas como servir una bebida. Aun esta simple tarea incluye tomar un vaso de la estantería, encontrar y sacar una botella de la heladera y luego cambiar el líquido de un contenedor a otro. Luego el robot necesita hacer todo esto sin tirar, volcar o romper nada.

Sin embargo estas máquinas ayudantes no tienen que ser perfectas. De vez en cuando un vaso se va a caer. Los robots tendrán que ser programados para caer con gracia y lo que es más importante, aprender de estos errores. Es allí donde falló Stair 1.0. En pos de traer a la elusiva abrochadora, el robot hizo todo correctamente... hasta que falló en darse cuenta de que no había tomado nada. Pero la próxima generación, Stair 2.0, analizará sus propias acciones. La próxima generación de Stair observará que sí tenga el objeto en su mano y medirá la fuerza que sus dedos aplican para determinar si sostienen algo. Tendrá un plan de acciòn, lo ejecutará y observará los resultados completando un lazo cerrado de control. Y se mantendrá dentro del lazo hasta que tenga éxito en su tarea. Suena como un enfoque muy razonable, si los científicos pueden, en una década o dos, lograr la ingeniería y destreza que a la evolución le tomó millones de años perfeccionar. El truco es construir robots que actúen más como niños que como máquinas.

Cuando una computadora falla, emite un pitido como mensaje de error. Los bebés, por el otro lado, sólo lo intentan de otro modo, explorando el mundo y examinando nuevos objetos, llevándolos a la boca si es posible, para adquirir nuevos datos. Esta exploración incorporada nos enseña cómo usar nuestros cerebros y cuerpos. En la actualidad algunos robotistas enfocados en los robots prácticos están construyendo máquinas con el mismo tipo de motivación infantil para explorar, fallar y aprender a través de sus manos. Stair y un robot llamado UMan de la Universidad Amherts de Massachussets, son dos de los primeros robots concebidos desde cero para tener una primera versión de educación que comience los "vuelos de bautismo". Sus creadores planean que los robots aprendan a través del intento y el error. Mientras tanto, en el otro lado del Atlántico, un humanoide italiano de 1,20 m de alto está usando una nueva —y completamente única— clase de aprendizaje. Aprenderá a través de la imitación.

Apenas pasado su segundo cumpleaños, Stair 1.0 ya es obsoleto. La actualización, Stair 2.0, tiene la misma apariencia de hecho en casa, pero está dotado de una mano mucho más avanzada fabricada por Barret Techonology en Cambridge, Massachuttes. De tamaño de un guante de beisbol, la BarretHand tiene tres dedos de mayor tamaño. Dos de ellos rotan alrededor de la palma, intercambiando posiciones y le da a la mano un par de pulgares oponibles de manera efectiva.

Con Stair 1.0 sentado inmóvil en un rincón del laboratorio de Stanford, el estudiante de doctorado Ashutosh Saxena se preparar para darle a Stair 2.0 una serie de pruebas a sus habilidades. Mueve el brazo de Stair 2.0 como un fisioterapista, y luego le pide que vaya hacia un lavaplatos instalado en la pared.

Saxena le dice que vaya a buscar una taza de la rejilla, pero no le dice a Stair como hacerlo. En su lugar y otros miembros del grupo de desarrollo le dieron a Stair una serie de algoritmos que le permiten aprender por sus propios medios. Uno gobierna la habilidad del robot de identificar un objeto puesto en el lavavajillas, otro sugierte el mejor movimiento de la mano hasta el objeto y el tercero decide cómo levantarlo.

Mientras Saxena observa, Stair intenta varias veces levantar la taza. Falla cada vez, pero registra aquellas acciones como infructuosas, de modo de no repetirlas.

Realmente es duro de observar, debido a que la tarea parece tan sencilla. El robot debería simplemente mover su mano sobre la copa, tomarla y luego levantarla. "Esto es lo que yo haría" debe pensar Saxena.

Luego Stair lo sorprende. En lugar de tomar una ruta directa, el robot se mueve al costado y reposiciona su brazo de modo que mueve la mano a través de la rejilla para tomar la taza desde el costado. Cuando esto sucede, Saxena ríe: "Es divertido ver cómo el robot encuentra su propia manera", dice.

Divertido, pero también impresionante. Muestra cómo está aprendiendo el robot.

En un laboratorio más espacioso en la Universidad de Massachussets, UMan está atravesando un entrenamiento básico similar. Stair y UMan podrían ser hermanos: Lucen parecidos, tienen los mismos lasers para escanear, y ambos están desarrollados alrededor de una mano construida por Barret.

Los creadores de la UMan diseñaron un algoritmo que ayudan a sus robots usar esa mano con los objetos que nunca se han visto antes. Para comprobarlo, construyen algunos juguetes para las máquinas-niños, uno de los cuales es sólo tres bloques de madera largos con dos bisagras, con una cuarta pieza que se desliza entrando y saliendo de uno de los bloques del extremo, como un cajón.

Debido a que UMan fue programado para experimentar, para intentar cosas, los robotistas simplementen ponen el juguete enfrente de él y esperan. Una vez que Uman discierne la diferencia entre el juguete y el entorno —un truco computacional estandard—, el algoritmo divide la imagen mental del objeto que tiene el robot en una serie de puntos. Luego UMan busca, empuja y gira y sigue los movimientos del juguete para medir la distancia entre todos los puntos. Para hacer esto descubre los puntos de todas las junturas y, en efecto, es como si jugara.

Usando el mismo algoritmo, el robot está listo para aprender cómo girar una manija de puerta no familiar o picaporte; algo que para otras máqunas sería problemático. UMan separa mentalmente la manija de la puerta, empuja y gira hasta que determina como trabajo, luego guarda la experiencia para una referencia futura. El lider del proyecto Oliver Brock tiene la esperanza que una serie de algoritmos le permitirán a su robot hacer más tareas complejas, aun cosas que no estén previstas al comienzo. "Los bebés humanos se toman mucho tiempo para poner a punto sus habilidades manuales", dice Brock. "Entonces usan sus habilidades para aprender otras, tales como pintar el marco de una ventana o cortar el césped."

Pero los bebés no vagan solos por los alrededores, tomando objetos extraños y tratando de ver cómo funcionan. Si nuestras infancias fueran así, habría muchos menos adultos. Los bebés dependen de los otros para manejar las cosas y para manejarse. Algunos científicos creen que esta clase de dependencia es la clave para la independencia robótica.

El verde de las montañas de los Apeninos llena las ventanas del Laboratorio de Robótica Avanzada Integrado de la Universidad de Genoa, pero no es tan diferente de otros laboratorios. Como instalación preeminente de Europa de robótica y uno de los epicentros mundiales de investigación de inteligencia artificial, está dominado por los nerds frente a los monitores. Y, por supuesto, hay un androide colgado en el lugar.

Del tamaño y forma de un niño de tres años, RobotCub tiene dos manos de cinco dedos, cada uno de ellos cubierto con piel artificial sensible hecha del mismo material que la rueda de toque electrostática del iPod. Tiene ojos expresivos, una máscara de plástico que lo hace parecido a Casper, el fantasma amigable, y un cable que va desde su espalda como un cordón umbilical a una habitación adyacente donde está conectado a unas docenas de PC. Estas máquinas son las encargadas de mover cada uno de los 53 motores eléctricos del RobotCub. Procesan la información sensorial obtenida por sus manos y cámaras y decide cómo mover la máquina en respuesta. El RobotCub puede ser del tamaño de un niño, pero su cerebro ocupa toda una habitación.

Los experimentos que deben comenzar el próximo año parecen ser simples: poner bloques sobre una mesa. Giorgio Metta, el lider robotista del proyecto, tomará uno de ellos y lo pondrá encima del otro. Idealmente, RobotCub estudiará su acción con sus procesadores, sustituirá sus propios brazos por los de Metta, sus manos artificiales por sus manos reales. Idealmente reinterpretará lo que ve y repetirá la acción con sus propias manos. "Es aquí donde la forma del robot es crítica", dice Metta.

La forma humanoide de RobotCub y las manos de cinco dedos son más que una intento soñado de construir un androide. La parte complicada del aprendizaje por imitación es que el estudiante debe tener las mismas partes que el maestro. Es por esto que este método no podría funcionar con Stair o UMan. Si Saxena hubiese desplazado a Stair a un lado mientras intentaba tomar la taza del lavavajillas, en un proceso "déjame-que-te-muestre-como-un-padre-a-su-hijo", su robot se hubiera quedado atónito. Stair tiene sólo un brazo, una mano con tres dedos y parece más un gabinete que se mueve que un Homo habilis.

Pero RobotCub tiene las características básicas de un humano, una cabeza con dos ojos, un cuerpo, dos brazos y dos piernas, dos manos de cinco dedos. El grupo de Metta diseñó a RobotCub del modo que ellos podrían modelar su arquitectura en lo que se denomina neuronas espejo. Descubiertas por Luciano Fadiga, uno de los neurofisiólogos del equipo, las neuronas espejos ayudan a explicar cómo se aprende a través de la observación. Cuando vemos a alguien haciendo un swing en un club de golf, por ejemplo, las neuronas que lanzan el swing también se encienden en nuestros cerebros, aun si estamos sentados en nuestro sillón. Fadiga es el coautor del primer artículo que describe el fenómeno y ahora está ayudando a integrar el principio en líneas de código que representa las neuronas en el cerebro de RobotCub.

Antes de copiar el apilamiento de bloques, RobotCub deberá experimentar todas las acciones individuales requeridas, alcanzar, tomar, levantar, por sí mismo. Cuando Metta comienza a buscar el bloque, RobotCub toma una serie de rápidas instantáneas y siguiendo el progreso de la mano de su "padre" de una foto a la otra, extrapola luego sólo 200 milisegundos de lo que Metta está haciendo. El robot estima lo que Metta está alcanzando, y luego conecta esto con su propia experiencia. Luego estima cual objeto es más problable que Metta trate de tomar, determina si los reconoce o si él sabe como tomarlos. En cada paso, él observa a Metta, conecta sus observaciones con su propia experiencia y una vez que el robotista ha finalizado, intenta juntar los movimentos tal como lo hizo Metta. RobotCub debería ser capaz de aprender cómo llevar a cabo lo mismo, apilar los bloques, por sus propios medios. Él debería ser capaz de pensar. "Por supuesto si controlo estos motores y los posiciono como si lo hiciera yo, también puedo apilar el bloques"

Él debería se capaz de aprender por la observación

Mientras tanto, UMan está listo para aprender haciendo. Su próxima actividad será ir por los laboratorios y abrir al azar las puertas, sorprendiendo a los académicos en sus escritorios. Y Stair 2.0 pronto será capaz de encontrar, calentar y servir la comida sagrada de los estudiantes graduados: los burritos congelados. Si alguna de estas máquinas será verdaderamente inteligente, es otro asunto. Contruir robots que trabajen con sus manos no es sintetizar a Descartes. Es llevar a las máquinas a un punto donde pueden dar valor real en nuestro mundo no estructurado e impredecible, tal como asistir a un anciano, cocinar, o hacer los quehaceres de la casa. Y así como nuestras diestras manos nos dieron, jugando, el fuego del pedernal, esta aproximación al desarrollo de los robots puede encender la chispa que saque las máquinas de la línea de montaje y las ponga en nuestras vidas.

Fuente: Wired. Traducido por Gustavo Courault

            

Grupo Yahoo Desarrolladores de Robots