Archivo de la categoría: Software

Translatotron, el primer traductor simultáneo

La tecnología, elemento indispensable para romper las barreras, también idiomáticas. La evolución de los servicios basados en Inteligencia Artificial supera nuevos desafíos. Varias décadas después de desarrollar los primeros «convertidores» de audio, Google ha sido capaz de desarrollar un software que puede traducir la voz humana -de un idioma- a otro directamente sin necesidad de realizar ninguna conversión a texto.

Su nombre, sin embargo, suena a película de ciencia-ficción; Translatotron. No oculta sus intenciones porque está concebido para mejorar la relación entre el humano y la máquina, pero, como extensión, mejorar las comunicaciones entre personas igualando así sus condiciones (y limitaciones) idiomáticas. Un sistema que, en un futuro, puede dar pie a traductores automáticos como si se tratase de un teléfono móvil y que supone un nuevo paso en la traducción simultánea.

Esta herramienta combina diferentes tecnologías ya desarrolladas que empiezan, además, a formar parte de la jungla electrónica en la que reside el usuario. Tradicionalmente, estos sistemas eran independientes. Ahora, al separar la conversación en tres escenarios se pueden combinar. Así, el funcionamiento de Translatotron se basa en un solo proceso: en lugar de dividirlo en distintas fases como sucede en los sistemas de traducción actuales, que se apoyan en mecanismos de síntesis de voz a texto: reconocimiento de voz automático que transcriben la voz de origen como texto, los sistemas de traducción automática que convierten el texto transcrito al idioma de destino y, por último, la capacidad de sintetizar texto y voz para generar audio. Es decir, una traducción simultánea y sin apenas intermediarios, aunque no es perfecto: cada uno de estos pasos va arrastrando pequeños errores.

Google va más allá; ahora ha ideado el mecanismo para traducir de manera automática y realizar una traducción de voz a voz, con resultados muy precisos e, incluso, intentar «imitar» el habla de la persona. «Este sistema evita dividir la traducción en etapas separadas, con lo que aporta algunas ventajas sobre otras soluciones, incluido una mayor velocidad y evitando errores de composición entre el reconocimiento y la traducción, lo que facilita la retención de la voz del hablante original después de la traducción y un mejor manejo de palabras que no necesitan ser traducidas, por ejemplo, nombres propios», señalan en un comunicado fuentes del gigante de internet.

El proyecto, todavía en fase de pruebas, se basa en una red de secuencia a secuencia que procesa el audio de origen en espectrogramas -desgloses detallados de frecuencias del audio- y lo trata como un código de entrada, generando otros nuevos modelos de audio con contenido traducido para, posteriormente, convertir en idioma de destino. La gran aportación es que este proceso retiene el carácter de la voz original, por lo que la traducción, al final, no se realiza de forma robótica y enlatada sino intentando conservar algunos detalles del timbre de la voz, su color, la cadena e, incluso, el tono de la frase original.

Así, puede añadirse un mecanismo adicional que aprende las características del habla de una persona y que las codifica para lograr mantener su tono para utilizarlo posteriormente en la sintetización de la traducción de voz. En todo el proceso, la Inteligencia Artificial de Google utiliza objetivos multitarea para predecir los movimientos de la fuente, al mismo tiempo que genera los espectogramas de la traducción.La compañía ha expuesto, además, algunos logros alcanzados por este ingenio a través de varios clips de audio.



Chip de cómputo basado en luz funciona similar a las neuronas

¿Una tecnología que funciona como un cerebro? En estos tiempos de inteligencia artificial, esto ya no parece tan inverosímil; por ejemplo cuando un teléfono móvil puede reconocer caras o idiomas. Sin embargo, con aplicaciones más complejas, las computadoras aún se enfrentan rápidamente a sus propias limitaciones. Una de las razones de esto es que una computadora tradicionalmente tiene unidades separadas de memoria y procesador, cuya consecuencia es que todos los datos deben enviarse entre los dos. En este sentido, el cerebro humano está muy por delante incluso de las computadoras más modernas porque procesa y almacena información en el mismo lugar, en las sinapsis o conexiones entre neuronas, de las cuales hay trillones en el cerebro. Un equipo internacional de investigadores de las Universidades de Münster (Alemania), Oxford y Exeter (ambos del Reino Unido) han tenido éxito en el desarrollo de una pieza de hardware que podría abrir camino para crear computadoras que se parezcan al cerebro humano. Los científicos lograron producir un chip que contiene una red de neuronas artificiales que funciona con la luz y puede imitar el comportamiento de las neuronas y sus sinapsis.

Los investigadores pudieron demostrar que una red neurosináptica óptica es capaz de «aprender» la información y usarla como base para calcular y reconocer patrones, al igual que un cerebro. Como el sistema funciona solo con luz y no con electrones tradicionales, puede procesar datos muchas veces más rápido. «Este sistema fotónico integrado es un hito experimental», dice el profesor Wolfram Pernice de la Universidad de Münster y socio principal del estudio. «El abordaje podría usarse más adelante en muchos campos diferentes para evaluar patrones en grandes cantidades de datos, por ejemplo, en diagnósticos médicos». El estudio se publica en el último número de la revista «Nature».

La historia en detalle – financiación y método utilizado

La mayoría de los abordajes existentes relacionados con las llamadas redes neuromórficas se basan en la electrónica, mientras que los sistemas ópticos, en los que se utilizan fotones, es decir, partículas de luz, aún están en su infancia. El principio que los científicos alemanes y británicos han presentado ahora funciona de la siguiente manera: las guías de ondas ópticas que pueden transmitir luz y pueden fabricarse en microchips ópticos se han integrado con los llamados materiales de cambio de fase, que ya se encuentran en medios de almacenamiento como el DVD regrabable. Estos materiales de cambio de fase se caracterizan por el hecho de que cambian dramáticamente sus propiedades ópticas dependiendo de si son cristalinos, cuando sus átomos se organizan de manera regular, o amorfos, cuando sus átomos se organizan de manera irregular. Este cambio de fase puede ser activado por la luz si un láser calienta el material. «Debido a que el material reacciona con tanta fuerza y cambia sus propiedades dramáticamente, es muy adecuado para imitar las sinapsis y la transferencia de impulsos entre dos neuronas», dice el autor principal Johannes Feldmann, quien realizó muchos de los experimentos como parte de su tesis doctoral en la universidad de Munster.

En su estudio, los científicos lograron por primera vez fusionar muchos materiales de cambio de fase nanoestructurados en una red neurosináptica. Los investigadores desarrollaron un chip con cuatro neuronas artificiales y un total de 60 sinapsis. La estructura del chip, que consta de diferentes capas, se basó en la llamada tecnología multiplex de división de longitud de onda, que es un proceso en el que la luz se transmite a través de diferentes canales dentro del nanocircuito óptico.

Para probar en qué medida puede reconocer patrones el sistema, los investigadores lo «alimentaron» con información en forma de pulsos de luz, utilizando dos algoritmos diferentes de aprendizaje automático. En este proceso, un sistema artificial «aprende» de ejemplos y puede, en última instancia, generalizarlos. En el caso de los dos algoritmos utilizados, tanto en el llamado aprendizaje supervisado como en el no supervisado, la red artificial pudo, en última instancia, y sobre la base de determinados patrones de luz, reconocer un patrón que se estaba buscando, uno de los cuales era cuatro letras consecutivas.

«Nuestro sistema nos ha permitido dar un paso importante hacia la creación de hardware para computadoras que se comporta de manera similar a las neuronas y las sinapsis en el cerebro, y que también puede trabajar en tareas del mundo real», dice Wolfram Pernice. «Al trabajar con fotones en lugar de electrones, podemos aprovechar al máximo el potencial conocido de las tecnologías ópticas, no solo para transferir datos, como ha sido hasta ahora, sino también para procesar y almacenarlos en un solo lugar», agrega el coautor, Prof. Harish Bhaskaran, de la Universidad de Oxford.




Un ejemplo muy específico es que, con la ayuda de dicho hardware, se podrían identificar automáticamente las células cancerosas. Sin embargo, habrá que trabajar bastante para que estas aplicaciones se conviertan en realidad. Los investigadores necesitan aumentar la cantidad de neuronas artificiales y sinapsis, y aumentar la profundidad de las redes neuronales. Esto se puede hacer, por ejemplo, con chips ópticos fabricados con tecnología de silicio. «Este paso se debe tomar en el proyecto conjunto ‘Fun-COMP’ de la UE mediante el uso del procesamiento de fundición para la producción de nanochips», dice el coautor y líder del proyecto Fun-COMP, el profesor C. David Wright de la Universidad de Exeter.

Este trabajo de colaboración fue financiado por la DFG de Alemania, la EPSRC del Reino Unido y el ERC de la Comisión Europea, y los programas H2020 (el proyecto Fun-COMP).

________________________________________

• Fuente de la historia: Materiales proporcionados por la Universidad de Münster. Referencia de la publicación: J. Feldmann et al. “All-optical spiking neurosynaptic networks with self-learning capabilities” (Redes neurosinápticas totalmente ópticas con capacidades de autoaprendizaje). Nature, 2019 DOI: 10.1038 / s41586-019-1157-8. Universidad de Münster. «Step towards light-based, brain-like computing chip» (Paso hacia un chip de computación similar a un cerebro basado en la luz). ScienceDaily, 8 de mayo de 2019.



Investigadores belgas muestran cómo esconderse de la vigilancia con cámaras de IA

El software de reconocimiento de imágenes con aprendizaje automático puede ser engañado con una impresión a color.

La tecnología de video controlada por Inteligencia Artificial (IA) se está volviendo ubicua, rastreando nuestras caras y cuerpos en comercios, oficinas y espacios públicos.

En algunos países, la tecnología constituye un nuevo y poderoso instrumento de vigilancia policial y gubernamental.

Afortunadamente, como algunos investigadores de la universidad belga KU Leuven han demostrado recientemente, a menudo es posible que alguien se esconda de un sistema de video con IA con la ayuda de una simple impresión en color.

¿Quien lo dijo?

Los investigadores demostraron que la imagen que diseñaron puede esconder a una persona completa de un sistema de visión computarizado controlado por IA. Lo demostraron en un popular sistema de reconocimiento de objetos de código abierto llamado YoLo v2.

Esconderse

El truco podría permitir que los delincuentes se escondan de las cámaras de seguridad, u ofrecer a los disidentes una manera de esquivar el escrutinio del gobierno. «Lo que nuestro trabajo demuestra es que es posible eludir los sistemas de vigilancia de cámaras con parches ‘adversarios’», dice Wiebe Van Ranst, uno de los autores.

Piérdete

Van Ranst dice que no debería ser demasiado difícil adaptar la orientación del diseño de los sistemas de videovigilancia estándar.

“En este momento también necesitamos saber qué detector está en uso. «Lo que nos gustaría hacer en el futuro es generar un parche que funcione con varios detectores al mismo tiempo», dijo a MIT Technology Review. «Si esto funciona, hay muchas posibilidades de que el parche también funcione en el detector que está en uso en el sistema de vigilancia».




Misión de tontos

El engaño demostrado por el equipo belga explota lo que se conoce como aprendizaje automático adversarial. La mayoría de la visión por computador se basa en entrenar una red neuronal (convolucional) para reconocer diferentes cosas al proporcionarle ejemplos y ajustar sus parámetros hasta que clasifique los objetos correctamente.

Al alimentar ejemplos en una red neuronal profunda entrenada y monitorear la salida, es posible inferir qué tipos de imágenes confunden o engañan al sistema.

Ojos en todas partes

El trabajo es importante porque cada vez se encuentra más IA en las cámaras y el software de vigilancia habitual.

Incluso se está utilizando para obviar la necesidad de una línea de pago en algunas comercios experimentales, incluidos los operados por Amazon.

En China, la tecnología está emergiendo como un nuevo y poderoso medio para atrapar delincuentes. Y, lo que es más preocupante, también se utiliza mundialmente para rastrear a ciertos grupos étnicos.

Artículo original: MIT Technology Review, 23 de abril de 2019

Artículos Relacionados:

Logran que los robots rastreen objetos en movimiento con una precisión sin precedentes

Dando a los vehículos autónomos una “visión eléctrica” más aguda

Robots: Visión estereoscópica en tiempo real por medio de una cámara única

Ver a través de los ojos de un robot ayuda a personas con grandes deficiencias motoras



Este puede ser el Apple II de los brazos de robot impulsados ​​por IA

Un nuevo brazo robótico de bajo costo que se puede controlar con un casco de realidad virtual facilitará la experimentación con inteligencia artificial y robótica.

Los robots en las fábricas de hoy son potentes y precisos, pero tan tontos como una tostadora. Un nuevo brazo robot, desarrollado por un equipo de investigadores de UC Berkeley, está destinado a cambiar eso al proporcionar una plataforma barata y potente para la experimentación de la Inteligencia Artificial. El equipo compara su creación con la Apple II, la computadora personal que atrajo a los aficionados y hackers en los años 70 y 80, iniciando una revolución tecnológica.

Los robots y la inteligencia artificial han evolucionado en paralelo como áreas de investigación durante décadas. En los últimos años, sin embargo, la IA ha avanzado rápidamente cuando se aplica a problemas abstractos como etiquetar imágenes o jugar videojuegos. Pero mientras que los robots industriales pueden hacer las cosas con mucha precisión, requieren una programación minuciosa y no pueden adaptarse a los cambios más pequeños. Han surgido robots más baratos y seguros, pero la mayoría no están diseñados específicamente para ser controlados con software de IA.

“Los robots son cada vez más capaces de aprender nuevas tareas, ya sea a través de prueba y error, o mediante una demostración experta”, dice Stephen McKinley, un postdoctorado en UC Berkeley que estuvo involucrado en el desarrollo del robot. “Sin una plataforma de bajo costo ─un dispositivo tipo Apple II─ la experimentación, la prueba y el error y la investigación productiva continuarán avanzando lentamente. Existe un potencial para que la investigación se acelere en gran medida al hacer que más robots sean más accesibles «.

El nuevo brazo, conocido como Blue, cuesta alrededor de $ 5.000, y puede controlarse a través de un casco de realidad virtual, una técnica que está resultando útil para entrenar algoritmos de IA que controlan robots.


Blue es capaz de transportar cargas relativamente pesadas, pero también es extremadamente «manejable», lo que significa que obedecerá cuando se lo empuje o jale. Esto hace que sea seguro para que las personas trabajen a su lado y permite que se le muestre físicamente cómo hacer algo. El sistema proporciona software de bajo nivel para controlar el robot y para el sistema de realidad Virtual, y está diseñado para ser compatible con cualquier computadora que ejecute el software de Inteligencia Artificial.



El proyecto proviene del laboratorio de Pieter Abbeel, un profesor de la UC Berkeley que ha sido pionero en la aplicación de la inteligencia artificial a la robótica. Las prácticas informáticas para el proyecto han sido licenciadas por UC Berkeley por una nueva compañía llamada Berkeley Open Arms, que desarrollará y venderá el hardware.

Sigue siendo extremadamente difícil traducir el aprendizaje automático de un entorno virtual al mundo real. A pesar de esto, los investigadores académicos han avanzado en la aplicación del aprendizaje automático al hardware del robot, lo que ha llevado a demostraciones espectaculares y algunas empresas comerciales.

Algunas compañías astutas han tomado nota de la tendencia. Nvidia, un fabricante de chips que ha impulsado el auge de la IA al hacer microprocesadores y software para el aprendizaje profundo, lanzó recientemente un laboratorio dedicado a explorar las aplicaciones de la IA a los robots.

El CEO de Nvidia, Jensen Huang, describe al robot de Berkeley como «muy emocionante».

Huang señala que si bien comprar un robot industrial puede costar alrededor de $ 50.000, puede costar muchas veces eso reprogramarlo para una nueva serie de tareas diferentes. «Está al revés», dice. Espera grandes avances en robótica en los próximos años gracias a los avances en el aprendizaje automático y la simulación de realidad virtual: «Los robots y la IA son ahora lo mismo».



Piernas robóticas que se basan en la evolución animal para aprender a caminar

Investigadores de la Universidad de Carolina del Sur (USC) han construido un robot que puede aprender solo a caminar. Inspirados por la forma de aprender de los humanos, y de los animales que han evolucionado para aprender esta habilidad a los pocos minutos de nacer, se espera que la investigación abra nuevas posibilidades en los campos de las prótesis dinámicas y los robots que aprenden sobre la marcha en entornos desconocidos.

La nueva extremidad robótica conectada a una máquina de cuatro patas (Crédito: Matthew Lin)

«Hoy en día, para que un robot esté listo para interactuar con el mundo se necesita el equivalente de meses o años de entrenamiento, pero queremos lograr el rápido aprendizaje y las adaptaciones que se ven en la naturaleza», dice Francisco J. Valero-Cuevas, un profesor de Ingeniería Biomédica.

En pos de este objetivo, Valero-Cuevas y sus colegas desarrollaron una pierna robótica accionada por tendones de tipo animal y controlada por algoritmos de Inteliencia Artificial bio-inspirados. Esto permite que el robot desarrolle la habilidad de caminar de manera similar a los humanos, por medio de lo que se conoce en los círculos de robótica como Motor Babbling (“babbling” es el balbuceo de los bebés que están probando su capacidad de hablar), que implica realizar movimientos exploratorios repetidos.

«Estos movimientos aleatorios de la pierna permiten al robot construir un mapa interno de su extremidad y sus interacciones con el medio ambiente», dice el estudiante de doctorado de ingeniería de la USC, Ali Marjaninejad, autor del estudio.

Los investigadores han desarrollado una extremidad robótica accionada por tendones de tipo animal y controlada por algoritmos de inteligencia artificial específicos.

Al aprender sobre su estructura y entorno, el miembro robótico puede desarrollar su propio andar personalizado y aprender una nueva tarea de caminar después de solo cinco minutos de pruebas puramente descoordinadas. A tal punto que puede recuperarse si tropieza al querer dar su próximo paso con seguridad en el suelo, aunque no esté programado para hacerlo. Los investigadores creen que este es el primer robot capaz de tal hazaña, y están entusiasmados con las posibilidades que abre el avance.
Como explican, los robots pueden programarse para realizar ciertas tareas en ciertos escenarios, pero no se pueden preparar para toda posibilidad. Este tipo de robots, por otro lado, que son capaces de desarrollar sus propios movimientos personalizados en respuesta a su entorno, podrán asumir una gama más amplia de tareas.

«Si se deja que estos robots aprendan de la experiencia relevante, finalmente encontrarán una solución que, una vez lograda, se utilizará y adaptará según sea necesario», dice Marjaninejad. «La solución puede no ser perfecta, pero se adoptará si es lo suficientemente buena para la situación. No todos necesitamos o deseamos, o podemos gastar tiempo y esfuerzo en ganar una medalla olímpica».





Las prótesis sensibles son un área en la que este tipo de tecnología podría tener un impacto, ya que ayuda a las personas con discapacidades, al permitirles extremidades más intuitivas, naturales y que se mejoran a sí mismas. La exploración espacial es otra, donde los robots podrían colocarse en planetas o lunas lejanos y usar sus capacidades de aprendizaje para ajustar su modo de andar y navegar por terreno desconocido.

«La capacidad de una especie para aprender y adaptar sus movimientos a medida que cambian sus cuerpos y ambientes ha sido, desde el principio, un poderoso impulsor de la evolución», dice Brian Cohn, también estudiante de doctorado y autor del estudio. «Nuestro trabajo constituye un paso hacia la capacitación de los robots para aprender y adaptarse de cada experiencia, tal como lo hacen los animales».

Artículos relacionados:
Creando robots que pueden ir a donde nosotros vamos
Walbi, el bípedo que aprende a caminar
Un guepardo robótico capaz de dar volteretas hacia atrás
Una prótesis que restaura la sensación de dónde está tu mano
Logran que los robots rastreen objetos en movimiento con una precisión sin precedentes
Un robot que procura moverse tan bien como una hormiga
Dando sentido del tacto a los robots
¿Por qué está resultando difícil construir robots para convivir y trabajar con nosotros en la vida real?

La investigación fue publicada en la revista Nature Machine Intelligence.
Fuente: Universidad del sur de California