Archivo de la categoría: Programación

¿Un FPGA en un Arduino?

Arduino anunció recientemente una nueva línea de productos, y uno de ellos, el MKR Vidor 4000, incluye un FPGA. ¿Qué harán los diseñadores con el poder de un FPGA en sus manos?

Un FPGA en un Arduino

Arduino es una popular herramienta de creación de prototipos por varias razones. En primer lugar, no requiere un programador voluminoso y caro (como los chips PIC) y se puede programar a través de USB. En segundo lugar, las placas Arduino son de código abierto y, debido a esto, hay muchos fabricantes de placas Arduino que ofrecen precios competitivos. En tercer lugar, los Arduinos son famosos por su robusto entorno de shields y soporte de bibliotecas, lo que hace que el uso de dispositivos complejos como los chips de Ethernet sea cosa fácil.

A medida que progresó la tecnología, también lo hizo el Arduino. En el lanzamiento de las nuevas placas Arduino se reflejan muchas tendencias de la industria. Por ejemplo, la introducción del Arduino Yun agregó capacidades de Wi-Fi, y el Arduino Duo marcó el comienzo con procesadores más potentes. La miniaturización se concretó con el Arduino Nano, y con el LilyPad se introdujo la electrónica portátil. Pero todas estas mejoras involucran hardware especializado que realiza tareas únicas, como comunicaciones por RF o bajo consumo de energía.

Ahora que los FPGA se están volviendo más baratos y más accesibles, Arduino está a punto de lanzar un Arduino con un FPGA incorporado, el MKR Vidor 4000. La parte «MKR» de su nombre se pronuncia como “Maker” («Creador»), y Massimo Banzi, cofundador de Arduino, se refiere a él como una placa de «factor de forma de creador». Esto no es sorprendente, ya que generalmente se acepta que Arduino está diseñado para creadores, y no es de especial interés para los profesionales de ingeniería electrónica.

El FPGA

El FPGA incluido es un Intel Cyclone 10CL016, y el sitio web de Arduino afirma que el FPGA contiene 16.000 elementos lógicos, 504 Kb de RAM, 56 multiplicadores 18×18 de hardware para aplicaciones DSP de alta velocidad, etc. El sitio web también establece que los pines FPGA pueden dar salidas de hasta 150MHz, y que también pueden configurarse como puertos de comunicaciones comunes como UART, I2C y SPI. Si es cierto, este complemento FPGA podría ser extremadamente útil para los diseñadores que desean crear sistemas digitales de alta velocidad que necesitan capturar datos y procesarlos rápidamente (como los procesadores de señales digitales).

Sin embargo, ¿cuántos aficionados realmente necesitan usar un FPGA?

¿Cómo ayudará esto a los diseñadores?

El acceso a un FPGA permite que los diseñadores creen circuitos personalizados para conectarse al Arduino, lo que puede eliminar la necesidad de circuitos externos. También permite cargarle las funciones de E/S del Arduino al FPGA, pero conlleva el costo de requerir una línea de comunicación entre el FPGA y el Arduino (a menos que el FPGA y la CPU estén integrados en el mismo paquete, en cuyo caso los dos pueden tener líneas de E/S especiales para su comunicación).

Los FPGA, sin embargo, son dispositivos complejos y, a menudo, se programan en lenguajes como HDL y Verilog, que no son aptos para personas no muy arriesgadas. Si bien Arduino anunció que están diseñando un sistema de compilación basado en la nube que facilitará el uso del FPGA, esto aún está por verse. La mayoría de las veces que un sistema se hace más fácil de usar, sacrifica su poder, capacidad y control. Dicho esto, el Vidor 4000 podría ser una herramienta educativa invaluable para aquellos que desean comenzar con FPGA.

¿Más al estilo pi?

El Vidor 4000 no solo cuenta con la inclusión de un FPGA; también tiene varios dispositivos de E/S que lo hacen parecer más a un Pi que a un Arduino.

El Vidor 4000 incluye también un módulo Wi-Fi Nina W102, un chip criptográfico ECC508, un conector micro HDMI, un conector MIPI para cámara y un conector rápido MiniPCI con hasta 25 pines programables por el usuario. Estas características, especialmente el Wi-Fi incorporado, crean una plataforma de IoT potencialmente popular que puede realizar tareas increíblemente complejas. Con el chip criptográfico incorporado, la verificación SSL y HTTPS se convertirán en una tarea trivial y ayudarán a descargar las tareas de seguridad del microcontrolador principal.

Si bien este dispositivo no será tan poderoso como un Raspberry Pi, definitivamente es más pequeño y está más enfocado en el hardware, algo en lo que la Pi se queda atrás.

Placas competidoras para creadores con FPGA

El Vidor 4000, obviamente, no es la primera placa en salir con capacidades FPGA, pero tampoco es la primera construida teniendo en cuenta la compatibilidad con Arduino. Otro producto ya en el mercado, XLR8, es una tarjeta de desarrollo compatible con Arduino que está basada en FPGA, incluye un microcontrolador integrado de instrucción AVR de 8 bits y es programable a través del IDE de Arduino.

El XLR8 está preconfigurado con «bloques xcelerator», que son bloques que están especialmente diseñados para manejar tareas específicas. Los bloques con los que viene preinstalada la unidad incluyen un bloque matemático de punto flotante, un servocontrol, un controlador NeoPixel y un ADC mejorado.

La integración de los FPGA en un proyecto Arduino sin duda creará una nueva ola de proyectos e ideas que podrán construir los aficionados, pero los FPGA son dispositivos complejos. Sin embargo, los usuarios de Arduino pueden comenzar a diseñar su propio hardware desde cero y los FPGA incluidos en los microcontroladores pueden cambiar la forma en que se construyen los circuitos.

La nueva placa MKR Vidor 4000 lleva la complejidad de los FPGA a los que no son ingenieros electrónicos.




Translatotron, el primer traductor simultáneo

La tecnología, elemento indispensable para romper las barreras, también idiomáticas. La evolución de los servicios basados en Inteligencia Artificial supera nuevos desafíos. Varias décadas después de desarrollar los primeros «convertidores» de audio, Google ha sido capaz de desarrollar un software que puede traducir la voz humana -de un idioma- a otro directamente sin necesidad de realizar ninguna conversión a texto.

Su nombre, sin embargo, suena a película de ciencia-ficción; Translatotron. No oculta sus intenciones porque está concebido para mejorar la relación entre el humano y la máquina, pero, como extensión, mejorar las comunicaciones entre personas igualando así sus condiciones (y limitaciones) idiomáticas. Un sistema que, en un futuro, puede dar pie a traductores automáticos como si se tratase de un teléfono móvil y que supone un nuevo paso en la traducción simultánea.

Esta herramienta combina diferentes tecnologías ya desarrolladas que empiezan, además, a formar parte de la jungla electrónica en la que reside el usuario. Tradicionalmente, estos sistemas eran independientes. Ahora, al separar la conversación en tres escenarios se pueden combinar. Así, el funcionamiento de Translatotron se basa en un solo proceso: en lugar de dividirlo en distintas fases como sucede en los sistemas de traducción actuales, que se apoyan en mecanismos de síntesis de voz a texto: reconocimiento de voz automático que transcriben la voz de origen como texto, los sistemas de traducción automática que convierten el texto transcrito al idioma de destino y, por último, la capacidad de sintetizar texto y voz para generar audio. Es decir, una traducción simultánea y sin apenas intermediarios, aunque no es perfecto: cada uno de estos pasos va arrastrando pequeños errores.

Google va más allá; ahora ha ideado el mecanismo para traducir de manera automática y realizar una traducción de voz a voz, con resultados muy precisos e, incluso, intentar «imitar» el habla de la persona. «Este sistema evita dividir la traducción en etapas separadas, con lo que aporta algunas ventajas sobre otras soluciones, incluido una mayor velocidad y evitando errores de composición entre el reconocimiento y la traducción, lo que facilita la retención de la voz del hablante original después de la traducción y un mejor manejo de palabras que no necesitan ser traducidas, por ejemplo, nombres propios», señalan en un comunicado fuentes del gigante de internet.

El proyecto, todavía en fase de pruebas, se basa en una red de secuencia a secuencia que procesa el audio de origen en espectrogramas -desgloses detallados de frecuencias del audio- y lo trata como un código de entrada, generando otros nuevos modelos de audio con contenido traducido para, posteriormente, convertir en idioma de destino. La gran aportación es que este proceso retiene el carácter de la voz original, por lo que la traducción, al final, no se realiza de forma robótica y enlatada sino intentando conservar algunos detalles del timbre de la voz, su color, la cadena e, incluso, el tono de la frase original.

Así, puede añadirse un mecanismo adicional que aprende las características del habla de una persona y que las codifica para lograr mantener su tono para utilizarlo posteriormente en la sintetización de la traducción de voz. En todo el proceso, la Inteligencia Artificial de Google utiliza objetivos multitarea para predecir los movimientos de la fuente, al mismo tiempo que genera los espectogramas de la traducción.La compañía ha expuesto, además, algunos logros alcanzados por este ingenio a través de varios clips de audio.



Chip de cómputo basado en luz funciona similar a las neuronas

¿Una tecnología que funciona como un cerebro? En estos tiempos de inteligencia artificial, esto ya no parece tan inverosímil; por ejemplo cuando un teléfono móvil puede reconocer caras o idiomas. Sin embargo, con aplicaciones más complejas, las computadoras aún se enfrentan rápidamente a sus propias limitaciones. Una de las razones de esto es que una computadora tradicionalmente tiene unidades separadas de memoria y procesador, cuya consecuencia es que todos los datos deben enviarse entre los dos. En este sentido, el cerebro humano está muy por delante incluso de las computadoras más modernas porque procesa y almacena información en el mismo lugar, en las sinapsis o conexiones entre neuronas, de las cuales hay trillones en el cerebro. Un equipo internacional de investigadores de las Universidades de Münster (Alemania), Oxford y Exeter (ambos del Reino Unido) han tenido éxito en el desarrollo de una pieza de hardware que podría abrir camino para crear computadoras que se parezcan al cerebro humano. Los científicos lograron producir un chip que contiene una red de neuronas artificiales que funciona con la luz y puede imitar el comportamiento de las neuronas y sus sinapsis.

Los investigadores pudieron demostrar que una red neurosináptica óptica es capaz de «aprender» la información y usarla como base para calcular y reconocer patrones, al igual que un cerebro. Como el sistema funciona solo con luz y no con electrones tradicionales, puede procesar datos muchas veces más rápido. «Este sistema fotónico integrado es un hito experimental», dice el profesor Wolfram Pernice de la Universidad de Münster y socio principal del estudio. «El abordaje podría usarse más adelante en muchos campos diferentes para evaluar patrones en grandes cantidades de datos, por ejemplo, en diagnósticos médicos». El estudio se publica en el último número de la revista «Nature».

La historia en detalle – financiación y método utilizado

La mayoría de los abordajes existentes relacionados con las llamadas redes neuromórficas se basan en la electrónica, mientras que los sistemas ópticos, en los que se utilizan fotones, es decir, partículas de luz, aún están en su infancia. El principio que los científicos alemanes y británicos han presentado ahora funciona de la siguiente manera: las guías de ondas ópticas que pueden transmitir luz y pueden fabricarse en microchips ópticos se han integrado con los llamados materiales de cambio de fase, que ya se encuentran en medios de almacenamiento como el DVD regrabable. Estos materiales de cambio de fase se caracterizan por el hecho de que cambian dramáticamente sus propiedades ópticas dependiendo de si son cristalinos, cuando sus átomos se organizan de manera regular, o amorfos, cuando sus átomos se organizan de manera irregular. Este cambio de fase puede ser activado por la luz si un láser calienta el material. «Debido a que el material reacciona con tanta fuerza y cambia sus propiedades dramáticamente, es muy adecuado para imitar las sinapsis y la transferencia de impulsos entre dos neuronas», dice el autor principal Johannes Feldmann, quien realizó muchos de los experimentos como parte de su tesis doctoral en la universidad de Munster.

En su estudio, los científicos lograron por primera vez fusionar muchos materiales de cambio de fase nanoestructurados en una red neurosináptica. Los investigadores desarrollaron un chip con cuatro neuronas artificiales y un total de 60 sinapsis. La estructura del chip, que consta de diferentes capas, se basó en la llamada tecnología multiplex de división de longitud de onda, que es un proceso en el que la luz se transmite a través de diferentes canales dentro del nanocircuito óptico.

Para probar en qué medida puede reconocer patrones el sistema, los investigadores lo «alimentaron» con información en forma de pulsos de luz, utilizando dos algoritmos diferentes de aprendizaje automático. En este proceso, un sistema artificial «aprende» de ejemplos y puede, en última instancia, generalizarlos. En el caso de los dos algoritmos utilizados, tanto en el llamado aprendizaje supervisado como en el no supervisado, la red artificial pudo, en última instancia, y sobre la base de determinados patrones de luz, reconocer un patrón que se estaba buscando, uno de los cuales era cuatro letras consecutivas.

«Nuestro sistema nos ha permitido dar un paso importante hacia la creación de hardware para computadoras que se comporta de manera similar a las neuronas y las sinapsis en el cerebro, y que también puede trabajar en tareas del mundo real», dice Wolfram Pernice. «Al trabajar con fotones en lugar de electrones, podemos aprovechar al máximo el potencial conocido de las tecnologías ópticas, no solo para transferir datos, como ha sido hasta ahora, sino también para procesar y almacenarlos en un solo lugar», agrega el coautor, Prof. Harish Bhaskaran, de la Universidad de Oxford.




Un ejemplo muy específico es que, con la ayuda de dicho hardware, se podrían identificar automáticamente las células cancerosas. Sin embargo, habrá que trabajar bastante para que estas aplicaciones se conviertan en realidad. Los investigadores necesitan aumentar la cantidad de neuronas artificiales y sinapsis, y aumentar la profundidad de las redes neuronales. Esto se puede hacer, por ejemplo, con chips ópticos fabricados con tecnología de silicio. «Este paso se debe tomar en el proyecto conjunto ‘Fun-COMP’ de la UE mediante el uso del procesamiento de fundición para la producción de nanochips», dice el coautor y líder del proyecto Fun-COMP, el profesor C. David Wright de la Universidad de Exeter.

Este trabajo de colaboración fue financiado por la DFG de Alemania, la EPSRC del Reino Unido y el ERC de la Comisión Europea, y los programas H2020 (el proyecto Fun-COMP).

________________________________________

• Fuente de la historia: Materiales proporcionados por la Universidad de Münster. Referencia de la publicación: J. Feldmann et al. “All-optical spiking neurosynaptic networks with self-learning capabilities” (Redes neurosinápticas totalmente ópticas con capacidades de autoaprendizaje). Nature, 2019 DOI: 10.1038 / s41586-019-1157-8. Universidad de Münster. «Step towards light-based, brain-like computing chip» (Paso hacia un chip de computación similar a un cerebro basado en la luz). ScienceDaily, 8 de mayo de 2019.



Investigadores belgas muestran cómo esconderse de la vigilancia con cámaras de IA

El software de reconocimiento de imágenes con aprendizaje automático puede ser engañado con una impresión a color.

La tecnología de video controlada por Inteligencia Artificial (IA) se está volviendo ubicua, rastreando nuestras caras y cuerpos en comercios, oficinas y espacios públicos.

En algunos países, la tecnología constituye un nuevo y poderoso instrumento de vigilancia policial y gubernamental.

Afortunadamente, como algunos investigadores de la universidad belga KU Leuven han demostrado recientemente, a menudo es posible que alguien se esconda de un sistema de video con IA con la ayuda de una simple impresión en color.

¿Quien lo dijo?

Los investigadores demostraron que la imagen que diseñaron puede esconder a una persona completa de un sistema de visión computarizado controlado por IA. Lo demostraron en un popular sistema de reconocimiento de objetos de código abierto llamado YoLo v2.

Esconderse

El truco podría permitir que los delincuentes se escondan de las cámaras de seguridad, u ofrecer a los disidentes una manera de esquivar el escrutinio del gobierno. «Lo que nuestro trabajo demuestra es que es posible eludir los sistemas de vigilancia de cámaras con parches ‘adversarios’», dice Wiebe Van Ranst, uno de los autores.

Piérdete

Van Ranst dice que no debería ser demasiado difícil adaptar la orientación del diseño de los sistemas de videovigilancia estándar.

“En este momento también necesitamos saber qué detector está en uso. «Lo que nos gustaría hacer en el futuro es generar un parche que funcione con varios detectores al mismo tiempo», dijo a MIT Technology Review. «Si esto funciona, hay muchas posibilidades de que el parche también funcione en el detector que está en uso en el sistema de vigilancia».




Misión de tontos

El engaño demostrado por el equipo belga explota lo que se conoce como aprendizaje automático adversarial. La mayoría de la visión por computador se basa en entrenar una red neuronal (convolucional) para reconocer diferentes cosas al proporcionarle ejemplos y ajustar sus parámetros hasta que clasifique los objetos correctamente.

Al alimentar ejemplos en una red neuronal profunda entrenada y monitorear la salida, es posible inferir qué tipos de imágenes confunden o engañan al sistema.

Ojos en todas partes

El trabajo es importante porque cada vez se encuentra más IA en las cámaras y el software de vigilancia habitual.

Incluso se está utilizando para obviar la necesidad de una línea de pago en algunas comercios experimentales, incluidos los operados por Amazon.

En China, la tecnología está emergiendo como un nuevo y poderoso medio para atrapar delincuentes. Y, lo que es más preocupante, también se utiliza mundialmente para rastrear a ciertos grupos étnicos.

Artículo original: MIT Technology Review, 23 de abril de 2019

Artículos Relacionados:

Logran que los robots rastreen objetos en movimiento con una precisión sin precedentes

Dando a los vehículos autónomos una “visión eléctrica” más aguda

Robots: Visión estereoscópica en tiempo real por medio de una cámara única

Ver a través de los ojos de un robot ayuda a personas con grandes deficiencias motoras



Este puede ser el Apple II de los brazos de robot impulsados ​​por IA

Un nuevo brazo robótico de bajo costo que se puede controlar con un casco de realidad virtual facilitará la experimentación con inteligencia artificial y robótica.

Los robots en las fábricas de hoy son potentes y precisos, pero tan tontos como una tostadora. Un nuevo brazo robot, desarrollado por un equipo de investigadores de UC Berkeley, está destinado a cambiar eso al proporcionar una plataforma barata y potente para la experimentación de la Inteligencia Artificial. El equipo compara su creación con la Apple II, la computadora personal que atrajo a los aficionados y hackers en los años 70 y 80, iniciando una revolución tecnológica.

Los robots y la inteligencia artificial han evolucionado en paralelo como áreas de investigación durante décadas. En los últimos años, sin embargo, la IA ha avanzado rápidamente cuando se aplica a problemas abstractos como etiquetar imágenes o jugar videojuegos. Pero mientras que los robots industriales pueden hacer las cosas con mucha precisión, requieren una programación minuciosa y no pueden adaptarse a los cambios más pequeños. Han surgido robots más baratos y seguros, pero la mayoría no están diseñados específicamente para ser controlados con software de IA.

“Los robots son cada vez más capaces de aprender nuevas tareas, ya sea a través de prueba y error, o mediante una demostración experta”, dice Stephen McKinley, un postdoctorado en UC Berkeley que estuvo involucrado en el desarrollo del robot. “Sin una plataforma de bajo costo ─un dispositivo tipo Apple II─ la experimentación, la prueba y el error y la investigación productiva continuarán avanzando lentamente. Existe un potencial para que la investigación se acelere en gran medida al hacer que más robots sean más accesibles «.

El nuevo brazo, conocido como Blue, cuesta alrededor de $ 5.000, y puede controlarse a través de un casco de realidad virtual, una técnica que está resultando útil para entrenar algoritmos de IA que controlan robots.


Blue es capaz de transportar cargas relativamente pesadas, pero también es extremadamente «manejable», lo que significa que obedecerá cuando se lo empuje o jale. Esto hace que sea seguro para que las personas trabajen a su lado y permite que se le muestre físicamente cómo hacer algo. El sistema proporciona software de bajo nivel para controlar el robot y para el sistema de realidad Virtual, y está diseñado para ser compatible con cualquier computadora que ejecute el software de Inteligencia Artificial.



El proyecto proviene del laboratorio de Pieter Abbeel, un profesor de la UC Berkeley que ha sido pionero en la aplicación de la inteligencia artificial a la robótica. Las prácticas informáticas para el proyecto han sido licenciadas por UC Berkeley por una nueva compañía llamada Berkeley Open Arms, que desarrollará y venderá el hardware.

Sigue siendo extremadamente difícil traducir el aprendizaje automático de un entorno virtual al mundo real. A pesar de esto, los investigadores académicos han avanzado en la aplicación del aprendizaje automático al hardware del robot, lo que ha llevado a demostraciones espectaculares y algunas empresas comerciales.

Algunas compañías astutas han tomado nota de la tendencia. Nvidia, un fabricante de chips que ha impulsado el auge de la IA al hacer microprocesadores y software para el aprendizaje profundo, lanzó recientemente un laboratorio dedicado a explorar las aplicaciones de la IA a los robots.

El CEO de Nvidia, Jensen Huang, describe al robot de Berkeley como «muy emocionante».

Huang señala que si bien comprar un robot industrial puede costar alrededor de $ 50.000, puede costar muchas veces eso reprogramarlo para una nueva serie de tareas diferentes. «Está al revés», dice. Espera grandes avances en robótica en los próximos años gracias a los avances en el aprendizaje automático y la simulación de realidad virtual: «Los robots y la IA son ahora lo mismo».