Archivo de la categoría: Diseños

Dando a los vehículos autónomos una «visión eléctrica» más aguda

El sistema en un chip capaz de detectar las señales en longitudes de onda sub-terahercios podría ayudar a conducir los vehículos sin conductor a través de la niebla y el polvo.

Los vehículos autónomos que dependen de sensores de imagen basados en la luz a menudo tienen dificultades para ver a través de algo que obstruye la visión, como la niebla. Pero los investigadores del MIT han desarrollado un sistema de recepción de radiación sub-terahercios que podría ayudar a conducir automóviles sin conductor cuando los métodos tradicionales fallan.

Las longitudes de onda de sub-terahercios, que se encuentran entre la radiación de microondas e infrarroja en el espectro electromagnético, se pueden detectar fácilmente a través de la niebla y las nubes de polvo, mientras que los sistemas de imágenes LiDAR basados en infrarrojos utilizados en vehículos autónomos tienen dificultades. Para detectar objetos, un sistema de imágenes basado en sub-terahercios envía una señal inicial a través de un transmisor; un receptor mide la absorción y reflexión de las longitudes de onda de los sub-terahercios del rebote. Eso envía una señal a un procesador que recrea una imagen del objeto.

Pero la implementación de sensores sub-terahertcios en autos sin conductor es un desafío. Un reconocimiento de objetos sensible y preciso requiere una fuerte señal de salida del receptor al procesador. Los sistemas tradicionales, hechos de componentes discretos que producen esas señales, son grandes y costosos. Existen matrices más pequeñas de sensores en chip, pero producen señales débiles.

En un artículo publicado en línea por el IEEE Journal of Solid-State Circuits, los investigadores describen una matriz bidireccional de recepción sub-terahercios en un chip que es mucho más sensible, lo que significa que puede capturar e interpretar mejor las longitudes de onda de sub-terahercios en presencia de mucho ruido de señal.

Para lograr esto, implementaron un esquema de píxeles a partir de una mezcla de señales independientes, llamados «detectores heterodinos», que generalmente son muy difíciles de integrar en chips. Los investigadores redujeron drásticamente el tamaño de los detectores heterodinos para que muchos de ellos puedan encajar en un denso chip. El truco consistió en crear un componente multipropósito compacto que pueda mezclar simultáneamente señales de entrada, sincronizar la matriz de píxeles y producir fuertes señales de banda base de salida.

Los investigadores construyeron un prototipo, que tiene una matriz de 32 píxeles integrada en un dispositivo de 1,2 milímetros cuadrados. Los píxeles son aproximadamente 4.300 veces más sensibles que los píxeles en los sensores de matriz de sub-terahercios de hoy en día en chips. Con un poco más de desarrollo, es posible que el chip se pueda usar en autos sin conductor y robots autónomos.

«Una gran motivación para este trabajo es tener mejores ‘ojos eléctricos’ para vehículos autónomos y drones», dice el coautor Ruonan Han, profesor asociado de ingeniería eléctrica y ciencias de la computación, y director del Grupo de Electrónica Integrada Terahertz en el Microsystems Technology Laboratories (MTL) del MIT. «Nuestros sensores de sub-terahercios de bajo costo y en chip jugarán un papel complementario al LiDAR para cuando el entorno sea peligroso».

Junto a Han en la publicación, se encuentran el primer autor Zhi Hu y el coautor Cheng Wang, ambos estudiantes de doctorado en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación que trabajan en el grupo de investigación de Han.

Diseño descentralizado

La clave del diseño es lo que los investigadores denominan «descentralización». En este diseño, un píxel único, denominado píxel «heterodino», genera el ritmo de la frecuencia (la diferencia de frecuencia entre dos señales de sub-terahercios entrantes) y la «oscilación local», una señal eléctrica que cambia la frecuencia de una frecuencia de entrada. Este proceso de «mezcla descendente» produce una señal en el rango de megahercios que puede ser fácilmente interpretada por un procesador de banda base.

La señal de salida se puede usar para calcular la distancia de los objetos, de manera similar a como un LiDAR calcula el tiempo que tarda un láser en impactar un objeto y rebotar. Además, la combinación de las señales de salida de una matriz de píxeles y la dirección de los píxeles en una cierta dirección puede permitir imágenes de alta resolución de una escena. Esto permite no solo la detección, sino también el reconocimiento de objetos, algo fundamental en vehículos autónomos y robots.

La colección de píxeles heterodinos funciona solo cuando las señales de oscilación locales de todos los píxeles están sincronizadas, lo que significa que se necesita una técnica de sincronización de señales. Los diseños centralizados incluyen un solo concentrador que comparte señales de oscilación locales con todos los píxeles.

Estos diseños generalmente se usan en receptores de frecuencias más bajas y pueden causar problemas en las bandas de frecuencia de sub-terahercios, donde la generación de una señal de alta potencia desde un solo concentrador es notoriamente difícil. A medida que la matriz aumenta, la potencia compartida por cada píxel disminuye, lo que reduce la intensidad de la señal de banda base de salida, que depende en gran medida de la potencia de la señal de oscilación local. Como resultado, una señal generada por cada píxel puede ser muy débil, lo que lleva a una baja sensibilidad. Se ha comenzado a usar algunos sensores en chip de este diseño, pero están limitados a ocho píxeles.

El diseño descentralizado de los investigadores aborda este compromiso de sensibilidad a la escala. Cada píxel genera su propia señal de oscilación local, utilizada para recibir y mezclar la señal entrante. Además, un acoplador integrado sincroniza su señal de oscilación local con la de su vecino. Esto le da a cada píxel más potencia de salida, ya que la señal de oscilación local no fluye desde un centro global.

Una buena analogía para el nuevo diseño descentralizado es un sistema de riego, dice Han. Un sistema de irrigación tradicional tiene una bomba que dirige un poderoso flujo de agua a través de una red de tuberías que distribuye agua a muchos sitios de rociadores. Cada aspersor escupe agua con un flujo mucho más débil que el flujo inicial de la bomba. Si se desea que los rociadores lancen agua a la misma frecuencia, eso requeriría otro sistema de control.

El diseño de los investigadores, por otro lado, le da a cada sitio su propia bomba de agua, eliminando la necesidad de conectar tuberías, y le da a cada aspersor su propia salida poderosa de agua. Cada aspersor también se comunica con su vecino para sincronizar sus pulsaciones. «Con nuestro diseño, esencialmente no hay límite para la escalabilidad», dice Han. «Puedes tener tantos sitios como quieras, y cada sitio aún bombea la misma cantidad de agua… y todas las bombas pulsan juntas».





Sin embargo, potencialmente, la nueva arquitectura hace que la huella de cada píxel sea mucho más grande, lo que plantea un gran desafío para la integración a gran escala y de alta densidad en forma de matriz. En su diseño, los investigadores combinaron varias funciones de cuatro componentes tradicionalmente separados (antena, mezclador, oscilador y acoplador) en un único componente de «multitarea» dedicado a cada píxel. Esto permite un diseño descentralizado de 32 píxeles.

«Diseñamos un componente multifuncional para un diseño [descentralizado] en un chip y combinamos algunas estructuras discretas para reducir el tamaño de cada píxel», dice Hu. «Aunque cada píxel realiza operaciones complicadas, mantiene su compacidad, por lo que aún podemos tener una matriz densa a gran escala».

Guiado por frecuencias

Para que el sistema pueda medir la distancia de un objeto, la frecuencia de la señal local de oscilación debe ser estable.

Con ese fin, los investigadores incorporaron en su chip un componente llamado bucle de bloqueo de fase, que bloquea la frecuencia de sub-terahercios de las 32 señales de oscilación local a una referencia estable de baja frecuencia. Debido a que los píxeles están acoplados, sus señales de oscilación locales comparten una fase y frecuencia idénticas y de alta estabilidad. Esto asegura que se pueda extraer información significativa de las señales de banda base de salida. Toda esta arquitectura minimiza la pérdida de señal y maximiza el control.

«En resumen, logramos una matriz coherente, al mismo tiempo con una potencia de oscilación local muy elevada en cada píxel, por lo que cada píxel alcanza una alta sensibilidad», dice Hu.



Dando sentido del tacto a los robots

La tecnología GelSight permite a los robots medir la dureza de los objetos y manipular herramientas pequeñas

Hace ocho años, el grupo de investigación de Ted Adelson en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) de MIT reveló una nueva tecnología de sensores, llamada GelSight, que utiliza el contacto físico con un objeto para proporcionar un mapa tridimensional notablemente detallado de su superficie.

Ahora, al montar sensores GelSight en las pinzas de los brazos robóticos, dos equipos del MIT le han dado a los robots una mayor sensibilidad y destreza. Los investigadores presentaron su trabajo en dos artículos en la Conferencia Internacional sobre Robótica y Automatización.

En un artículo, el grupo de Adelson usa los datos del sensor GelSight para permitir que un robot juzgue la dureza de las superficies que toca, una habilidad crucial si los robots domésticos deben manejar objetos cotidianos.

En el otro, Robot Locomotion Group de Russ Tedrake en CSAIL utiliza sensores GelSight para permitir que un robot manipule objetos más pequeños de lo que era posible antes.

El sensor GelSight es, de alguna manera, una solución de baja tecnología para un problema difícil. Consiste en un bloque de elastómero transparente, el «gel» en el nombre de sensor, una cara del cual está recubierta con pintura metálica. Cuando la cara cubierta de pintura se presiona contra un objeto, se ajusta a la forma del objeto.

La pintura metálica hace que la superficie del objeto sea reflectiva, por lo que su geometría se vuelve mucho más fácil de inferir para los algoritmos de visión de computadora. Montados en el sensor opuesto a la cara recubierta de pintura del bloque elástico, hay tres luces de colores y una sola cámara.

«[El sistema] tiene luces de colores en diferentes ángulos, y luego tiene este material reflectivo, y al mirar los colores, la computadora … puede descubrir la forma 3D y qué es esa cosa», explica Adelson, profesora de Ciencias de la Visión en el Departamento de Cerebro y Ciencias Cognitivas.

En ambos conjuntos de experimentos, se montó un sensor GelSight en un lado de una pinza robótica, un dispositivo parecido a la cabeza de una pinza pero con superficies de agarre planas en lugar de puntas puntiagudas.

Puntos de contacto

Para un robot autónomo, medir la suavidad o dureza de los objetos es esencial para decidir no solo dónde y qué tan difícil es agarrarlos, sino también cómo se comportarán cuando los mueva, apile o coloque en diferentes superficies. La detección táctil también podría ayudar a los robots a distinguir objetos que se ven parecidos.

En trabajos anteriores, los robots han intentado evaluar la dureza de los objetos colocándolos sobre una superficie plana y empujándolos suavemente para ver cuánto dan. Pero esta no es la principal forma en que los humanos miden la dureza. Más bien, nuestros juicios parecen basarse en el grado en que el área de contacto entre el objeto y nuestros dedos cambia a medida que lo presionamos. Los objetos más blandos tienden a aplanarse más, aumentando el área de contacto.

Los investigadores del MIT adoptaron el mismo criterio. Wenzhen Yuan, una estudiante graduada en ingeniería mecánica y primera autora del artículo del grupo de Adelson, usó moldes de confitería para crear 400 grupos de objetos de silicona, con 16 objetos por grupo. En cada grupo, los objetos tenían las mismas formas pero diferentes grados de dureza, que Yuan medía usando un instrumento industrial estándar.

Ella luego presionó un sensor GelSight contra cada objeto manualmente, y registró cómo iba cambiando el patrón de contacto, en esencia produciendo una corta película para cada objeto. Para estandarizar el formato de los datos y mantener el tamaño de los datos manejable, extrajo cinco cuadros de cada película, espaciados uniformemente en el tiempo, lo que describe la deformación del objeto que se presionó.

Finalmente, alimentó los datos a una red neuronal, que buscaba automáticamente las correlaciones entre los cambios en los patrones de contacto y las mediciones de dureza. El sistema resultante toma cuadros de video como entradas y produce un puntaje de dureza con una precisión muy alta. Yuan también realizó una serie de experimentos informales en los que sujetos humanos palparon frutas y verduras y los clasificaron según su dureza. En todos los casos, el robot equipado con GelSight llegó a las mismas conclusiones.

A Yuan se le unieron en el documento sus dos asesores de tesis, Adelson y Mandayam Srinivasan, investigador científico senior en el Departamento de Ingeniería Mecánica; Chenzhuo Zhu, estudiante de la Universidad de Tsinghua que visitó el grupo de Adelson el verano pasado; y Andrew Owens, quien realizó su doctorado en ingeniería eléctrica y ciencias de la computación en el MIT y ahora es postdoctorado en la Universidad de California en Berkeley.

Visión obstruida

El documento de Robot Locomotion Group nació de la experiencia del grupo con el Desafío de Robótica (DRC) de la Agencia de Proyectos de Investigación Avanzada de la Defensa, en el que equipos académicos y de la industria compitieron para desarrollar sistemas de control que guiarían a un robot humanoide a través de una serie de tareas relacionadas con una emergencia hipotética.

Normalmente, un robot autónomo utiliza algún tipo de sistema de visión por computadora para guiar su manipulación de objetos en su entorno. Dichos sistemas pueden proporcionar información muy confiable sobre la ubicación de un objeto, hasta que el robot recoge el objeto. Especialmente si el objeto es pequeño, gran parte de él será ocluido por la pinza del robot, lo que hace que la estimación de la ubicación sea mucho más difícil. Por lo tanto, exactamente en el punto en el que el robot necesita conocer la ubicación del objeto con precisión, su estimación se vuelve poco confiable. Este fue el problema al que se enfrentó el equipo de MIT durante el DRC, cuando su robot tuvo que levantar y encender un taladro eléctrico.




«Puedes ver en nuestro video para el DRC que pasamos dos o tres minutos encendiendo el taladro», dice Greg Izatt, un estudiante graduado en ingeniería eléctrica y ciencias de la computación y primer autor del nuevo artículo. «Sería mucho mejor si tuviéramos una estimación precisa y actualizada de dónde se realizó ese ejercicio y dónde estaban nuestras manos en relación con él».

Es por eso que Robot Locomotion Group se dirigió a GelSight. Izatt y sus coautores: Tedrake, el profesor de ingeniería eléctrica y ciencias de la computación de Toyota, aeronáutica y astronáutica, e ingeniería mecánica; Adelson; y Geronimo Mirano, otro estudiante graduado en el grupo de Tedrake, que diseñaron algoritmos de control que utilizan un sistema de visión computarizada para guiar la pinza del robot hacia una herramienta y luego pasar la estimación de la ubicación a un sensor GelSight una vez que el robot tiene la herramienta en mano.

En general, el desafío con este enfoque es reconciliar los datos producidos por un sistema de visión con los datos producidos por un sensor táctil. Pero GelSight se basa en una cámara, por lo que su salida de datos es mucho más fácil de integrar con datos visuales que los datos de otros sensores táctiles.

En los experimentos de Izatt, un robot con una pinza equipada con GelSight tuvo que agarrar un destornillador pequeño, sacarlo de una funda y volverlo a su lugar. Por supuesto, los datos del sensor GelSight no describen el destornillador completo, solo una pequeña parte de él. Pero Izatt descubrió que, mientras la estimación del sistema de visión de la posición inicial del destornillador era precisa en unos pocos centímetros, sus algoritmos podrían deducir qué parte del destornillador estaba tocando el sensor GelSight y así determinar la posición del destornillador en la mano del robot.

«Creo que la tecnología GelSight, así como otros sensores táctiles de gran ancho de banda, tendrán un gran impacto en la robótica», dice Sergey Levine, profesor asistente de ingeniería eléctrica y ciencias de la computación en la Universidad de California en Berkeley. “Para los seres humanos, nuestro sentido del tacto es uno de los factores clave en nuestra sorprendente destreza manual. Los robots actuales carecen de este tipo de destreza y tienen una capacidad limitada para reaccionar a las características de la superficie cuando manipulan objetos. Si se imagina buscar un interruptor de luz en la oscuridad, extraer un objeto de su bolsillo o cualquiera de las otras muchas cosas que puede hacer sin siquiera pensar, todo se basa en la detección táctil.»

«El software finalmente está alcanzando las capacidades de nuestros sensores», agrega Levine. “Los algoritmos de aprendizaje automático inspirados por las innovaciones en el aprendizaje profundo, y la visión por computadora puede procesar los ricos datos sensoriales de sensores como GelSight para deducir las propiedades de los objetos. En el futuro, veremos este tipo de métodos de aprendizaje incorporados en el entrenamiento de las habilidades de manipulación de inicio a final, que hará que nuestros robots sean más diestros y capaces, y tal vez nos ayuden a comprender algo sobre nuestro propio sentido del tacto y control motor».

Artículos relacionados:

FlexShapeGripper: el agarre de la lengua de un camaleón


Usando electricidad y agua, un nuevo tipo de motor puede poner microrobots en movimiento

Los actuadores microhidráulicos, más delgados que un tercio del ancho del cabello humano, están demostrando ser los motores más potentes y eficientes a microescala.

Mire a su alrededor y probablemente verá algo que funciona con un motor eléctrico. Potentes y eficientes, mantienen gran parte de nuestro mundo en movimiento, desde nuestras computadoras hasta refrigeradores y ventanas automáticas en nuestros autos. Pero estas cualidades se hacen difíciles cuando estos motores se reducen a tamaños más pequeños que un centímetro cúbico.

«A escalas muy pequeñas, se obtiene un calentador en lugar de un motor», dijo Jakub Kedzierski, personal del Grupo de Tecnologías de Química, Microsistema y Nanoescala del Laboratorio Lincoln del MIT. Hoy en día, no existe ningún motor que sea altamente eficiente y poderoso a la vez que microscópico. Y eso es un problema, porque los motores a esa escala son necesarios para poner en movimiento los sistemas miniaturizados: micro guías que pueden apuntar los láseres con una fracción de un grado a lo largo de miles de kilómetros, drones diminutos que pueden meterse entre escombros para encontrar sobrevivientes, o incluso bots que pueden arrastrarse por el tracto digestivo humano.

Para ayudar a sistemas de energía como estos, Kedzierski y su equipo están creando un nuevo tipo de motor llamado actuador microhidráulico. Los actuadores se mueven con un nivel de precisión, eficiencia y potencia que aún no ha sido posible a microescala. Un artículo que describe este trabajo fue publicado en Science Robotics.

Los actuadores microhidráulicos utilizan una técnica llamada electrohumectación para lograr el movimiento. El electrohumectado aplica una tensión eléctrica a las gotas de agua sobre una superficie sólida para distorsionar la tensión superficial del líquido. Los actuadores aprovechan esta distorsión para forzar a las gotas de agua dentro del actuador a moverse, y con ellas, a todo el actuador.

«Piensa en una gota de agua en una ventana; la fuerza de la gravedad la distorsiona y se mueve hacia abajo», dijo Kedzierski. «Aquí, usamos voltaje para causar la distorsión, que a su vez produce movimiento».

El actuador está construido en dos capas. La capa inferior es una lámina de metal con electrodos estampados en ella. Esta capa está cubierta con un dieléctrico, un aislante que se polariza cuando se aplica un campo eléctrico. La capa superior es una lámina de polyimida, un plástico fuerte, que tiene perforados canales poco profundos. Los canales guían la trayectoria de docenas de gotas de agua que se aplican entre las dos capas y se alinean con los electrodos. Para evitar la evaporación, el agua se mezcla antes con una solución de cloruro de litio, que reduce la presión de vapor del agua lo suficiente como para que las gotas del tamaño de un micrómetro duren meses. Las gotas mantienen su forma redondeada (en lugar de ser aplastadas entre las capas) debido a su tensión superficial y su tamaño relativamente pequeño.

El actuador cobra vida cuando se aplica voltaje a los electrodos, aunque no a todos a la vez. Se realiza en un ciclo de activación de dos electrodos por gota a la vez. Sin voltaje, una sola gota de agua descansa neutralmente en dos electrodos, 1 y 2. Pero al aplicar un voltaje a los electrodos 2 y 3, de repente la gota se deforma, estirándose para tocar el electrodo energizado 3 y se retira del electrodo 1.

Esta fuerza horizontal en una gota no es suficiente para mover el actuador. Pero con este ciclo de voltaje aplicado simultáneamente a los electrodos debajo de cada gota en la matriz, la capa de polyimida completa se desliza para apaciguar la atracción de las gotas hacia los electrodos energizados. Al continuar haciendo circular el voltaje, las gotitas siguen caminando sobre los electrodos y la capa continúa deslizándose; si se corta la tensión, y el actuador se detiene en sus pistas. El voltaje, entonces, se convierte en una herramienta poderosa para controlar con precisión el movimiento del actuador.

Pero, ¿cómo queda el actuador frente a otros tipos de motores? Las dos métricas para medir el rendimiento son la densidad de potencia, o la cantidad de potencia que produce el motor en relación con su peso y eficiencia, o la medida de la energía desperdiciada. Uno de los mejores motores eléctricos en términos de eficiencia y densidad de potencia es el motor del sedán Tesla Modelo S. Cuando el equipo probó los actuadores microhidráulicos, descubrieron que estaban justo detrás de la densidad de potencia del Modelo S (a 0,93 kilovatios por kilogramo) y el rendimiento de eficiencia (con una eficiencia del 60 por ciento a la densidad de potencia máxima). Superaron ampliamente los actuadores piezoeléctricos y otros tipos de microactuadores.

«Estamos entusiasmados porque estamos cumpliendo con ese punto de referencia, y aún estamos mejorando a medida que escalamos a tamaños más pequeños», dijo Kedzierski. Los actuadores mejoran en tamaños más pequeños porque la tensión de la superficie sigue siendo la misma independientemente del tamaño de las gotas de agua, y las gotas más pequeñas dejan espacio para que aun más gotas entren en el actuador y ejerzan su fuerza horizontal. «La densidad de potencia simplemente se dispara. Es como tener una cuerda cuya fuerza no se debilita a medida que se adelgaza», agregó.

El último actuador, el que está más cerca del modelo S de Tesla, tenía una separación de 48 micrómetros entre las gotas. El equipo ahora está reduciendo eso a 30 micrómetros. Proyectan que, a esa escala, el actuador coincidirá con el Tesla en densidad de potencia y, a 15 micrómetros, lo superará.

La reducción de los actuadores es solo una parte de la ecuación. El otro aspecto en el que el equipo está trabajando activamente es la integración 3D. En este momento, un solo actuador es un sistema de dos capas, más delgado que una bolsa de plástico y flexible como ella, también. Quieren apilar los actuadores en un sistema similar a un andamio que pueda moverse en tres dimensiones.

Kedzierski imagina un sistema semejante que imita la matriz muscular de nuestro cuerpo, la red de tejidos que permite a nuestros músculos lograr un movimiento instantáneo, potente y flexible. Diez veces más potentes que el músculo, los actuadores se inspiraron en los músculos de muchas maneras, desde su flexibilidad y ligereza hasta su composición de componentes sólidos y fluidos.

Y así como el músculo es un excelente actuador en la escala de una hormiga o un elefante, estos actuadores microhidráulicos también podrían tener un impacto poderoso no solo a microescala, sino en la macroescala.

«Uno podría imaginar», dijo Eric Holihan, quien ha estado ensamblando y probando los actuadores, «la tecnología aplicada a los exoesqueletos», construida con los actuadores como un músculo real, configurado en juntas flexibles en lugar de engranajes. O un ala de avión podría cambiar de forma con comandos eléctricos, con miles de actuadores deslizándose uno sobre el otro para cambiar la forma aerodinámica del ala.

Mientras sus imaginaciones se agitan, el equipo enfrenta desafíos en el desarrollo de grandes sistemas de actuadores. Un desafío es cómo distribuir la potencia en ese volumen. Un esfuerzo paralelo en el laboratorio, que está desarrollando microbaterías para integrarse con los actuadores, podría ayudar a resolver ese problema. Otro desafío es cómo empaquetar los actuadores para eliminar la evaporación.

«La confiabilidad y el empaque continuarán siendo las preguntas predominantes que se nos plantean sobre esta tecnología hasta que demostremos una solución», dijo Holihan. «Esto es algo que esperamos atacar frontalmente en los próximos meses».

Fuente: MIT NEWS




Novedades sobre App Inventor y Play Store

Google lanzó recientemente una nueva política de Play Store que afectará a algunas aplicaciones de App Inventor.

Todas las aplicaciones que utilizan el componente de mensajes de texto o llamada telefónica y se publican en Play Store deben reconstruirse. El equipo de MIT App Inventor está realizando un cambio en PhoneCall y Texting para ayudar a nuestros usuarios a lidiar con esta política de Google.

¿Cómo afectará esto a mis aplicaciones de App Inventor y qué debo hacer?

Con el cambio de Google, si crea una aplicación App Inventor que utiliza componentes de teléfono o mensajes de texto, no podrá enviarla a Google Play.

El equipo de MIT App Inventor está cambiando los componentes de Texting y PhoneCall para que las aplicaciones recién creadas cumplan con las restricciones de Google y puedan enviarse a Play como antes. Actualmente estamos probando los cambios y los lanzaremos en App Inventor pronto, en febrero de 2019.

Google también planea eliminar de Play las aplicaciones que violan su política. Si eso te sucede, deberás esperar el cambio a App Inventor, y luego reconstruir tu aplicación y volver a enviarla a Play.

¿Cuál es el cambio de política de Google Play Store?

El cambio de Google es que ya no permitirán aplicaciones en Play Store que envían directamente mensajes de texto (SMS) o hacen llamadas telefónicas. En su lugar, debe invocar la aplicación integrada de mensajes de texto (o llamada telefónica) del dispositivo. Por ejemplo, ya no será aceptada en Play Store una aplicación que envíe periódicamente mensajes de texto sin notificar al usuario del teléfono, y Google también puede eliminar las aplicaciones que se encuentran actualmente en Play Store. Google también ha creado un proceso en el que los desarrolladores pueden completar un formulario solicitando que se permita su aplicación como una excepción a la política.

Busque aquí la información que Google ha proporcionado:

https://support.google.com/googleplay/android-developer/answer/9047303

¿Se comportarán mis aplicaciones de manera diferente después de que se cambie App Inventor?

Sí, habrá un cambio. Cuando use Texting.SendMessage, el teléfono ahora dirigirá el mensaje a la aplicación normal de envío de mensajes de texto del teléfono. Del mismo modo para Phone.MakePhoneCall.

¿Puedo seguir utilizando App Inventor para crear aplicaciones que violen la política de Google para Play?

Sí.

El cambio de MIT a App Inventor incluirá versiones alternativas de Texting.SendMessage y Phone.MakePhoneCall que envían directamente mensajes de texto y hacen llamadas telefónicas. Puede crear aplicaciones con estas versiones alternativas y compartirlas con sus amigos y familiares. Pero necesitaría pedirle a Google una excepción de política para publicar esas aplicaciones en Play Store.

El MIT publicá un aviso cuando estas funciones estén en la página de App Inventor.

Más información sobre posibilidades de desarrollo con App Inventor

Walbi, el bípedo que aprende a caminar

Conozca a Walbi, un humanoide a escala 50% con programas Arduino para captura y reproducción de movimiento. Se mueve a mano, graba y reproduce luego los movimientos. El WALink BIped es un robot creado por Pedro y Gil Tavares, de Lisboa, para un proyecto de aprendizaje automático que no se concretó.

Walbi usa un Arduino Nano como «cerebro», servos LX-16A de «músculos», y partes plásticas impresas en 3D como «huesos». Los servos LewanSoul LX-16A son servos ideales para pequeños proyectos robóticos, ya que son livianos, pueden mover cargas de más de 19 kg/cm, y se conectan con un solo cable que va de servo a servo, lo que hace que el cableado del robot sea un juego de niños.

Walbi es un humanoide a escala 50%: sus piernas miden 55 cm de altura desde el talón hasta la cintura, y pesan 1,1 kg. Las partes blancas de su cuerpo fueron impresas en 3D, pero podrían haberse hecho fácilmente con madera resistente y liviana.

La programación de Walbi es muy sencilla. Usted puede descargar los dos programas necesarios para realizar la captura y reproducción de movimientos, y entonces puede hacer que Walbi camine, se arrastre, suba, salte o baile. Solo tiene que mover sus piernas a una postura deseada, registrar esa postura, darle forma a Walbi en otra postura, grabarla y así sucesivamente, y luego, cuando haya grabado la secuencia completa, puede sentarse y ver cómo se desempeña hábilmente siguiendo los movimientos que aprendió.

Qué se necesita

Componentes de hardware (sí, siempre hay que comprar algunas cosas):

Aplicaciones de software y/o servicios en línea: Arduino IDE

Herramientas manuales y máquinas de fabricación: Impresora 3D (genérica)

Construyendo a Walbi

Las piezas de Walbi se imprimieron en 3D, con plástico PLA, utilizando una impresora FlashForge Creator Pro. Descargar los archivos STL de Thingiverse, o usar un método alternativo para construir los pies, los “huesos” de las piernas y la cintura, utilizando madera o metal. Los soportes de los servos encajan en estas partes, y unen los servos con ellas.

Como se muestra en el dibujo de abajo, necesitará soportes metálicos de los cuatro tipos diferentes disponibles para adjuntar los servos a las partes impresas, y entre sí.

Conexionado

Para controlar los servos LX-16A se necesita una placa de LewanSoul llamada Bus Linker.

Ésta recibirá comandos desde un puerto serie en el Arduino Nano. Como utilizamos la USART del hardware de Arduino para comunicarnos con la computadora, recurrimos a la biblioteca SoftwareSerial para crear un segundo puerto serie en el Nano, que nos sirve para conectarnos a la placa Bus Linker.

El cableado se minimiza con estos servos serie. Hay un cable que va de cada servo al siguiente (un cable serie provisto con los servos) y los servos se enchufan directamente a la placa de depuración. Su computadora se conecta al puerto USB de Arduino, y Arduino se conecta a la placa de depuración mediante tres cables (TX, RX y GND) conectados a los pines de Arduino que fueron configurados para SoftwareSerial.

Los servos utilizan una velocidad de comunicación serie en baudios de 115200 (que es demasiado alto y falta investigar si se modificar). Esta velocidad en baudios es alta para SoftwareSerial, por lo que tuvimos que implementar funciones de comprobación de errores y reintento. En algunos casos se necesitaba persistencia para obtener una lectura correcta.

Fuerza

Los servos pueden proporcionar 19,5kg.cm a 7,4v. Usamos 6v y la corriente en estado quieto resultó inferior a tres amperios.

   

Programación

Puedes obtener el código Arduino en el repositorio de Github del proyecto.

Se utilizan dos programas para la captura y reproducción de movimiento, una técnica similar a la que se usa en las películas. Empiezas poniendo al robot en una pose. Como los servos están predeterminados para apagar el motor, se pueden girar los servos a mano. Una vez que se tiene el robot en la posición deseada, se usa el programa Walbi_record para leer y mostrar todos los ángulos de servo. Usted luego alimenta esas lecturas de ángulo en la variable poseAngles en Walbi_play, y usa el programa para reproducir la secuencia de poses grabadas a una velocidad establecida por la variable timeToMove (en milisegundos).



Aquí hay algunos consejos y trucos aprendidos al crear Walbi:

  • Los soportes para el LX-16A solo se acoplan al servo en UNA posición, por lo que es muy fácil conectarlos incorrectamente, especialmente a las partes impresas en 3D. Tuvimos que reensamblar a Walbi un par de veces para corregir errores de montaje que eran bastante difíciles de detectar.
  • Los servos vienen con identificación ID 1 por defecto. Asigne a cada servo una ID diferente antes de montarlos en el robot, o será imposible comunicarse con varios servos serie conectados con la misma ID.
  • El uso de bridas para cables realmente mejora la apariencia.

  • Los servos vienen con los tornillos necesarios para conectar el disco de acoplamiento de los servos, y el disco a los soportes. Los soportes vienen con los tornillos necesarios para sujetarlos a los servos. Tendrá que comprar tornillos por separado para sostener las conexiones y para el soporte de las piezas de plástico. Se utilizan tornillos y tuercas DIN912 M2-6 y M2-10.
  • Es posible mejorar la tracción pegando almohadillas de silicona en las plantas de los pies del robot.

  • Es preferible usar discos de acoplamiento de metal para servo, ya que las de plástico que vienen provistas con los servos se romperán en el caso de que las piernas se golpeen durante las pruebas. Si estas piezas se rompen, el robot se aflojará y la reproducción del movimiento perderá precisión. De otra manera, es esta reproducción es sorprendentemente buena.

Piezas a medida

STL para piezas impresas en 3D (Originalmente impreso en un Flash Forge Creator Pro.)

Código Programas Arduino para control de movimiento y reproducción

En Alienexpress encontré algunas publicaciones que pueden servir de guía para obtener los elementos:

SERVO
JUEGO DE SERVO Y ACCESORIOS
SERVO Y PIEZAS DE MONTAJE