Archivo de la etiqueta: Novedades

LEDs conectados al revés podrían enfriar las computadoras del futuro

En un hallazgo que va en contra de un supuesto común en física, los investigadores de la Universidad de Michigan conectaron un diodo emisor de luz (LED) con sus electrodos invertidos para enfriar otro dispositivo a solo nanómetros de distancia.

El equipo de la UM modificó un fotodiodo infrarrojo del tamaño de un grano de arroz, que se muestra en esta imagen de microscopio electrónico. Alisaron su superficie para que pudieran colocarla cerca de un calorímetro hecho a medida, solo 55 nanómetros (0,000055 milímetros) entre ellos. Las mediciones del calorímetro mostraron que el fotodiodo, cuando se conecta con los electrodos invertidos, se comportaba como si estuviera a una temperatura más baja y enfriaba el calorímetro

El enfoque podría llevar a una nueva tecnología de refrigeración de estado sólido para microprocesadores futuros, que tendrá tantos transistores empaquetados en un espacio pequeño que los métodos actuales no pueden eliminar el calor lo suficientemente rápido.

“Hemos demostrado un segundo método para usar los fotones para enfriar los dispositivos”, dijo Pramod Reddy, quien dirigió el trabajo junto con Edgar Meyhofer, ambos profesores de ingeniería mecánica.

El primero, conocido en el campo como el enfriamiento por láser, se basa en el trabajo fundacional de Arthur Ashkin, quien compartió el Premio Nobel de Física en 2018.

Los investigadores aprovecharon el potencial químico de la radiación térmica, un concepto que se usa más comúnmente para explicar, por ejemplo, cómo funciona una batería.

“Incluso hoy, muchos asumen que el potencial químico de la radiación es cero”, dijo Meyhofer. “Pero el trabajo teórico que se remonta a la década de 1980 sugiere que bajo ciertas condiciones, este no es el caso”.

El potencial químico en una batería, por ejemplo, impulsa una corriente eléctrica cuando se coloca en un dispositivo. Dentro de la batería, los iones metálicos quieren fluir al otro lado porque pueden deshacerse de parte de la energía (energía potencial química) y nosotros utilizamos esa energía como electricidad. La radiación electromagnética, incluida la luz visible y la radiación térmica infrarroja, por lo general no tiene este tipo de potencial.

“Por lo general, para la radiación térmica, la intensidad solo depende de la temperatura, pero en realidad tenemos un interruptor adicional para controlar esta radiación, lo que hace posible el enfriamiento que investigamos”, dijo Linxiao Zhu, investigadora en ingeniería mecánica y autora principal del trabajo de investigación.

Ese interruptor es eléctrico. En teoría, revertir las conexiones eléctricas positivas y negativas en un LED infrarrojo no solo evitará que emita luz, sino que suprimirá la radiación térmica que debería estar produciendo, solo porque está a temperatura ambiente.

“El LED, con este truco de polarización inversa, se comporta como si estuviera a una temperatura más baja”, dijo Reddy.

Sin embargo, medir este enfriamiento, y probar que algo interesante sucedió, es terriblemente complicado.

Para obtener suficiente luz infrarroja para que fluya desde un objeto al LED, los dos tendrían que estar muy juntos, menos que una sola longitud de onda de luz infrarroja. Esto es necesario para aprovechar los efectos de “campo cercano” o “acoplamiento evanescente”, que permiten que más fotones infrarrojos, o partículas de luz, crucen desde el objeto para dentro del LED.

Reddy y el equipo de Meyhofer tenían una ventaja, porque ya habían estado calentando y enfriando dispositivos a nanoescala, organizándolos de modo que estuvieran separados solo por unas pocas decenas de nanómetros, o menos de una milésima del grosor de un cabello. En esta proximidad, un fotón que no habría escapado del objeto a enfriar puede pasar al LED, casi como si no existiera la brecha entre ellos. Y el equipo tuvo acceso a un laboratorio de vibraciones ultra bajas donde las mediciones de objetos separados por nanómetros se vuelven factibles porque las vibraciones, como las de alguien caminando en el edificio, se reducen drásticamente.

El grupo probó el principio construyendo un calorímetro minúsculo, que es un dispositivo que mide los cambios en la energía, y colocándolo junto a un pequeño LED del tamaño de un grano de arroz. Estos dos emitían y recibían fotones térmicos entre sí y de otras partes de sus entornos.

“Cualquier objeto que se encuentre a temperatura ambiente está emitiendo luz. Una cámara de visión nocturna, básicamente, está capturando la luz infrarroja que proviene de un cuerpo cálido”, dijo Meyhofer.

Pero una vez que el LED fue polarizado en inversa, comenzó a actuar como un objeto de muy baja temperatura, absorbiendo fotones del calorímetro. Al mismo tiempo, la brecha evita que el calor vuelva al calorímetro por medio de conducción, lo que produce un efecto de enfriamiento.

El equipo demostró un enfriamiento de 6 vatios por metro cuadrado. Teóricamente, este efecto podría producir un enfriamiento equivalente a 1.000 vatios por metro cuadrado, o alrededor del poder de la luz solar sobre la superficie de la Tierra.




Esto podría llegar a ser importante para los futuros teléfonos inteligentes, y otras computadoras. Con más potencia de cálculo en dispositivos cada vez más pequeños, la eliminación del calor del microprocesador está comenzando a limitar la cantidad de energía que se puede comprimir en un espacio determinado.

Con las mejoras en la eficiencia y las velocidades de enfriamiento de este nuevo abordaje, el equipo prevé este fenómeno como una forma de quitar rápidamente el calor de los microprocesadores en los dispositivos. Incluso podría hacer frente a los maltratos sufridos por los teléfonos inteligentes, ya que los espaciadores a nanoescala podrían proporcionar el espacio entre el microprocesador y el LED.

La investigación se publicó en la revista Nature el 14 de febrero de 2019, titulada “Enfriamiento fotónico de campo cercano mediante el control del potencial químico de los fotones” (“Near-field photonic cooling through control of the chemical potential of photons.”).

Esta investigación fue apoyada por el Departamento de Energía y la Oficina de Investigación del Ejército. Los dispositivos se fabricaron en la Instalación de Nanofabricación Lurie de la UM. Meyhofer también es profesor de ingeniería biomédica. Reddy también es profesor de ciencia de materiales e ingeniería.

Fuente de la historia:

Materiales proporcionados por la Universidad de Michigan.

Referencia de la publicación:

Linxiao Zhu, Anthony Fiorino, Dakotah Thompson, Rohith Mittapally, Edgar Meyhofer y Pramod Reddy. Near-field photonic cooling through control of the chemical potential of photons. Nature, 2019 DOI: 10.1038/s41586-019-0918-8

Universidad de Michigan. ScienceDaily, febrero de 2019. www.sciencedaily.com/releases/2019/02/190213132326.htm.


Un robot que procura moverse tan bien como una hormiga

Los insectos en general son infaliblemente impresionantes por lo inteligentes y capaces que son, con un mínimo absoluto de detección y poder de cómputo. Cuando las cosas empiezan a ponerse realmente interesantes es cuando los insectos tienen que volverse inteligentes para manejar entornos especialmente difíciles. Las hormigas del desierto son un gran ejemplo de esto: mientras que la mayoría de las hormigas dependen de los senderos de las feromonas para navegar (recorren los senderos de su olor para regresar al nido), el calor del desierto significa que las feromonas no duran mucho. En cambio, las hormigas del desierto se basan en una variedad de técnicas, que incluyen el conteo de pasos, el flujo óptico, los puntos de referencia y, especialmente, la navegación solar.

Parece que estas técnicas podrían ser útiles para los robots pequeños y económicos que exploran el sistema solar, donde el GPS no está disponible y los sensores sofisticados vienen con un presupuesto de masa y energía para igualar. En Science Robotics, los investigadores describen cómo construyeron un robot con herramientas de navegación inspiradas en las hormigas del desierto, y pudieron hacer que deambulara un poco y que encontrara su camino a casa sin GPS, SLAM o algo un poco más complejo.

Lo primero que hay que entender es cómo navegan las hormigas del desierto. En general, el sistema que utilizan se denomina “integración de ruta”, que es esencialmente el mismo que llamaríamos “recuento muerto”. Al hacer un seguimiento de las distancias y direcciones recorridas en el tiempo, las hormigas pueden calcular la ruta más directa hacia atrás. a donde empezaron

Básicamente, si la hormiga se dirige al norte por un tiempo, y luego al este por el doble de tiempo, sabe que al viajar al sur y al oeste (el doble de largo), terminará bastante cerca de su posición inicial, y una vez que esté cerca, Puede reconocer visualmente puntos de referencia para volver exactamente a su nido.

Las hormigas del desierto son notablemente buenas en esto, como lo muestra la siguiente figura. Después de un viaje de ida y vuelta de casi 600 metros a lo largo de unos 20 minutos, la hormiga de un centímetro de longitud puede trazar una línea más o menos exactamente recta directamente a su nido en solo seis minutos.

Imagen: Aix Marseille University / CNRS / ISM Una hormiga del desierto C. fortis usa la “integración del camino” para encontrar su camino de regreso a su nido. La línea delgada muestra la trayectoria de salida (592.1 metros), con pequeños puntos negros que representan marcas de tiempo (cada 60 segundos). La hormiga regresó directamente a su nido (línea gruesa, 140.5 m de largo). El círculo pequeño (abajo a la derecha) marca la entrada del nido, y el negro grande muestra la ubicación de alimentación (centro superior).

Para que la integración del camino funcione, la hormiga debe rastrear dos cosas separadas: la distancia y la dirección. La distancia es la más fácil por mucho, ya que la hormiga puede usar una combinación (muy familiar para los robots) de conteo de zancadas y flujo óptico. La dirección es complicada: es bien sabido que las hormigas y otros insectos pueden usar el Sol para navegar, rastrear su ubicación en el cielo y corregir la rotación de la Tierra y el consiguiente movimiento aparente del Sol a lo largo del tiempo. Esto solo funcionaría cuando está realmente soleado, excepto que los ojos de las hormigas tienen fotorreceptores que son sensibles a la luz polarizada, lo que puede indicar la dirección del Sol, incluso si está nublado. Las hormigas también son sensibles a los rayos UV, lo que les ayuda a ver el Sol a través de la capa de nubes y el follaje.

Imagen: Aix Marseille University / CNRS / ISMAntBot es manejado por una placa Raspberry Pi 2B y sus sensores incluyen una brújula celeste, IMU y sensor de flujo óptico.

AntBot es un intento de replicar los sistemas de detección de las hormigas del desierto para ver qué tan bien un sistema autónomo podría usarlas para la navegación inspirada en las hormigas. AntBot es un hexápodo de 2,3 kilogramos, cuyas especificaciones físicas específicas no son realmente tan importantes para los fines de esta investigación. Lo que es importante son los sensores de AntBot, que incluyen un sensor óptico de flujo bioinspirado y una “brújula celeste inspirada en insectos” que consiste en un par de sensores de luz UV con polarizadores lineales giratorios. La brújula analiza la relación logarítmica entre los datos de estos dos sensores para determinar el ángulo de polarización de la luz entrante, que utiliza para determinar dónde está el Sol y, por lo tanto, en qué dirección está apuntando. AntBot puede hacerlo con mucha precisión: El error mediano fue de solo 0,02 ° cuando el cielo estaba ligeramente nublado, 0,59 ° bajo un cielo nublado.

Al combinar el seguimiento de la distancia del flujo óptico, el conteo de pasos y la navegación celeste al igual que la hormiga del desierto, probablemente no le sorprenda saber que AntBot pudo deambular repetidamente al azar en una distancia de unos 14 metros y luego regresar con éxito a su punto de partida. Esto es bueno, pero AntBot aún tiene mucho trabajo por hacer para demostrar que es tan talentoso como una hormiga, como señalan los investigadores:

“En su forma actual, AntBot tiene un diámetro de 45 cm y caminó a una velocidad de unos 10 cm/s durante los experimentos, mientras que las hormigas C. fortis desert tienen solo 1 cm de largo. Como se muestra en la Fig. 1A, la trayectoria de la hormiga mide 732,6 m. Por lo tanto, AntBot debería haber cubierto más de 32 km para poder compararlo adecuadamente con el rendimiento de navegación de las hormigas. Aunque AntBot puede caminar a velocidades de hasta 90 cm s, la navegación a gran escala requerirá mejorar los actuadores y la fuente de alimentación del robot hexápodo. Estas mejoras permitirán probar el modo PI-Full en contextos más naturales, como los terrenos escarpados en un entorno saturado (bosques) donde la vista del cielo a menudo está inhibida por la presencia de ramas y hojas en el campo visual de la brújula celeste.”

Es posible que los insectos hayan sido los primeros en descubrir este truco de luz polarizada, pero es posible que los humanos hayan estado usando una técnica similar para ayudarlos a navegar durante siglos. Hay algunas pruebas que sugieren que los vikingos (así como las culturas marineras posteriores que probablemente tuvieron la idea de los vikingos) podrían haber confiado en la luz polarizada para encontrar la ubicación del sol bajo un cielo cubierto usando una piedra solar, una de una pequeña cantidad de minerales que son birrefringentes. Los minerales birrefringentes son polarizadores, y cuando la luz entra en ellos, se divide en dos rayos que toman diferentes caminos a través de la piedra dependiendo de donde la fuente de luz es relativa a la piedra. Al mirar a través de la piedra hacia el cielo, es posible usar la birrefringencia para determinar dónde está el Sol con una precisión de unos pocos grados, incluso si está completamente nublado, o si el Sol está por debajo del horizonte. Todo lo que se necesita es un poco de luz solar, y una piedra solar funcionará.




El mineral birrefringente más común es la calcita, y los vikingos habrían tenido acceso a eso. Algunas leyendas vikingas se refieren directamente a las piedras solares, y las simulaciones han demostrado que el uso de una piedra solar podría haber tenido un gran impacto en la capacidad de los vikingos para realizar viajes prolongados a través del océano abierto. Los barcos vikingos y los sitios de entierro no han producido mucha calcita, pero es más frágil que los minerales y no necesariamente duraría tanto tiempo bajo el agua o en el suelo. Y si no terminaron usando algo como esto para navegar, bueno, realmente deberían haberlo hecho, porque tanto las hormigas como los robots están obteniendo grandes resultados con eso.

“AntBot: A six-legged walking robot able to home like desert ants in outdoor environments”
(“AntBot: un robot andante de seis patas capaz de vivir como hormigas del desierto en ambientes al aire libre”)
, por J. Dupeyroux; JR Serres; S. Viollet en la Universidad Aix de Marsella en Marsella, Francia, aparece en la edición actual de Science Robotics.


Dando sentido del tacto a los robots

La tecnología GelSight permite a los robots medir la dureza de los objetos y manipular herramientas pequeñas

Hace ocho años, el grupo de investigación de Ted Adelson en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) de MIT reveló una nueva tecnología de sensores, llamada GelSight, que utiliza el contacto físico con un objeto para proporcionar un mapa tridimensional notablemente detallado de su superficie.

Ahora, al montar sensores GelSight en las pinzas de los brazos robóticos, dos equipos del MIT le han dado a los robots una mayor sensibilidad y destreza. Los investigadores presentaron su trabajo en dos artículos en la Conferencia Internacional sobre Robótica y Automatización.

En un artículo, el grupo de Adelson usa los datos del sensor GelSight para permitir que un robot juzgue la dureza de las superficies que toca, una habilidad crucial si los robots domésticos deben manejar objetos cotidianos.

En el otro, Robot Locomotion Group de Russ Tedrake en CSAIL utiliza sensores GelSight para permitir que un robot manipule objetos más pequeños de lo que era posible antes.

El sensor GelSight es, de alguna manera, una solución de baja tecnología para un problema difícil. Consiste en un bloque de elastómero transparente, el “gel” en el nombre de sensor, una cara del cual está recubierta con pintura metálica. Cuando la cara cubierta de pintura se presiona contra un objeto, se ajusta a la forma del objeto.

La pintura metálica hace que la superficie del objeto sea reflectiva, por lo que su geometría se vuelve mucho más fácil de inferir para los algoritmos de visión de computadora. Montados en el sensor opuesto a la cara recubierta de pintura del bloque elástico, hay tres luces de colores y una sola cámara.

“[El sistema] tiene luces de colores en diferentes ángulos, y luego tiene este material reflectivo, y al mirar los colores, la computadora … puede descubrir la forma 3D y qué es esa cosa”, explica Adelson, profesora de Ciencias de la Visión en el Departamento de Cerebro y Ciencias Cognitivas.

En ambos conjuntos de experimentos, se montó un sensor GelSight en un lado de una pinza robótica, un dispositivo parecido a la cabeza de una pinza pero con superficies de agarre planas en lugar de puntas puntiagudas.

Puntos de contacto

Para un robot autónomo, medir la suavidad o dureza de los objetos es esencial para decidir no solo dónde y qué tan difícil es agarrarlos, sino también cómo se comportarán cuando los mueva, apile o coloque en diferentes superficies. La detección táctil también podría ayudar a los robots a distinguir objetos que se ven parecidos.

En trabajos anteriores, los robots han intentado evaluar la dureza de los objetos colocándolos sobre una superficie plana y empujándolos suavemente para ver cuánto dan. Pero esta no es la principal forma en que los humanos miden la dureza. Más bien, nuestros juicios parecen basarse en el grado en que el área de contacto entre el objeto y nuestros dedos cambia a medida que lo presionamos. Los objetos más blandos tienden a aplanarse más, aumentando el área de contacto.

Los investigadores del MIT adoptaron el mismo criterio. Wenzhen Yuan, una estudiante graduada en ingeniería mecánica y primera autora del artículo del grupo de Adelson, usó moldes de confitería para crear 400 grupos de objetos de silicona, con 16 objetos por grupo. En cada grupo, los objetos tenían las mismas formas pero diferentes grados de dureza, que Yuan medía usando un instrumento industrial estándar.

Ella luego presionó un sensor GelSight contra cada objeto manualmente, y registró cómo iba cambiando el patrón de contacto, en esencia produciendo una corta película para cada objeto. Para estandarizar el formato de los datos y mantener el tamaño de los datos manejable, extrajo cinco cuadros de cada película, espaciados uniformemente en el tiempo, lo que describe la deformación del objeto que se presionó.

Finalmente, alimentó los datos a una red neuronal, que buscaba automáticamente las correlaciones entre los cambios en los patrones de contacto y las mediciones de dureza. El sistema resultante toma cuadros de video como entradas y produce un puntaje de dureza con una precisión muy alta. Yuan también realizó una serie de experimentos informales en los que sujetos humanos palparon frutas y verduras y los clasificaron según su dureza. En todos los casos, el robot equipado con GelSight llegó a las mismas conclusiones.

A Yuan se le unieron en el documento sus dos asesores de tesis, Adelson y Mandayam Srinivasan, investigador científico senior en el Departamento de Ingeniería Mecánica; Chenzhuo Zhu, estudiante de la Universidad de Tsinghua que visitó el grupo de Adelson el verano pasado; y Andrew Owens, quien realizó su doctorado en ingeniería eléctrica y ciencias de la computación en el MIT y ahora es postdoctorado en la Universidad de California en Berkeley.

Visión obstruida

El documento de Robot Locomotion Group nació de la experiencia del grupo con el Desafío de Robótica (DRC) de la Agencia de Proyectos de Investigación Avanzada de la Defensa, en el que equipos académicos y de la industria compitieron para desarrollar sistemas de control que guiarían a un robot humanoide a través de una serie de tareas relacionadas con una emergencia hipotética.

Normalmente, un robot autónomo utiliza algún tipo de sistema de visión por computadora para guiar su manipulación de objetos en su entorno. Dichos sistemas pueden proporcionar información muy confiable sobre la ubicación de un objeto, hasta que el robot recoge el objeto. Especialmente si el objeto es pequeño, gran parte de él será ocluido por la pinza del robot, lo que hace que la estimación de la ubicación sea mucho más difícil. Por lo tanto, exactamente en el punto en el que el robot necesita conocer la ubicación del objeto con precisión, su estimación se vuelve poco confiable. Este fue el problema al que se enfrentó el equipo de MIT durante el DRC, cuando su robot tuvo que levantar y encender un taladro eléctrico.




“Puedes ver en nuestro video para el DRC que pasamos dos o tres minutos encendiendo el taladro”, dice Greg Izatt, un estudiante graduado en ingeniería eléctrica y ciencias de la computación y primer autor del nuevo artículo. “Sería mucho mejor si tuviéramos una estimación precisa y actualizada de dónde se realizó ese ejercicio y dónde estaban nuestras manos en relación con él”.

Es por eso que Robot Locomotion Group se dirigió a GelSight. Izatt y sus coautores: Tedrake, el profesor de ingeniería eléctrica y ciencias de la computación de Toyota, aeronáutica y astronáutica, e ingeniería mecánica; Adelson; y Geronimo Mirano, otro estudiante graduado en el grupo de Tedrake, que diseñaron algoritmos de control que utilizan un sistema de visión computarizada para guiar la pinza del robot hacia una herramienta y luego pasar la estimación de la ubicación a un sensor GelSight una vez que el robot tiene la herramienta en mano.

En general, el desafío con este enfoque es reconciliar los datos producidos por un sistema de visión con los datos producidos por un sensor táctil. Pero GelSight se basa en una cámara, por lo que su salida de datos es mucho más fácil de integrar con datos visuales que los datos de otros sensores táctiles.

En los experimentos de Izatt, un robot con una pinza equipada con GelSight tuvo que agarrar un destornillador pequeño, sacarlo de una funda y volverlo a su lugar. Por supuesto, los datos del sensor GelSight no describen el destornillador completo, solo una pequeña parte de él. Pero Izatt descubrió que, mientras la estimación del sistema de visión de la posición inicial del destornillador era precisa en unos pocos centímetros, sus algoritmos podrían deducir qué parte del destornillador estaba tocando el sensor GelSight y así determinar la posición del destornillador en la mano del robot.

“Creo que la tecnología GelSight, así como otros sensores táctiles de gran ancho de banda, tendrán un gran impacto en la robótica”, dice Sergey Levine, profesor asistente de ingeniería eléctrica y ciencias de la computación en la Universidad de California en Berkeley. “Para los seres humanos, nuestro sentido del tacto es uno de los factores clave en nuestra sorprendente destreza manual. Los robots actuales carecen de este tipo de destreza y tienen una capacidad limitada para reaccionar a las características de la superficie cuando manipulan objetos. Si se imagina buscar un interruptor de luz en la oscuridad, extraer un objeto de su bolsillo o cualquiera de las otras muchas cosas que puede hacer sin siquiera pensar, todo se basa en la detección táctil.”

“El software finalmente está alcanzando las capacidades de nuestros sensores”, agrega Levine. “Los algoritmos de aprendizaje automático inspirados por las innovaciones en el aprendizaje profundo, y la visión por computadora puede procesar los ricos datos sensoriales de sensores como GelSight para deducir las propiedades de los objetos. En el futuro, veremos este tipo de métodos de aprendizaje incorporados en el entrenamiento de las habilidades de manipulación de inicio a final, que hará que nuestros robots sean más diestros y capaces, y tal vez nos ayuden a comprender algo sobre nuestro propio sentido del tacto y control motor”.

Artículos relacionados:

FlexShapeGripper: el agarre de la lengua de un camaleón


Novedades sobre App Inventor y Play Store

Google lanzó recientemente una nueva política de Play Store que afectará a algunas aplicaciones de App Inventor.

Todas las aplicaciones que utilizan el componente de mensajes de texto o llamada telefónica y se publican en Play Store deben reconstruirse. El equipo de MIT App Inventor está realizando un cambio en PhoneCall y Texting para ayudar a nuestros usuarios a lidiar con esta política de Google.

¿Cómo afectará esto a mis aplicaciones de App Inventor y qué debo hacer?

Con el cambio de Google, si crea una aplicación App Inventor que utiliza componentes de teléfono o mensajes de texto, no podrá enviarla a Google Play.

El equipo de MIT App Inventor está cambiando los componentes de Texting y PhoneCall para que las aplicaciones recién creadas cumplan con las restricciones de Google y puedan enviarse a Play como antes. Actualmente estamos probando los cambios y los lanzaremos en App Inventor pronto, en febrero de 2019.

Google también planea eliminar de Play las aplicaciones que violan su política. Si eso te sucede, deberás esperar el cambio a App Inventor, y luego reconstruir tu aplicación y volver a enviarla a Play.

¿Cuál es el cambio de política de Google Play Store?

El cambio de Google es que ya no permitirán aplicaciones en Play Store que envían directamente mensajes de texto (SMS) o hacen llamadas telefónicas. En su lugar, debe invocar la aplicación integrada de mensajes de texto (o llamada telefónica) del dispositivo. Por ejemplo, ya no será aceptada en Play Store una aplicación que envíe periódicamente mensajes de texto sin notificar al usuario del teléfono, y Google también puede eliminar las aplicaciones que se encuentran actualmente en Play Store. Google también ha creado un proceso en el que los desarrolladores pueden completar un formulario solicitando que se permita su aplicación como una excepción a la política.

Busque aquí la información que Google ha proporcionado:

https://support.google.com/googleplay/android-developer/answer/9047303

¿Se comportarán mis aplicaciones de manera diferente después de que se cambie App Inventor?

Sí, habrá un cambio. Cuando use Texting.SendMessage, el teléfono ahora dirigirá el mensaje a la aplicación normal de envío de mensajes de texto del teléfono. Del mismo modo para Phone.MakePhoneCall.

¿Puedo seguir utilizando App Inventor para crear aplicaciones que violen la política de Google para Play?

Sí.

El cambio de MIT a App Inventor incluirá versiones alternativas de Texting.SendMessage y Phone.MakePhoneCall que envían directamente mensajes de texto y hacen llamadas telefónicas. Puede crear aplicaciones con estas versiones alternativas y compartirlas con sus amigos y familiares. Pero necesitaría pedirle a Google una excepción de política para publicar esas aplicaciones en Play Store.

El MIT publicá un aviso cuando estas funciones estén en la página de App Inventor.

Más información sobre posibilidades de desarrollo con App Inventor

Imprimen en 3D partes mecánicas útiles con polvo similar al de la Luna

Un futuro en la luna

Para respaldar una base lunar futura y potencial, los investigadores de la Agencia Espacial Europea (ESA) imprimen en 3D y hornean polvo similar al de la Luna para formar tornillos, engranajes e incluso una moneda.

Tanto las agencias espaciales privadas como las gubernamentales han expresado serias intenciones y comenzaron a desarrollar planes para construir una base habitada por humanos en la Luna. Pero se necesita mucho combustible, capacidad de carga y dinero para lanzar cosas al espacio y bajarlas en la luna. Y construir una base lunar desde cero requerirá una gran cantidad de materiales. Por lo tanto, sería extremadamente caro llevar todas estas partes de la Tierra a la Luna, especialmente porque el mantenimiento requerirá piezas de respaldo para las reparaciones.

Es por esto que los investigadores están investigando una opción más sostenible. En lugar de llevar cosas, podríamos hacerlas usando polvo de Luna o regolito, como alimentación para una impresora 3D. De esta manera podrían crear materiales de construcción de forma económica y sencilla en la propia Luna.

Para practicar, el equipo de la ESA imprimió en 3D artículos como tornillos y engranajes con polvo lunar falso. Aunque sus propiedades difieren de las del suelo terrestre, el regolito lunar no es demasiado difícil de simular, y se le puede dar forma de objetos utilizables a los óxidos de silicio, aluminio, calcio y hierro presentes.

Cómo imprimir en 3D con polvo lunar

Para imprimir en 3D con polvo de luna falso, el equipo comenzó con un regolito hecho por el hombre. El polvo se trituró hasta el tamaño de partícula y los granos resultantes se mezclaron con un agente aglutinante que reacciona a la luz. Luego, una impresora 3D colocó la mezcla en capas hasta que tomó forma el objeto deseado. Luego se expuso el artículo a la luz para que se endureciera, y se coció en un horno para solidificarlo por completo.

El producto terminado es como una pieza de cerámica de polvo de Luna, dice la ESA en un comunicado. Estas piezas iniciales han demostrado que es probable que se impriman con el regolito real de la Luna en una base lunar, y son parte del proyecto URBAN, más grande, que examina cómo la impresión 3D podría ayudar a la colonización lunar.

VER VIDEO

“Si uno necesita imprimir herramientas o piezas de maquinaria para reemplazar las piezas rotas en una base lunar, la precisión en las dimensiones y la forma de los elementos impresos será vital”, dijo el ingeniero de materiales de la ESA Advenit Makaya en el comunicado.

Esta será una ventaja crítica para futuras misiones con destino a la Luna. Especialmente, para estadías prolongadas proyectadas en el satélite terrestre, aquellas cosas están destinadas a romperse o fallar. Si un solo tornillo se pierde o se rompe, es posible que la cuadrilla no tenga tornillos adicionales con la forma y el tamaño exactos necesarios. Al crear la pieza exacta requerida usando el regolito que los rodea, la tripulación podría mantener de manera sostenible las reparaciones en una base lunar.