LinuxParty
El miércoles, Google DeepMind anunció dos nuevos modelos de IA diseñados para controlar robots: Gemini Robotics y Gemini Robotics-ER. La compañía afirma que estos modelos ayudarán a robots de diversas formas y tamaños a comprender e interactuar con el mundo físico de forma más eficaz y precisa que los sistemas anteriores, allanando el camino para aplicaciones como los asistentes robóticos humanoides. [...] Los nuevos modelos de Google se basan en la base del modelo de lenguaje grande Gemini 2.0, añadiendo capacidades específicas para aplicaciones robóticas. Gemini Robotics incluye lo que Google denomina capacidades de "visión-lenguaje-acción" (VLA), lo que le permite procesar información visual, comprender comandos lingüísticos y generar movimientos físicos. Por el contrario, Gemini Robotics-ER se centra en el "razonamiento incorporado" con una comprensión espacial mejorada, lo que permite a los expertos en robótica conectarlo a sus sistemas de control de robots existentes. Por ejemplo, con Gemini Robotics, se puede pedir a un robot que "coja el plátano y lo ponga en la cesta", y este utilizará la vista de la cámara de la escena para reconocer el plátano, guiando un brazo robótico para que realice la acción correctamente. O podrías decir: "dobla un zorro de origami", y usará sus conocimientos de origami y cómo doblar papel con cuidado para realizar la tarea.
En 2023, hablamos del RT-2 de Google, que representó un avance notable hacia capacidades robóticas más generalizadas al usar datos de internet para ayudar a los robots a comprender comandos de lenguaje y adaptarse a nuevos escenarios, duplicando así su rendimiento en tareas inéditas en comparación con su predecesor. Dos años después, Gemini Robotics parece haber dado otro gran salto, no solo en la comprensión de qué hacer, sino también en la ejecución de manipulaciones físicas complejas que el RT-2 claramente no podía realizar. Mientras que el RT-2 se limitaba a reutilizar movimientos físicos que ya había practicado, Gemini Robotics, según se informa, demuestra una destreza significativamente mejorada que permite tareas antes imposibles como doblar origami y empaquetar bocadillos en bolsas Ziploc . Este cambio de robots que sólo entienden comandos a robots que pueden realizar tareas físicas delicadas sugiere que DeepMind puede haber comenzado a resolver uno de los mayores desafíos de la robótica: lograr que los robots conviertan su "conocimiento" en movimientos cuidadosos y precisos en el mundo real.DeepMind afirma que Gemini Robotics "duplica con creces su rendimiento en un completo benchmark de generalización en comparación con otros modelos de visión, lenguaje y acción de vanguardia".

-
Internet
- La industria de certificados HTTPS adopta nuevos requisitos de seguridad
- 6 Razones por las que tu web ha perdido posicionamiento y tráfico en Internet
- Comprobar la velocidad de Internet desde la línea de comandos en Linux
- Los cortes de Internet alcanzan niveles récord en África, donde el acceso se convierte en un arma
- Compartir o Enviar archivos sin una Red Local o LAN con woof
- Se desactivan cuentas de WordPress.org para colaboradores que supuestamente planean una bifurcación - por el CEO de Automattic
- El director de inteligencia artificial de Microsoft afirma que la inteligencia artificial conversacional reemplazará a los navegadores web
- Cómo usar una VPN en Linux y por qué deberías hacerlo
- La muerte lenta del hipervínculo
- Cómo cambiar dirección IP (modo gráfico), por qué querría hacerlo y cuándo no debería hacerlo
- 10 comandos "IP" útiles para configurar interfaces de red
- Cómo configurar conexiones IP de red usando 'nmcli' en Linux
- Configuración de una IP Estática en una Tarjeta de Red en Linux.
- ¿Migrar a la nube? Marque esta lista de verificación
- Nuevo estándar de Internet L4S: el plan silencioso para hacer que Internet se sienta más rápido