LinuxParty
El miércoles, Google DeepMind anunció dos nuevos modelos de IA diseñados para controlar robots: Gemini Robotics y Gemini Robotics-ER. La compañía afirma que estos modelos ayudarán a robots de diversas formas y tamaños a comprender e interactuar con el mundo físico de forma más eficaz y precisa que los sistemas anteriores, allanando el camino para aplicaciones como los asistentes robóticos humanoides. [...] Los nuevos modelos de Google se basan en la base del modelo de lenguaje grande Gemini 2.0, añadiendo capacidades específicas para aplicaciones robóticas. Gemini Robotics incluye lo que Google denomina capacidades de "visión-lenguaje-acción" (VLA), lo que le permite procesar información visual, comprender comandos lingüísticos y generar movimientos físicos. Por el contrario, Gemini Robotics-ER se centra en el "razonamiento incorporado" con una comprensión espacial mejorada, lo que permite a los expertos en robótica conectarlo a sus sistemas de control de robots existentes. Por ejemplo, con Gemini Robotics, se puede pedir a un robot que "coja el plátano y lo ponga en la cesta", y este utilizará la vista de la cámara de la escena para reconocer el plátano, guiando un brazo robótico para que realice la acción correctamente. O podrías decir: "dobla un zorro de origami", y usará sus conocimientos de origami y cómo doblar papel con cuidado para realizar la tarea.
En 2023, hablamos del RT-2 de Google, que representó un avance notable hacia capacidades robóticas más generalizadas al usar datos de internet para ayudar a los robots a comprender comandos de lenguaje y adaptarse a nuevos escenarios, duplicando así su rendimiento en tareas inéditas en comparación con su predecesor. Dos años después, Gemini Robotics parece haber dado otro gran salto, no solo en la comprensión de qué hacer, sino también en la ejecución de manipulaciones físicas complejas que el RT-2 claramente no podía realizar. Mientras que el RT-2 se limitaba a reutilizar movimientos físicos que ya había practicado, Gemini Robotics, según se informa, demuestra una destreza significativamente mejorada que permite tareas antes imposibles como doblar origami y empaquetar bocadillos en bolsas Ziploc . Este cambio de robots que sólo entienden comandos a robots que pueden realizar tareas físicas delicadas sugiere que DeepMind puede haber comenzado a resolver uno de los mayores desafíos de la robótica: lograr que los robots conviertan su "conocimiento" en movimientos cuidadosos y precisos en el mundo real.DeepMind afirma que Gemini Robotics "duplica con creces su rendimiento en un completo benchmark de generalización en comparación con otros modelos de visión, lenguaje y acción de vanguardia".

-
Robótica
- El nuevo robot con inteligencia artificial de Google puede doblar delicados origamis y cerrar bolsas con cremallera
- iRobot, fabricante de Roomba, advierte de un posible cierre en 12 meses
- Protoclone: El primer robot con esqueleto, tejidos y músculos
- Un robot impulsado por inteligencia artificial lidera un levantamiento y convence a los robots de las salas de exposición de que "renuncien a sus trabajos"
- HEAP: La Excavadora Autónoma que Redefine la Construcción y Plantea Desafíos Laborales Globales
- Lo que aprendió un ejecutivo de Google tras siete años intentando darle a la IA un cuerpo robótico
- Científicos Japoneses Crean una Cara Robótica con Piel Humana Cultivada en Laboratorio
- Perros robot armados con rifles dirigidos por IA se someten a una evaluación de operaciones especiales de los marines estadounidenses
- Un vagabundo intenta robar Waymo Robotaxi en Los Ángeles
- Bezos y Nvidia se unen a OpenAI para financiar la puesta en marcha de robots humanoides
- ¿Será la 'agricultura de precisión' perjudicial para los agricultores?
- 6 cosas que debes saber sobre las aspiradoras robotizadas antes de comprar una
- China Impulsa la Revolución Robótica: Planeando la Producción de Robots Humanoides para 2025
- Robot mata a un trabajador en una Planta de Verduras en Corea del Sur
- Spot, el perro robot de Boston Dynamics, ahora también habla [VIDEO]