A través de su filial DeepMind, la compañía tecnológica ha introducido una serie de métodos para entrenar a estas máquinas y garantizar la seguridad de los humanos.
La compañía tecnológica Google, a través de su filial DeepMind, ha introducido una serie de métodos para entrenar a los robots con inteligencia artificial. Esto con el objetivo de garantizar la seguridad de los humanos.
A través de un publicación, la empresa presentó los modelos AutoRT, SARA-RT y RT-Trajectory, los cuales están diseñados para que los robots con IA puedan tomar decisiones más rápidas y seguras en un «entorno real».
«Imagínese un futuro en el que una simple petición a su robot asistente personal – «ordene la casa» o «prepárenos una comida deliciosa y saludable» – sea todo lo que se necesita para realizar ese trabajo. Estas tareas, sencillas para los humanos, requieren un alto nivel de comprensión del mundo de los robots. Hoy anunciamos un conjunto de avances en la investigación de la robótica que nos acercan un paso más a este futuro. AutoRT, SARA-RT y RT-Trajectory se basan en nuestro trabajo histórico de Robotics Transformers para ayudar a los robots a tomar decisiones más rápido y comprender y navegar mejor en sus entornos», informó Google a través de un comunicado.
Constitución del Robot
Google asegura además que para que los robots puedan integrarse en nuestra vida cotidiana, es necesario desarrollarlos de manera responsable con investigaciones sólidas que demuestren su seguridad en el mundo real.
«Si bien AutoRT es un sistema de recopilación de datos, también es una demostración temprana de robots autónomos para uso en el mundo real. Cuenta con barandillas de seguridad, una de las cuales proporciona a su tomador de decisiones basado en LLM una Constitución del Robot: un conjunto de indicaciones centradas en la seguridad que debe seguir al seleccionar tareas para los robots. Estas reglas están inspiradas en parte en las Tres Leyes de la Robótica de Isaac Asimov: ante todo, que un robot «no puede dañar a un ser humano». Otras normas de seguridad exigen que ningún robot realice tareas en las que intervengan personas, animales, objetos punzantes o aparatos eléctricos», agregó la compañía.
No obstante, si a los modelos grandes se les incita correctamente a realizar una autocrítica, esto por sí solo no puede garantizar la seguridad. Por eso, según Google, el sistema AutoRT comprende capas de medidas de seguridad prácticas procedentes de la robótica clásica. «Por ejemplo, los robots colaborativos están programados para detenerse automáticamente si la fuerza sobre sus articulaciones excede un umbral determinado, y todos los robots activos se mantuvieron en la línea de visión de un supervisor humano con un interruptor de desactivación física», dijo.
Por último, la compañía indicó además que para el desarrollo de estos métodos se llevaron a cabo evaluaciones del mundo real durante siete meses. «El sistema orquestó de forma segura hasta 20 robots simultáneamente, y hasta 52 robots únicos en total, en una variedad de edificios de oficinas, recopilando un conjunto de datos diverso que comprende 77.000 pruebas robóticas en 6.650 tareas únicas».
Fuente: Deepmind Google







