La robótica avanza hacia la “encarnación” y fórmulas de aprendizaje que permiten desarrollar máquinas con aspectos y comportamientos propios de las personas
Figure 01 es el prototipo más cercano al humanoide que la ciencia ficción había anticipado. El robot, que ha recibido este mes de marzo el apoyo inversor y tecnológico de la compañía de inteligencia artificial Open AI, el gigante de los procesadores Nvidia y Jeff Bezos, fundador de Amazon, es capaz de discernir objetos no solo por su forma sino por su funcionalidad, desarrollar tareas diversas ajustando sus movimientos a la resistencia de aquello que manipula, interaccionar con el entorno e incluso evaluar su desempeño. Figure se acerca en apariencia a las máquinas de Yo, robot y aún está lejos de Robocop, pero es un ejemplo de una fulgurante carrera tecnológica: el embodiment, un término inglés que podría traducirse por encarnación o personificación y que supone, según Luis Merino, profesor y director del Service Robotics Lab (Laboratorio de Robótica de Servicios) de la Universidad Pablo de Olavide, romper los límites de la “pasividad del aprendizaje” automático para acercarse al humano, donde la interacción con el entorno es la clave.
La apuesta de las grandes compañías por esta tecnología es clara. Nvidia, además de su apoyo financiero a Figure, ha anunciado GR00T, una plataforma específica para robots humanoides, en cuyo desarrollo hay una acelerada carrera en la que participan, entre otras, empresas como 1X Technologies, Agility Robotics, Apptronik, Boston Dynamics, Figure AI, Fourier Intelligence, Sanctuary AI, Unitree Robotics y XPENG Robotics.
Dennis Hong es fundador de RoMeLa y creador de Artemis, un robot androide que juega al fútbol como demostración de la versatilidad conseguida en sus capacidades de movimiento. Hong explica el salto cualitativo de los nuevos desarrollos: “El 99,9% de los robots que existen hoy en día utilizan servomotores y son muy rígidos. Son excelentes para la automatización de fábricas o para tareas únicas domésticas [como los aspiradores autónomos], pero este robot [Artemis] imita el músculo biológico y le permite ser ágil, rápido, robusto y bastante inteligente”.
“Esta inteligencia”, según explica, le permite reconocer un buen plan y tomar decisiones de forma autónoma. “El futuro”, concluye, “es que pueda ejecutar cualquier cosa que un humano pueda hacer”. Para demostrarlo, Hong sujeta por la espalda a Artemis y lo empuja para forzarle a reaccionar ante un imprevisto, prueba que el robot supera.
Es un paso muy significativo frente a modelos como los de Deep Robotics, que desarrolla cuadrúpedos para trabajos industriales y de rescate. Vera Huang resalta los “avances motores, como la capacidad de saltar o subir escaleras”, pero admite que no están dotados de la última generación de inteligencia.
Cassie, de Agility Robotics, ha sido preparado para recorrer diferentes superficies y ejecutar grandes saltos sin conocer previamente el terreno. Lo hace a través de la técnica de “aprendizaje por refuerzo”. “El objetivo es enseñar al robot a aprender a hacer todo tipo de movimientos dinámicos de la forma en que lo hace un humano. Cassie utiliza el historial de lo que ha observado y se adaptara rápidamente al mundo real”, explica a MIT technology review Zhongyu Li, de la Universidad de California y participante en el desarrollo.
Los investigadores utilizaron una técnica de IA llamada aprendizaje por refuerzo para ayudar a un robot de dos patas. El aprendizaje por refuerzo funciona recompensando o penalizando a una IA mientras intenta llevar a cabo un objetivo. En este caso, el enfoque enseñó al robot a generalizar y responder en nuevos escenarios, en lugar de congelarse como habrían hecho sus predecesores.
“El siguiente gran paso es que los robots humanoides hagan un trabajo real, planifiquen actividades y se relacione con el mundo físico de maneras que no solo interaccionen con los pies y el suelo”, dice Alan Fern, profesor de Ciencias de la Computación en la Universidad Estatal de Oregón.
En este sentido avanza Figure, un robot de 1,70 metros de alto, 60 kilos, con capacidad para cargar un tercio de su peso, eléctrico, con cinco horas de autonomía y una velocidad de 1,2 metros por segundo. Pero lo que lo hace diferente, es su capacidad de desarrollar distintas tareas, discernir personas y objetos, actuar autónomamente y, sobre todo, aprender. La compañía defiende que su apariencia humana es necesaria porque “el mundo está diseñado para la misma”.
Figure es un ejemplo de encarnación o personalización. “No podemos separar mente y cuerpo. El aprendizaje los aúna. La mayoría de robots procesan imágenes y datos. Los entrenas y no tienen una interacción. Sin embargo, los humanos aprendemos interaccionando con nuestro entorno, porque tenemos un cuerpo y tenemos unos sentidos”, explica Merino.
Su equipo ya ha desarrollado robots de asistencia que, cuando actúan como guías turísticos, adaptan sus explicaciones a las reacciones de la gente, o actúan de acuerdo con los sentimientos de un anciano al que ayudan, o evitan vulnerar la distancia social de los humanos con los que trabajan.
Pero en la mayoría de los robots actuales, incluso los que cuentan con inteligencia artificial, “el aprendizaje es pasivo”, según relata el catedrático de la UPO. Cassie, además del desarrollo de la red neuronal artificial, ha desarrollado su destreza a través de aprendizaje por refuerzo, una técnica parecida a la utilizada para el adiestramiento de mascotas.
Merino profundiza en este sentido. “No le damos al robot una descripción explícita de lo que tiene que hacer, sino que aportamos una señal cuando se comporta mal y, en lo sucesivo, lo evitará. Y al contrario. Si lo hace bien, le damos una recompensa”. En el caso de las mascotas puede ser un juguete, una caricia o una golosina. Para los robots es un algoritmo que intentarán alcanzar el mayor número de veces con su comportamiento.
El investigador aclara que este sistema supone, además de un avance en las capacidades robóticas, una fórmula de hacerlos más eficientes, ya que precisan de menos energía para procesar millones de datos vinculados a todas las variables posibles. “Es muy difícil programar a un robot para todas las circunstancias a las que se puede enfrentar”, incide Merino.
“Llevamos decenas de años con robots en las fábricas haciendo cosas de forma algorítmica y repetitiva. Pero si queremos que sean más generales hay que dar un paso más”, concluye. La carrera robótica va en esta dirección.
Y como todo avance digital, la seguridad será un elemento determinante. Cualquier sistema, hasta un simple electrodoméstico conectado a la nube, puede ser víctima de ataques. En este sentido, Nvidia, presente en los desarrollos de robótica más avanzados, ha firmado un acuerdo de colaboración con Check Point para mejorar la seguridad de la infraestructura de inteligencia artificial en la nube.
También Amazon Web Services (AWS) ha anunciado su colaboración con Nvidia para utilizar la plataforma de esta última compañía, Blackwell, presentada este año en su conferencia de desarrolladores GTC 2024. El acuerdo incluye el uso conjunto de infraestructuras de ambas tecnológicas en desarrollos que incluyen la robótica. Fuente Bibliográfica: https://elpais.com/tecnologia/2024-04-12/figure-01-el-robot-mas-cercano-al-humanoide-que-la-ciencia-ficcion-anticipo.html