
La teoría docente de la mente para los robots puede aumentar la cooperación
hace 2 semanas

Crédito: Laboratorio de robótica general de la Universidad de Duke
La naturaleza está trabajando con animales que cooperan en grandes cantidades. Las abejas dieron una participación a los mejores lugares de alimentación y le dijeron a otros dónde están. Las hormigas construyeron casas jerarizadas complejas construidas para defensa. Las bandadas de cables corren por todo el cielo en hermosas estructuras, ya que eran la misma unidad.
Sin embargo, ninguno de estos animales coopera en la forma en que los humanos. El comportamiento de la mente de la colmena surge de reglas simples después de muchos individuos. El hombre, sin embargo, tiene la capacidad de simpatizar entre sí y predecir las funciones de los demás, una característica conocida como el principio de la mente.
Ahora, un grupo de investigadores de la Universidad de Duke y la Universidad de Columbia han descubierto cómo usar esta característica humana específica para capacitar rápidamente a grupos de robots para completar tareas complejas. Mientras que otros algoritmos de control, a través de los mismos mecanismos similares al mismo mecanismo de comportamiento de algoritmo de la colmena, este nuevo rendimiento llamado Hume enseña a los grupos de robots a cooperar a través de la visión proporcionada por un solo entrenador humano.
Es estudio Publicado Pero arxiv Servidor de preimpresión.
Investigaciones sobre Conferencia Internacional IEEE sobre robótica y automatización (ICRA 2025)Que se llevará a cabo en Atlanta, Georgia, del 19 al 23 de mayo de 2025, que muestra cómo adivinar los trabajos de los compañeros de equipo robot, puede adaptarse a las estrategias en tiempo real y resolver los desafíos que requieren información de inteligencia colectiva similar a la humana.
Este trabajo puede ser una bendición para aplicaciones como la respuesta al incendio forestal y las funciones de Surval de Wild, donde el robot necesita cooperar y cooperar bajo estructuras jerárquicas del equipo, incertidumbre ambiental y obstáculos con límites de ancho de banda de comunicación.
"Manav comenzó a desarrollar las habilidades del principio de la mente alrededor de los cuatro años", explicó la cadena Bioan, profesora asistente de ingeniería mecánica e ingeniería mecánica y ciencia de materiales, ingeniería eléctrica e informática y ciencias de las computadoras, en la Universidad de Duque. "Esto nos permite explicar y predecir las intenciones de los demás, permitiendo que surja la cooperación. Es una capacidad esencial que nuestros robots actuales les faltan para permitirles trabajar como un equipo con otros robots y humanos. Nos hemos preparado para ayudar a diseñar el Hume y coordinar de una manera eficiente".
Hay otros enfoques para enseñar a los robots a cooperar en tareas significativas. Uno tiene que usar el aprendizaje de refuerzo, donde los robots aprenden interactuando en el mismo entorno con millones de pruebas y errores en el mismo entorno, que está deshabilitado sin garantía de éxito. Otro método implica el aprendizaje de la copia de grandes grupos de expertos humanos asociados, que son caros y poco prácticos.
Tenemos una opinión fundamentalmente diferente. Durante el entrenamiento, el marco permite que un solo operador humano controle robots separados dentro de un equipo cuando sea necesario, guíelos en momentos estratégicos importantes, dándoles el consejo objetivo durante un juego de fútbol como un entrenador. Esta interacción muestra cómo llevar a cabo estrategias de colaboración sofisticadas como la emboscada y el rodeado.
https://www.youtube.com/watch?v=2x92lnfuuty
Después de estas breves actuaciones, el sistema incrustó la intervención humana en los algoritmos de robots. La idea principal es que para poder aprender a cooperar a los robots, deberían aprender a hacer una representación mental juntos para adivinar qué tienen sus compañeros y qué harán sus jugadores rivales. En otras palabras, en sus planes, incrustados en el principio de la mente en sus planes.
"Nuestra estructura imagina el futuro del equipo humano y los humanos donde los humanos son líderes", dijo Chen. "En este caso, un humano está guiando a una gran cantidad de agentes que no se han hecho antes".

El equipo probó a Hamak en un juego dinámico oculto y segundo, donde un equipo de tres robots de los buscadores intenta capturar un equipo de robots Hyder, creciendo tres rápido, dentro de un área cuadrada de tamaño cuadrado lleno de obstáculos aleatorios, que depende solo de los comentarios visuales parciales. Esta configuración es un desafío como fanáticos no cooperativos, que continúan persiguiendo a los Hyders más cercanos, solo el 36% puede lograr tasas de éxito.
Con Hamak, un entrenador humano toma el control de robots individuales cuando se necesita selectivamente. Después de solo 40 minutos de orientación, el equipo de robot mostró fuertes comportamientos asociados, como una emboscada y rodeado. En la simulación, la tasa de éxito aumentó en un 84%, e incluso en las pruebas de vehículos terrestres físicos, la tasa de éxito fue sólida al 80%.
"Comenzamos a comportarse a los robots como un verdadero equipo de los compañeros", dijo el escritor y estudiante de posgrado líder en el laboratorio de Chen. "Predecieron los movimientos de los demás y se coordinaron naturalmente, sin órdenes claras".
"Fue realmente emocionante ver, y creemos que abre varias oportunidades para futuros equipos de robots de apoyo y equipos de robot humanos en diversas aplicaciones", dijo la cadena.
Imagine una bandada de drones que se coordina en tiempo real para detectar a los sobrevivientes después de un desastre natural, de manera amplia a través de las áreas de restos de los tractos superpuestos. Cualquier aplicación en la que un pequeño número de humanos necesite enseñar una gran cantidad de robots puede usar este enfoque para cooperar. Los investigadores ya están trabajando en la expansión de HUMAC para grandes equipos de robots y tareas más complejas, descubriendo métodos de interacciones ricas para fortalecer y mejorar el equipo de humanos-robot.
Chen dijo: "La IA no es solo una herramienta para los humanos, es un compañero de equipo. La forma final de superinteligencia no será AI sola ni humanos solos, es inteligencia colectiva de humanos y AIS", dijo Chen. "A medida que se evolucionó a la cooperación humana, la IA será más favorable trabajar entre sí y trabajar con nosotros. Tenemos un paso hacia ese futuro".
Más información:
Habilitación de la cooperación multi-robot de la guía de un solo humano, Zengran Ji et al, para habilitar la cooperación múltiple de la orientación de un solo humano, arxiv (2024). Doi: 10.48550/arxiv.2409.19831
Citación: La teoría docente de la mente para el robot puede aumentar la cooperación (2025, 15 de mayo).
Este documento está sujeto a derechos de autor. Además de cualquier comportamiento imparcial para el propósito de estudios o investigaciones privadas, no se puede volver a interrogarlo sin permiso por escrito. El contenido se proporciona solo para fines de información.

Deja una respuesta