Aller au contenu principal
Adaptation spatio-temporelle multi-cycles dans le travail en équipe humain-robot
RecherchearXiv cs.RO3sem

Adaptation spatio-temporelle multi-cycles dans le travail en équipe humain-robot

1 source couvre ce sujet·Source originale ↗·
Résumé IASource uniqueImpact UE
Adaptation spatio-temporelle multi-cycles dans le travail en équipe humain-robot
▶ Voir sur YouTube

Une équipe de chercheurs a publié sur arXiv (ref. 2404.19670) un framework baptisé RAPIDDS, conçu pour améliorer la collaboration entre humains et robots dans des environnements industriels répétitifs, typiquement les lignes de fabrication. Le système opère sur plusieurs cycles de travail successifs : à chaque cycle, il apprend les comportements spatiaux (trajectoires réelles empruntées par l'opérateur) et temporels (temps effectifs de réalisation de chaque tâche) propres à l'individu face à lui. Ces modèles personnalisés alimentent ensuite deux mécanismes couplés : un planificateur de tâches qui réorganise allocations et séquençages, et un modèle de diffusion qui steer les trajectoires du robot en temps réel pour éviter les zones de proximité critique. Les expériences ont été conduites en simulation, puis sur un bras robotique à 7 degrés de liberté (7-DOF) dans un scénario physique, et validées par une étude utilisateur portant sur 32 participants (n=32). Les résultats montrent une amélioration significative sur des indicateurs objectifs (efficacité, distance de proximité) et subjectifs (fluidité perçue, préférence utilisateur) par rapport à un système non adaptatif.

L'apport central de RAPIDDS réside dans la jonction de deux niveaux d'adaptation longtemps traités séparément dans la littérature. Les méthodes de planification de tâches optimisaient l'allocation et le séquençage mais ignoraient les interférences spatiales en situation de proximité étroite ; les méthodes de niveau motion se concentraient sur l'évitement de collision sans tenir compte du contexte global de la tâche. Unifier les deux, en les calibrant sur un modèle individuel mis à jour cycle après cycle, représente un changement concret de posture pour les déploiements industriels : le robot ne s'adapte pas à un opérateur générique, mais à la personne précise qui travaille ce jour-là, avec ses rythmes et ses habitudes de déplacement.

Ce travail s'inscrit dans un courant plus large d'utilisation des modèles de diffusion pour la génération de trajectoires robotiques, un terrain que des acteurs comme Physical Intelligence (Pi-0) ou NVIDIA (GR00T N2) exploitent côté manipulation généraliste. RAPIDDS se distingue par sa focalisation sur la couche adaptation humain-robot plutôt que sur la polyvalence du modèle de motion. Le papier reste pour l'instant un preprint arXiv non encore soumis à peer-review, et aucun déploiement industriel ni partenariat avec un intégrateur n'est mentionné. La prochaine étape naturelle serait une validation sur des opérateurs en conditions réelles de production, avec une diversité de profils moteurs, pour tester la robustesse de la personnalisation au-delà d'un environnement contrôlé.

À lire aussi

DC-Ada : adaptation décentralisée des capteurs par récompense seule pour des équipes multi-robots hétérogènes
1arXiv cs.RO 

DC-Ada : adaptation décentralisée des capteurs par récompense seule pour des équipes multi-robots hétérogènes

Une équipe de chercheurs propose DC-Ada, une méthode d'adaptation décentralisée pour les équipes multi-robots hétérogènes, publiée sur arXiv (2604.03905). Le problème ciblé est concret : lorsqu'un essaim de robots est déployé, les plateformes diffèrent souvent en modalités de capteurs, en champs de vision, en portée, et en modes de défaillance. Un contrôleur entraîné sur une configuration "nominale" se dégrade significativement dès qu'un robot présente des capteurs manquants ou non conformes, même si la tâche reste identique. DC-Ada répond à ce problème en maintenant la politique partagée préentraînée entièrement gelée, et en adaptant uniquement des transformations d'observation compactes, propres à chaque robot, pour les faire correspondre à une interface d'inférence fixe. La méthode est sans gradient et ne nécessite qu'un minimum de communication : elle repose sur une recherche aléatoire accept/refus avec tirage à nombres aléatoires communs, sous un budget strict de 200 000 pas d'environnement joints par run. Les expériences couvrent trois tâches (logistique d'entrepôt, recherche et sauvetage, cartographie collaborative), quatre régimes d'hétérogénéité (H0 à H3) et cinq graines, comparées à quatre baselines. Les résultats offrent une image nuancée qui mérite d'être soulignée : aucune méthode ne domine sur l'ensemble des tâches et métriques. La normalisation d'observation est la plus robuste en termes de récompense pour la logistique d'entrepôt et compétitive en recherche et sauvetage, tandis que la politique gelée sans adaptation donne les meilleures récompenses en cartographie collaborative. DC-Ada se distingue précisément dans les scénarios de cartographie sévère (H3), où il améliore le taux de complétion de mission. Surtout, il n'exige que des retours scalaires d'équipe, sans fine-tuning de politique ni communication persistante entre agents, ce qui le rend utilisable à l'heure du déploiement sans modifier l'infrastructure existante. Ce travail s'inscrit dans une tendance croissante à traiter la robustesse post-déploiement comme un problème distinct de l'entraînement. Les approches concurrentes incluent les méthodes d'adaptation centralisées, le fine-tuning par domaine, et les techniques de transfert sim-to-réel classiques, qui supposent toutes un accès à la politique ou à des gradients. La limite principale de DC-Ada reste son évaluation sur simulateur 2D déterministe uniquement : la validation sur hardware réel avec des capteurs physiquement défaillants reste à démontrer. Les prochaines étapes logiques sont l'extension à des équipes plus larges, des environnements stochastiques, et une évaluation sur des plateformes physiques hétérogènes comme celles que développent des acteurs européens tels que Enchanted Tools ou les écosystèmes ROS2 industriels.

RecherchePaper
1 source
Remise d'objet robot-humain : étude comparative sur l'orientation et la direction d'approche adaptatives
2arXiv cs.RO 

Remise d'objet robot-humain : étude comparative sur l'orientation et la direction d'approche adaptatives

Des chercheurs ont publié sur arXiv (référence 2604.22378) un framework adaptatif de remise d'objet robot-à-humain qui ajuste dynamiquement la pose de livraison en temps réel, en fonction de la posture de la main de l'opérateur et de la tâche à effectuer ensuite. Contrairement aux systèmes à boucle ouverte qui imposent une orientation fixe, ce système couple une estimation de pose de la main par IA à des trajectoires cinématiquement contraintes, garantissant une approche sécurisée et une orientation optimale à la prise. Une étude utilisateur comparative a été menée sur plusieurs tâches, mesurant à la fois des métriques subjectives (NASA-TLX pour la charge cognitive, Human-Robot Trust Scale pour la confiance perçue) et des données physiologiques objectives via des eye-trackers portables mesurant le taux de clignement des yeux, indicateur validé de stress cognitif. Les résultats montrent que l'alignement dynamique réduit significativement la charge cognitive et le stress physiologique des opérateurs, tout en augmentant leur confiance dans la fiabilité du robot. C'est un résultat concret pour les intégrateurs industriels : la majorité des bras collaboratifs déployés aujourd'hui livrent les objets avec une orientation arbitraire ou prédéfinie, contraignant le worker à corriger la prise, ce qui génère de la fatigue et allonge les temps de cycle. Un système capable d'adapter la pose de remise à l'intention de l'opérateur pourrait réduire les TMS et améliorer le débit sur les lignes d'assemblage à forte interaction humain-robot. Ce travail s'inscrit dans un champ de recherche actif en HRI (Human-Robot Interaction) où la plupart des travaux antérieurs adaptaient seulement la position de livraison, sans tenir compte de l'orientation ni de la tâche aval. Le preprint ne mentionne pas d'industriel partenaire ni de robot commercial spécifique, et les tests restent en environnement contrôlé, le gap lab-to-floor n'est pas encore adressé. Les prochaines étapes naturelles seraient une validation sur plateforme réelle (UR, Franka, ou bras intégré à un humanoïde), et une extension aux environnements bruités où l'estimation de pose de main est moins robuste. Aucun acteur français n'est cité dans ce travail.

RecherchePaper
1 source
M2R2 : représentation robotique multimodale pour la segmentation temporelle des actions
3arXiv cs.RO 

M2R2 : représentation robotique multimodale pour la segmentation temporelle des actions

Des chercheurs ont publié fin avril 2025 sur arXiv (2504.18662) un extracteur de représentations multimodal baptisé M2R2 (MultiModal Robotic Representation for Robotic TAS), conçu pour la segmentation temporelle d'actions (TAS) en robotique. L'approche combine des informations proprioceptives (encodeurs, capteurs force-couple, état des articulations) et extéroceptives (caméras RGB) dans un extracteur de features commun, accompagné d'une stratégie d'entraînement inédite permettant la réutilisation de ces représentations sur plusieurs architectures de segmentation indépendantes. Les résultats annoncés positionnent M2R2 à l'état de l'art sur trois jeux de données de référence en robotique : REASSEMBLE (assemblage de composants), (Im)PerfectPour (versage de liquide) et JIGSAWS (chirurgie robotique laparoscopique simulée). Une étude d'ablation extensive quantifie la contribution respective de chaque modalité. L'intérêt principal de M2R2 réside dans la modularité de son extracteur : les approches multimodales existantes en robotique fusionnaient les modalités directement à l'intérieur du modèle de segmentation, rendant les features non réutilisables entre architectures. Ici, le découplage extracteur/modèle de TAS ouvre la voie à une bibliothèque de représentations partageable, ce qui réduit le coût de réentraînement lors du changement de tâche ou de robot. Sur les scénarios à faible visibilité d'objet, les extracteurs purement visuels issus du computer vision chutent en performance, là où l'ajout de la proprioception maintient la robustesse. C'est un résultat concret sur la fragilité des approches vision-seule dans des environnements industriels ou chirurgicaux réels, où occlusions et éclairage variable sont la norme. La segmentation temporelle d'actions est un verrou historique pour l'autonomie des robots manipulateurs : sans identifier les frontières entre skills (saisir, aligner, visser...), il est impossible de planifier, corriger ou réutiliser des séquences de gestes. En chirurgie robotique, JIGSAWS est le benchmark de référence depuis 2016, utilisé notamment dans les travaux autour des plateformes da Vinci (Intuitive Surgical). En robotique industrielle, des acteurs comme Wandercraft ou les équipes de manipulation de Boston Dynamics s'appuient sur des approches similaires pour les transitions de phases motrices. M2R2 reste à ce stade une contribution de recherche académique sans déploiement industriel annoncé, mais son extracteur réutilisable représente un candidat sérieux pour des pipelines d'imitation learning dans lesquels labelliser chaque skill manuellement est le principal goulot d'étranglement.

UEL'extracteur modulaire M2R2 pourrait bénéficier aux équipes de manipulation françaises (notamment Wandercraft) en réduisant le coût de labellisation dans les pipelines d'imitation learning, mais reste une contribution académique sans déploiement industriel annoncé.

RecherchePaper
1 source
Vers un contrôle adaptatif des robots humanoïdes par distillation multi-comportements et affinage renforcé
4arXiv cs.RO 

Vers un contrôle adaptatif des robots humanoïdes par distillation multi-comportements et affinage renforcé

Une équipe de chercheurs propose Adaptive Humanoid Control (AHC), un framework de contrôle locomoteur pour humanoïdes publié sur arXiv (2511.06371v3). Le problème de départ est structurel : les méthodes dominantes entraînent une politique séparée pour chaque compétence (se relever, marcher, courir, sauter), générant des contrôleurs rigides qui échouent dès que le terrain devient irrégulier. AHC y répond en deux phases : d'abord, plusieurs politiques primaires sont entraînées puis fusionnées par distillation multi-comportements en un contrôleur unique capable de commuter dynamiquement selon le contexte ; ensuite, un affinage par renforcement avec retours en ligne consolide l'adaptabilité sur terrains variés. Le système est validé en simulation et en conditions réelles sur le robot Unitree G1 d'Unitree Robotics. Pour les intégrateurs et les décideurs industriels, la promesse est concrète : un seul contrôleur couvrant l'ensemble des comportements locomoteurs réduit la complexité opérationnelle et supprime les transitions manuelles entre modes. Du côté de la recherche, le résultat le plus notable est que la distillation combinée à un fine-tuning par RL en ligne permet de réduire partiellement le sim-to-real gap sans ré-entraînement complet. La réserve à formuler : le papier ne publie pas de métriques quantitatives détaillées (taux de succès par terrain, fréquence de chute), ce qui rend difficile la comparaison objective avec d'autres approches. Le Unitree G1 (1,27 m, environ 35 kg, 16 000 dollars) est devenu depuis 2024 une plateforme de recherche de référence pour ce type de travaux. AHC s'inscrit dans une compétition internationale où Physical Intelligence (Pi-0), NVIDIA (GR00T N2), Figure (Helix) et Boston Dynamics cherchent tous à produire des politiques locomotrices généralisables hors environnement contrôlé. L'approche par distillation multi-politiques rappelle les travaux de curriculum learning menés à Berkeley et CMU, et l'affinage par RL en ligne emprunte aux méthodologies RLHF adaptées à la robotique physique. Aucun partenariat industriel ni calendrier de déploiement n'est annoncé ; le projet en est au stade de la démonstration académique.

RecherchePaper
1 source