Aller au contenu principal
Conception de processus par personas pour des environnements de travail humain-robot inclusifs pour les personnes en situation de handicap
RecherchearXiv cs.RO2sem

Conception de processus par personas pour des environnements de travail humain-robot inclusifs pour les personnes en situation de handicap

1 source couvre ce sujet·Source originale ↗·
Résumé IASource uniqueImpact UE

Une équipe de recherche publie sur arXiv (arXiv:2604.26527) une méthodologie de conception de postes de travail humain-robot adaptés aux personnes en situation de handicap, reposant sur une approche dite "par personas". Le principe : plutôt que de concevoir un système pour un individu spécifique, les chercheurs abstraient les handicaps les plus fréquents en milieu professionnel sous forme de personas typiques, puis décomposent chaque processus de travail en actions séquentielles. Pour chaque combinaison action-persona, des stratégies d'adaptation sont développées par design thinking, classées selon le niveau d'assistance robotique requis, puis encodées dans un arbre de comportement (behavior tree). Le système a été démontré sur une tâche de pliage de boîtes en collaboration avec un robot, en couvrant sept personas présentant des handicaps différents.

L'enjeu industriel est réel : les systèmes HRI existants pour l'intégration des travailleurs handicapés sont aujourd'hui quasi exclusivement personnalisés, ce qui les rend difficilement scalables au-delà d'un utilisateur unique. L'approche par personas vise à combler ce manque en permettant une conception "universelle" sans nécessiter une expertise clinique pointue pour chaque déploiement. L'utilisation d'arbres de comportement offre en outre une adaptation dynamique en ligne, le robot ajuste son niveau d'intervention en temps réel selon le profil identifié de l'opérateur. Les auteurs rapportent des "résultats prometteurs", formulation prudente qui reflète le stade préliminaire de la démonstration : une seule tâche de laboratoire, sept personas simulées, sans validation terrain réelle.

Ce travail s'inscrit dans un champ de recherche en croissance rapide, à l'intersection de la cobotique industrielle et du design inclusif. Le paradigme du "universal design", issu de l'architecture et de l'ergonomie, est ici transposé à la robotique collaborative, un transfert encore peu documenté dans la littérature HRI. Aucun acteur industriel ni partenaire terrain n'est mentionné dans ce preprint, ce qui limite la portée immédiate des conclusions. Les prochaines étapes naturelles seraient une validation avec des utilisateurs réels en situation de handicap, et une extension à des processus industriels plus complexes que le pliage de carton. Du côté européen, des acteurs comme Enchanted Tools ou des laboratoires spécialisés en robotique d'assistance (INRIA, DLR) pourraient trouver dans cette approche un cadre méthodologique directement applicable à leurs travaux sur l'autonomie et l'adaptation comportementale.

Impact France/UE

Le cadre méthodologique proposé pourrait être adopté par des laboratoires européens comme l'INRIA ou le DLR pour structurer leurs travaux sur l'adaptation comportementale des cobots en contexte inclusif.

À lire aussi

Incertitude, flou et ambiguïté dans l'interaction humain-robot : pourquoi la conceptualisation est essentielle
1arXiv cs.RO 

Incertitude, flou et ambiguïté dans l'interaction humain-robot : pourquoi la conceptualisation est essentielle

Une équipe de chercheurs a soumis fin avril 2026 sur arXiv (référence 2604.15339) un article proposant un cadre conceptuel unifié pour trois notions centrales de l'interaction humain-robot : l'incertitude, le flou et l'ambiguïté. Le constat de départ est empirique : dans la littérature HRI, ces trois termes sont régulièrement définis de manière contradictoire d'une étude à l'autre, voire utilisés comme synonymes. Les auteurs partent des définitions lexicographiques, analysent les distinctions et les relations entre ces concepts dans le contexte spécifique du HRI, illustrent chaque notion par des exemples concrets, puis démontrent comment ce socle cohérent permet de concevoir de nouvelles méthodes et d'évaluer les méthodologies existantes avec plus de rigueur. L'enjeu n'est pas seulement terminologique. Quand deux équipes utilisent le mot "ambiguïté" pour désigner des phénomènes différents, leurs résultats expérimentaux deviennent non comparables, et la capitalisation théorique du domaine ralentit. Pour un intégrateur ou un concepteur de systèmes robotiques interactifs, cette confusion a des conséquences pratiques : les métriques d'évaluation divergent, les benchmarks perdent leur valeur de référence, et le transfert de résultats de laboratoire vers des déploiements réels est fragilisé. En établissant des frontières claires entre ces trois concepts, le papier prépare le terrain pour des protocoles d'évaluation reproductibles et des méta-analyses plus robustes, deux prérequis pour une maturation industrielle du HRI. Ce travail s'inscrit dans un mouvement plus large de structuration académique du HRI, discipline jeune à l'intersection de la robotique, des sciences cognitives et de la linguistique. Le problème de l'incohérence terminologique y est identifié depuis plusieurs années, notamment dans des travaux sur la communication intentionnelle et la résolution de références entre humains et robots. Les auteurs ne proposent pas ici un nouveau système technique mais une infrastructure conceptuelle, ce qui est typiquement le type de contribution qui précède une normalisation de fait dans un domaine. Les prochaines étapes naturelles seraient l'adoption de ce cadre dans des conférences de référence comme HRI, RO-MAN ou HRI Workshop de l'IEEE, et son intégration dans des protocoles d'évaluation standardisés pour les assistants robotiques en environnement industriel ou de service.

RecherchePaper
1 source
PECMAN : navigation collaborative multi-agents par perception en environnements inconnus
2arXiv cs.RO 

PECMAN : navigation collaborative multi-agents par perception en environnements inconnus

Des chercheurs ont publié sur arXiv (réf. 2605.09344) PECMAN, un système de navigation collaborative multi-agents conçu pour des environnements inconnus et dynamiques. L'algorithme s'appuie sur SMART-3D, un planificateur de trajectoires fondé sur la structure RRT* (Rapidly-exploring Random Tree) capable de reconfigurer en temps réel son arbre de planification dès qu'un obstacle ou une nouvelle structure est détecté : plutôt que de reconstruire l'arbre depuis zéro, SMART-3D élague les noeuds et arêtes invalidés, puis répare les sous-arbres déconnectés à des points critiques appelés "hot-nodes". PECMAN étend ce mécanisme à la coopération multi-agents via deux stratégies combinées : une morphologie d'arbre distribuée, où chaque robot replanifie localement, et une perception partagée, par laquelle chaque agent diffuse les structures nouvellement découvertes à ses coéquipiers, leur permettant de replanifier proactivement même dans des zones encore inexplorées. Évalué sur 28 000 simulations couvrant sept scénarios 2D distincts, le système atteint jusqu'à 52 % de réduction du temps de complétion collective avec un taux de succès proche de 100 %. Les expériences ont également été validées sur deux robots autonomes réels dans un environnement de bâtiment. La contribution architecturale centrale est la perception partagée sans coordinateur central : chaque agent enrichit la carte collective en temps réel, ce qui réduit les replanifications redondantes et la latence de réaction de la flotte entière. Pour les intégrateurs de systèmes AMR (Autonomous Mobile Robots) en logistique ou en inspection industrielle, c'est précisément le verrou qui bloque le passage à l'échelle des flottes dans des environnements semi-structurés. La validation physique, même limitée à deux robots, apporte un début de réponse au problème classique du sim-to-real gap, l'un des obstacles majeurs au déploiement de planificateurs collaboratifs en conditions réelles. La réduction de 52 % du temps de complétion est prometteuse, mais mérite d'être interprétée avec prudence : les simulations 2D ne capturent pas la complexité des environnements 3D, et les scénarios de test ne sont pas détaillés dans l'abstract. Les approches multi-agents existantes comme CBS (Conflict-Based Search) ou ORCA supposent généralement des cartes connues à l'avance, ce qui les rend difficilement applicables à une exploration progressive. SMART-3D avait résolu ce problème pour un agent unique ; PECMAN en est l'extension coopérative naturelle. Aucun partenaire industriel ni déploiement commercial n'est mentionné dans la publication, qui reste une contribution académique. Les prochaines étapes logiques seraient des tests sur des flottes plus larges et en environnements 3D réels, conditions nécessaires pour envisager un transfert vers des entrepôts multi-niveaux ou des bâtiments industriels complexes, où les systèmes AMR actuels peinent encore à coordonner leur navigation de façon autonome.

RecherchePaper
1 source
Calibration main-oeil en continu pour la manipulation robotique en environnement ouvert
3arXiv cs.RO 

Calibration main-oeil en continu pour la manipulation robotique en environnement ouvert

Une équipe de chercheurs a publié sur arXiv (arXiv:2604.15814) un framework d'étalonnage main-oeil continu (continual hand-eye calibration) destiné aux robots manipulateurs déployés dans des environnements ouverts et changeants. Le problème adressé est précis : les modèles de calibration basés sur le deep learning perdent leur précision sur les scènes précédemment apprises dès qu'ils s'adaptent à un nouvel environnement, un phénomène connu sous le nom d'oubli catastrophique (catastrophic forgetting). Le framework proposé repose sur deux composants distincts. Le premier, SARS (Spatial-Aware Replay Strategy), construit un buffer de rejeu géométriquement uniforme qui couvre l'espace de poses de chaque scène sans redondance, en sélectionnant les points de vue les plus informatifs plutôt que les frames adjacentes. Le second, SPDD (Structure-Preserving Dual Distillation), décompose la connaissance de localisation en deux niveaux, la structure grossière de la scène et la précision fine de pose, puis applique une distillation séparée pour préserver les deux dimensions lors des adaptations successives. Les expériences sur plusieurs datasets publics confirment que le modèle maintient la précision sur les scènes passées tout en s'adaptant aux nouvelles. L'enjeu industriel est réel : un bras manipulateur recalibré pour une nouvelle cellule de production ne devrait pas perdre sa précision sur les postes précédents. C'est le problème quotidien des intégrateurs qui déploient des robots dans des lignes flexibles ou multi-produits. La plupart des approches actuelles imposent soit un recalibrage complet à chaque changement de scène, soit acceptent une dégradation progressive des performances sur les configurations antérieures. Ce travail propose une voie intermédiaire via l'apprentissage continu structuré, sans recourir à un replay naïf qui ne suffit pas à enrayer l'oubli. L'approche par distillation duale est notamment pertinente car elle distingue deux types d'erreur, positionnement global et précision locale, ce que les méthodes monolithiques ne font pas. Ce travail s'inscrit dans un champ de recherche en forte activité depuis 2022, où la robustesse de la calibration visuelle en conditions réelles est identifiée comme l'un des goulots d'étranglement pour le passage à l'échelle des manipulateurs autonomes. La localisation visuelle pour la calibration main-oeil emprunte aux techniques de Visual Place Recognition (VPR) et de relocalisation utilisées en navigation mobile, mais les contraintes de précision sous-millimétrique propres à la manipulation y ajoutent une difficulté spécifique. Parmi les acteurs qui travaillent sur des problèmes adjacents figurent des équipes comme Physical Intelligence (pi) avec Pi-0, ou des laboratoires comme le Stanford AI Lab et ETH Zurich sur la sim-to-real calibration. En France, des acteurs comme Enchanted Tools et Pollen Robotics, qui développent des plateformes d'interaction physique, sont directement concernés par ce type de verrou. La prochaine étape naturelle pour ce framework serait une validation sur des données industrielles réelles et une intégration dans des pipelines de déploiement multi-cellules, que les auteurs n'ont pas encore annoncée.

UEEnchanted Tools et Pollen Robotics, qui développent des plateformes de manipulation physique en France, sont directement concernés par ce verrou de calibration continue, susceptible de réduire les coûts de redéploiement en production flexible.

RecherchePaper
1 source
Adaptation spatio-temporelle multi-cycles dans le travail en équipe humain-robot
4arXiv cs.RO 

Adaptation spatio-temporelle multi-cycles dans le travail en équipe humain-robot

Une équipe de chercheurs a publié sur arXiv (ref. 2404.19670) un framework baptisé RAPIDDS, conçu pour améliorer la collaboration entre humains et robots dans des environnements industriels répétitifs, typiquement les lignes de fabrication. Le système opère sur plusieurs cycles de travail successifs : à chaque cycle, il apprend les comportements spatiaux (trajectoires réelles empruntées par l'opérateur) et temporels (temps effectifs de réalisation de chaque tâche) propres à l'individu face à lui. Ces modèles personnalisés alimentent ensuite deux mécanismes couplés : un planificateur de tâches qui réorganise allocations et séquençages, et un modèle de diffusion qui steer les trajectoires du robot en temps réel pour éviter les zones de proximité critique. Les expériences ont été conduites en simulation, puis sur un bras robotique à 7 degrés de liberté (7-DOF) dans un scénario physique, et validées par une étude utilisateur portant sur 32 participants (n=32). Les résultats montrent une amélioration significative sur des indicateurs objectifs (efficacité, distance de proximité) et subjectifs (fluidité perçue, préférence utilisateur) par rapport à un système non adaptatif. L'apport central de RAPIDDS réside dans la jonction de deux niveaux d'adaptation longtemps traités séparément dans la littérature. Les méthodes de planification de tâches optimisaient l'allocation et le séquençage mais ignoraient les interférences spatiales en situation de proximité étroite ; les méthodes de niveau motion se concentraient sur l'évitement de collision sans tenir compte du contexte global de la tâche. Unifier les deux, en les calibrant sur un modèle individuel mis à jour cycle après cycle, représente un changement concret de posture pour les déploiements industriels : le robot ne s'adapte pas à un opérateur générique, mais à la personne précise qui travaille ce jour-là, avec ses rythmes et ses habitudes de déplacement. Ce travail s'inscrit dans un courant plus large d'utilisation des modèles de diffusion pour la génération de trajectoires robotiques, un terrain que des acteurs comme Physical Intelligence (Pi-0) ou NVIDIA (GR00T N2) exploitent côté manipulation généraliste. RAPIDDS se distingue par sa focalisation sur la couche adaptation humain-robot plutôt que sur la polyvalence du modèle de motion. Le papier reste pour l'instant un preprint arXiv non encore soumis à peer-review, et aucun déploiement industriel ni partenariat avec un intégrateur n'est mentionné. La prochaine étape naturelle serait une validation sur des opérateurs en conditions réelles de production, avec une diversité de profils moteurs, pour tester la robustesse de la personnalisation au-delà d'un environnement contrôlé.

RecherchePaper
1 source