Aller au contenu principal
Génération de mouvement réactif par fonctions de potentiel neuronal à phase variable
RecherchearXiv cs.RO2sem

Génération de mouvement réactif par fonctions de potentiel neuronal à phase variable

1 source couvre ce sujet·Source originale ↗·
Résumé IASource uniqueImpact UE

Des chercheurs présentent PNPF (Phase-varying Neural Potential Functions), un nouveau cadre d'apprentissage par démonstration (LfD) pour la génération de mouvements robotiques réactifs, publié sur arXiv (2504.26450v1) fin avril 2026. L'approche conditionne une fonction potentielle neuronale sur une variable de phase estimée directement depuis la progression d'état du robot, et non depuis une entrée temporelle en boucle ouverte. Le système génère des champs de vecteurs locaux assurant un contrôle stable et réactif, y compris pour des trajectoires avec intersections, des tâches périodiques, et des mouvements complets en 6D (position et orientation). Des validations en manipulation robotique en temps réel sous perturbations externes sont rapportées, avec des performances supérieures aux méthodes de référence sur les trajectoires à intersections.

L'enjeu central est la robustesse face aux perturbations dans des tâches non triviales. Les systèmes dynamiques du premier ordre échouent dès que la trajectoire se croise, car un même état de position peut correspondre à deux directions de mouvement différentes, comme lors du tracé d'un "8". Les approches du second ordre intègrent la vitesse pour lever cette ambiguïté, mais deviennent fragiles aux perturbations près des intersections, et peuvent échouer lorsque des paires position-vitesse quasi-identiques correspondent à des mouvements futurs distincts. Les méthodes à phase temporelle en boucle ouverte, elles, ne permettent pas de récupérer après une perturbation. PNPF contourne ce triple compromis : la variable de phase, inférée depuis la progression observée de l'état, donne au robot un ancrage dans la tâche sans dépendre d'une horloge externe, ce qui est critique pour des environnements industriels réels où vibrations, interventions humaines et aléas de convoyeur perturbent régulièrement les trajectoires planifiées.

Les méthodes LfD basées sur des systèmes dynamiques ont émergé comme alternative légère aux planificateurs de trajectoire classiques, apprenant des politiques stables depuis quelques démonstrations seulement (SEDS, DMP, ProDMP). PNPF s'inscrit dans cette lignée tout en ciblant le maillon faible commun à ces approches : la gestion des revisites d'état. Les concurrents directs incluent les Dynamical Movement Primitives (DMP), les réseaux neuronaux à fonctions potentielles sans phase, et les récentes approches de contrôle par imitation basées sur des transformeurs. La publication est arxiv uniquement, sans code ni démo publique annoncée à ce stade. Les suites logiques seraient une validation sur bras industriel standard (Franka, UR, KUKA) et une intégration dans des pipelines d'apprentissage par imitation pour la manipulation fine, notamment pour des tâches d'assemblage où les trajectoires réelles ne sont jamais parfaitement répétables.

À lire aussi

AGILE : reconstruction des interactions main-objet à partir de vidéo par génération à base d'agents
1arXiv cs.RO 

AGILE : reconstruction des interactions main-objet à partir de vidéo par génération à base d'agents

Une équipe de chercheurs a présenté AGILE (arXiv:2602.04672v3), un framework de reconstruction d'interactions dynamiques main-objet à partir de vidéos monoculaires, ciblant deux applications majeures : la collecte de données pour la manipulation dextère en robotique et la création de jumeaux numériques pour la simulation et la réalité virtuelle. La méthode s'attaque à deux verrous techniques qui paralysent les approches existantes : d'une part, le rendu neuronal classique produit sous forte occultation des géométries fragmentées, inutilisables directement en simulation physique ; d'autre part, l'initialisation par Structure-from-Motion (SfM) est notoriellement fragile sur des vidéos captées en conditions réelles. AGILE bascule du paradigme de reconstruction vers ce que les auteurs appellent une "génération agentique" : un Vision-Language Model (VLM) pilote un modèle génératif pour synthétiser un mesh objet complet, fermé (watertight) et texturé haute fidélité, sans dépendre du contenu vidéo occulté. Une stratégie dite "anchor-and-track" initialise la pose de l'objet sur une unique frame d'interaction via un modèle fondation, puis propage cette pose temporellement en exploitant la similarité visuelle entre l'asset généré et les frames vidéo. Une optimisation finale dite contact-aware intègre des contraintes sémantiques, géométriques et de stabilité d'interaction pour garantir la plausibilité physique. Sur les benchmarks HO3D, DexYCB et ARCTIC, AGILE surpasse les baselines en précision géométrique globale. L'intérêt industriel de cette approche réside dans la production d'assets directement exploitables en simulation, une propriété validée par les auteurs via du retargeting real-to-sim pour des applications robotiques. C'est précisément le point de friction qui freinait l'adoption des pipelines de reconstruction vidéo dans les boucles d'entraînement de politiques de manipulation : les meshes obtenus par NeRF ou reconstruction multi-vues classique nécessitaient un travail de remaillage manuel avant d'être injectables dans un moteur physique comme MuJoCo ou Isaac Sim. En contournant le SfM, AGILE devient également utilisable sur des données de terrain non contrôlées, ce qui ouvre la voie à la collecte passive de démos humaines à grande échelle, un prérequis pour les approches VLA (Vision-Language-Action) qui peinent encore à obtenir suffisamment de trajectoires dextères annotées. Le problème de la reconstruction main-objet est étudié depuis plusieurs années, avec des datasets de référence comme HO-3D (2020) et DexYCB (2021), et des méthodes basées sur les modèles paramétriques MANO pour la main. L'originalité d'AGILE est de déporter la reconstruction de l'objet vers une génération guidée, plutôt que de l'estimer directement depuis le signal vidéo dégradé. Les concurrents directs sont les méthodes NeRF-based adaptées aux scènes dynamiques (D-NeRF, HO-NeRF) et les pipelines SfM+MVS classiques, tous sensibles aux occultations. Du côté des acteurs industriels, cette direction intéresse directement les équipes travaillant sur la télé-opération et l'imitation learning pour bras robotiques dextères, notamment chez Dexterous Robotics, Physical Intelligence (Pi) ou les labos académiques proches de Figure et Apptronik. Le projet dispose d'une page dédiée (agile-hoi.github.io) ; aucun code ni dataset supplémentaire n'est annoncé à ce stade.

RecherchePaper
1 source
Raffinement de démonstrations accélérées par contrôle itératif incrémental pour l'apprentissage par imitation à contact riche
2arXiv cs.RO 

Raffinement de démonstrations accélérées par contrôle itératif incrémental pour l'apprentissage par imitation à contact riche

Une équipe de chercheurs a publié en avril 2026 sur arXiv (arXiv:2604.16850) une méthode baptisée I2RLC (Incremental Iterative Reference Learning Control) pour générer automatiquement des démonstrations robotiques rapides et précises, sans intervention humaine à haute vitesse. Le constat de départ est simple : en apprentissage par imitation (IL), les humains ne peuvent pas démontrer physiquement une tâche à 5x ou 10x leur vitesse naturelle, et accélérer naïvement un enregistrement dégrade la dynamique de contact et crée des erreurs de suivi qui corrompent les données d'entraînement. L'I2RLC résout ce problème en augmentant progressivement la vitesse d'exécution tout en corrigeant itérativement la trajectoire de référence à partir des erreurs observées. La méthode a été validée sur robot réel, sur deux tâches à contact riche : effacement de tableau blanc et insertion cheville-trou (peg-in-hole), en utilisant un système de téleopération composé d'un bras suiveur à contrôle de compliance et d'un leader haptic imprimé en 3D. Les résultats atteignent des démonstrations 10x plus rapides avec réduction des erreurs de suivi, et I2RLC améliore la similarité spatiale aux trajectoires originales de 22,5 % en moyenne par rapport à la version non-incrémentale (IRLC), sur trois tâches et plusieurs vitesses (3x à 10x). Les politiques entraînées sur ces données atteignent 100 % de taux de réussite sur la tâche peg-in-hole, y compris pour des positions non vues à l'entraînement, avec des forces de contact inférieures. Ce résultat adresse un angle mort fréquent dans le développement des politiques d'imitation : la qualité des démonstrations elle-même. La grande majorité des approches IL (Diffusion Policy, ACT, Pi-0) suppose des démos propres et représentatives, sans se préoccuper du fossé entre la vitesse humaine et la vitesse de déploiement réelle. Ici, la généralisation à des positions non vues avec 100 % de succès constitue un signal concret de robustesse, pas simplement une performance en conditions contrôlées. Pour les intégrateurs industriels, l'enjeu est direct : si l'on peut automatiser la génération de trajectoires rapides à partir de démos lentes, le coût de collecte de données pour des tâches d'assemblage ou de manutention chute significativement. L'apprentissage par imitation pour la manipulation à contact riche est un axe de recherche très actif depuis 2022-2023, porté par des travaux comme ACT (Stanford), Diffusion Policy (MIT/Columbia) et les architectures VLA type Pi-0 (Physical Intelligence). Le problème de la "vitesse des démos" reste cependant peu traité dans la littérature. L'I2RLC s'inscrit dans une lignée de méthodes de contrôle itératif (ILC) adaptées à la robotique apprenante. Aucune entreprise commerciale n'est citée dans cette publication académique, mais les applications industrielles naturelles touchent l'assemblage électronique, le câblage, et toute manipulation nécessitant précision et cadence. Les prochaines étapes probables incluent une extension aux politiques diffusives modernes et une validation sur des tâches multi-étapes en environnement non structuré.

RecherchePaper
1 source
SBAMP : planification de mouvement adaptative par échantillonnage
3arXiv cs.RO 

SBAMP : planification de mouvement adaptative par échantillonnage

Des chercheurs ont publié sur arXiv (référence 2511.12022, version 3) un cadre hybride de planification de mouvement baptisé SBAMP (Sampling-Based Adaptive Motion Planning), conçu pour les robots autonomes évoluant dans des environnements dynamiques. L'approche fusionne un planificateur global basé sur RRT (Rapidly-exploring Random Tree star), qui génère des trajectoires quasi-optimales, avec un contrôleur local de type SEDS (Stable Estimator of Dynamical Systems) intégrant une optimisation sous contraintes en temps réel. Ce qui distingue SBAMP des implémentations SEDS classiques : aucune donnée d'entraînement préalable n'est requise, le contrôleur s'ajuste à la volée via une optimisation contrainte légère directement embarquée dans la boucle de contrôle. Les expériences ont été menées à la fois en simulation et sur une plateforme matérielle RoboRacer, avec des tests de récupération après perturbations, de contournement d'obstacles et de tenue de performance en conditions dynamiques. L'enjeu technique adressé est fondamental en robotique mobile : les planificateurs globaux comme RRT produisent de bonnes trajectoires hors ligne mais peinent à réagir aux perturbations en temps réel, tandis que les approches à systèmes dynamiques comme SEDS offrent une réactivité fluide mais nécessitent une optimisation offline sur données. SBAMP propose un compromis opérationnel : la structure de chemin global est préservée, mais le robot peut s'en écarter localement de manière stable au sens de Lyapunov, ce qui garantit la convergence vers l'objectif sans oscillations incontrôlées. Pour un intégrateur industriel ou un développeur de systèmes de navigation, l'absence de phase de pré-entraînement réduit significativement le coût de déploiement sur de nouveaux environnements. Il convient de noter que les résultats présentés restent au stade académique, sur une plateforme de recherche compacte, sans validation à l'échelle industrielle ni benchmark comparatif public. SBAMP s'inscrit dans un champ de recherche dense sur la planification hybride, aux côtés de travaux récents comme MPPI (Model Predictive Path Integral) ou TEB (Timed Elastic Band), qui visent tous à réconcilier optimalité globale et réactivité locale. RRT* est un algorithme établi depuis les travaux de Karaman et Frakcas (2011), et SEDS est utilisé en robotique depuis une décennie pour la reproduction de gestes appris. La contribution de SBAMP réside dans leur couplage sans supervision, un point non trivial. Les auteurs n'annoncent pas de transfert industriel immédiat ni de partenariat commercial, et la prochaine étape naturelle serait une validation sur robots à plus haute dynamique (manipulateurs, AMR en entrepôt) et dans des environnements avec obstacles mobiles denses.

RecherchePaper
1 source
Nouveaux algorithmes pour la construction de variétés de contact régulièrement différentiables et vectorisables
4arXiv cs.RO 

Nouveaux algorithmes pour la construction de variétés de contact régulièrement différentiables et vectorisables

Un préprint déposé sur arXiv le 21 avril 2026 (identifiant 2604.17538) propose deux algorithmes destinés à rendre la détection de collision dans les simulations robotiques à la fois lissément différentiable et massivement vectorisable. Les auteurs ciblent un goulet d'étranglement bien identifié dans les pipelines de simulation standard : lorsqu'un robot interagit avec son environnement en mode contact-riche (manipulation d'objets, locomotion bipède, assemblage industriel), le calcul de gradients utiles au premier et second ordre se heurte à des pathologies à chacune des trois étapes classiques, soit la détection de collision, la dynamique de contact et l'intégration temporelle. La contribution porte ici exclusivement sur la première étape. L'équipe introduit une classe de primitives SDF (signed distance function, ou fonction de distance signée) analytiques à haute expressivité, capables de représenter des surfaces 3D complexes avec une efficacité de calcul élevée, ainsi qu'une routine inédite de génération de variétés de contact (contact manifold) exploitant cette représentation géométrique. L'enjeu est significatif pour la communauté de la robotique de contact. Aujourd'hui, les méthodes d'ordre zéro, essentiellement des approches par échantillonnage stochastique comme le CEM ou les politiques évolutionnaires, dominent sur les tâches contact-riches précisément parce que les gradients issus des simulateurs existants sont soit discontinus, soit trop bruités pour être exploitables. Si les résultats annoncés dans ce préprint se confirment, des solveurs d'ordre supérieur (gradient descent, méthodes de Newton) deviendraient applicables à ces scénarios, avec des gains potentiels substantiels en vitesse de convergence et en efficacité computationnelle. La propriété de vectorisation massive est également pertinente pour les architectures GPU modernes, ce qui ouvre la voie à un parallélisme étendu dans les boucles de simulation utilisées pour l'apprentissage par renforcement. Ce travail s'inscrit dans un effort de recherche plus large visant à rendre les simulateurs physiques différentiables de bout en bout, prérequis reconnu pour réduire le sim-to-real gap sur des comportements impliquant du contact. Des environnements comme MuJoCo (DeepMind), Drake (Toyota Research Institute) ou Brax (Google) ont posé des jalons dans cette direction, chacun avec des compromis différents entre fidélité physique et différentiabilité. L'approche SDF analytique proposée ici se distingue par sa vectorisabilité, une propriété moins prioritaire dans les travaux antérieurs. Il s'agit d'un preprint non encore soumis à peer review ; les benchmarks comparatifs et les validations expérimentales sur hardware réel restent à produire, et la robustesse de la méthode sur des géométries industrielles complexes demeure à démontrer.

RecherchePaper
1 source