Aller au contenu principal
SLAM comme problème de contrôle stochastique à information partielle : solutions optimales et approximations rigoureuses
RecherchearXiv cs.RO2sem

SLAM comme problème de contrôle stochastique à information partielle : solutions optimales et approximations rigoureuses

1 source couvre ce sujet·Source originale ↗·
Résumé IASource uniqueImpact UE

Des chercheurs présentent sur arXiv (réf. 2604.21693, avril 2026) un cadre théorique qui reformule le SLAM actif comme un problème de contrôle stochastique optimal sous information partielle. Le SLAM (Simultaneous Localization and Mapping) désigne la capacité d'un robot à construire une carte de son environnement tout en s'y localisant simultanément, un problème fondamental en robotique mobile. Dans sa version "active", le robot doit en plus décider quels mouvements effectuer pour maximiser la qualité de sa carte et la précision de sa pose. Les auteurs formalisent ce problème sous la forme d'un processus de décision markovien partiellement observable (POMDP) non standard, intégrant de façon rigoureuse les modèles de mouvement, de perception et de représentation de la carte. Ils introduisent une nouvelle fonction de coût d'exploration qui encode explicitement la géométrie de l'état du robot au moment d'évaluer les actions de collecte d'information. À partir de cette formulation, ils dérivent des solutions approchées quasi-optimales avec garanties formelles. Une étude numérique extensive valide l'approche en utilisant des algorithmes d'apprentissage par renforcement standards pour apprendre ces politiques.

L'intérêt principal de ce travail réside dans la rigueur théorique qu'il apporte à un domaine dominé par des heuristiques empiriques. La plupart des approches d'exploration autonome actuelles, qu'elles reposent sur les frontières d'exploration (frontier-based), la maximisation d'information mutuelle, ou des métriques ad hoc, manquent de garanties formelles sur la qualité des solutions produites. En reformulant le problème dans le cadre du contrôle stochastique optimal et des POMDPs, les auteurs fournissent des conditions de régularité et des bornes d'approximation qui permettent de certifier la quasi-optimalité des politiques apprises. Pour les équipes R&D travaillant sur des AMR (robots mobiles autonomes), des drones cartographiques ou des robots d'inspection industrielle, cette approche ouvre la voie à des algorithmes d'exploration dont le comportement est formellement auditable, ce qui est non trivial dans les contextes de certification.

Le SLAM est un problème étudié depuis les années 1990, avec des approches classiques basées sur les filtres de Kalman étendus (EKF-SLAM) ou les filtres particulaires (FastSLAM), puis des méthodes graphiques comme ORB-SLAM3 ou RTAB-Map qui dominent aujourd'hui les implémentations industrielles. Les approches neuronales, comme les NeRF et Gaussian Splatting adaptés au SLAM temps réel, émergent en parallèle. Ce papier, encore préprint non évalué par les pairs, ne remplace pas ces implémentations mais propose un cadre décisionnel qui les surplombe. Les laboratoires actifs sur ces questions incluent MIT CSAIL, ETH Zurich (Autonomous Systems Lab) et l'équipe de Joan Solà. Les prochaines étapes naturelles seraient une validation expérimentale sur robot réel et une extension vers les environnements dynamiques, deux points non traités dans cette version arXiv.

Dans nos dossiers

À lire aussi

PISTO : inférence proximale pour l'optimisation stochastique de trajectoires
1arXiv cs.RO 

PISTO : inférence proximale pour l'optimisation stochastique de trajectoires

Des chercheurs ont publié sur arXiv (arXiv:2605.07215) un algorithme de planification de trajectoires robotiques appelé PISTO (Proximal Inference for Stochastic Trajectory Optimization). Leur contribution centrale est de démontrer que STOMP, méthode stochastique classique, minimise implicitement une divergence KL par rapport à une distribution de trajectoires de Boltzmann, révélant une structure d'inférence variationnelle (VI) sous-jacente. PISTO exploite cette observation en ajoutant une régularisation KL entre propositions gaussiennes successives, ce qui stabilise les mises à jour et produit une interprétation de type trust-region. L'algorithme reste entièrement sans dérivées et s'appuie sur un échantillonnage Monte Carlo à pondération d'importance. Sur les benchmarks de planification de bras robotiques, PISTO atteint 89 % de taux de succès contre 63 % pour CHOMP et 68 % pour STOMP, tout en générant des trajectoires plus courtes et plus lisses, à deux fois la vitesse des méthodes stochastiques concurrentes. Des validations complémentaires sur des tâches de locomotion et manipulation contact-rich en simulation MuJoCo montrent des performances supérieures aux baselines CEM et MPPI en termes de récompense cumulée. Pour les intégrateurs et ingénieurs en planification de mouvement, l'absence totale de dérivées est une caractéristique décisive : elle permet de traiter des fonctions de coût non-différentiables ou discontinues, fréquentes dans les environnements industriels réels (détection de collisions, zones interdites, contraintes non paramétriques). Le gain de vitesse d'un facteur deux par rapport aux méthodes stochastiques existantes réduit directement les temps de cycle dans les applications de planification en ligne, point critique pour la robotique collaborative et les systèmes pick-and-place haute cadence. La validation sur MuJoCo avec contacts ouvre des perspectives vers la locomotion humanoïde et la manipulation dextre, bien que ces résultats restent pour l'instant entièrement simulés, sans validation sur matériel physique. PISTO s'inscrit dans la lignée de STOMP (développé chez Willow Garage et présenté à l'ICRA 2011) et de ses concurrents gradient-based tels que CHOMP, ainsi que des méthodes stochastiques modernes MPPI (popularisé par NVIDIA en 2017) et CEM. Soumis comme preprint arXiv sans révision par les pairs à ce stade, l'article n'annonce ni déploiement industriel ni partenariat commercial. Son impact pratique dépendra de la mise à disposition du code source et de validations expérimentales sur robot réel, étapes absentes de la publication actuelle.

RecherchePaper
1 source
Calibration optimale tenant compte de l'incertitude pour le problème AX=YB
2arXiv cs.RO 

Calibration optimale tenant compte de l'incertitude pour le problème AX=YB

Une équipe de chercheurs a publié le 7 mai 2026 sur arXiv (identifiant 2605.04809) une méthode d'optimisation pour la calibration main-oeil, problème dit AX=YB, qui consiste à déterminer la transformation géométrique rigide entre un capteur (caméra ou lidar) et l'effecteur d'un robot. L'algorithme proposé est itératif, formulé en algèbre de Lie, et respecte strictement les contraintes structurelles du groupe SE(3) tout en synchronisant les mises à jour des paramètres de calibration. Plutôt que de modéliser explicitement l'incertitude des données, approche jugée trop difficile à généraliser, les auteurs introduisent une métrique d'incertitude relative entre sources de mesure, utilisée pour pondérer dynamiquement chaque observation pendant l'optimisation. Sur jeux de données synthétiques à forte incertitude, la méthode améliore la précision d'estimation d'au moins 67 % par rapport aux approches existantes, selon des simulations numériques et des expériences réelles présentées dans l'article. L'enjeu industriel est concret : la calibration main-oeil conditionne toute application robotique guidée par vision, qu'il s'agisse de soudure, d'assemblage, de palettisation ou de contrôle qualité. Dans les scénarios à grande plage de travail ou en surcharge mécanique, typiques des robots 6-DOF à payload supérieur à 50 kg, les données de calibration sont contaminées par des incertitudes difficiles à quantifier : flexions structurelles, jeux mécaniques, dérive thermique. Les méthodes classiques comme Tsai-Lenz ou Shah traitent ces perturbations de façon uniforme, sans pondération adaptative. L'approche proposée ajuste au contraire l'influence de chaque paire de mesures pendant l'optimisation, ce qui peut réduire les temps de recalibration en production et améliorer la répétabilité sur cellules robotisées existantes sans changer de matériel. Le problème AX=YB est étudié en robotique depuis les travaux fondateurs de Shiu et Ahmad (1987) et Tsai et Lenz (1989). Les approches concurrentes exploitent les quaternions duaux (Daniilidis, 1999), les décompositions de Kronecker, ou plus récemment l'apprentissage automatique avec données visuelles denses. L'article positionne son apport principal sur deux points de friction récurrents dans les déploiements réels : la qualité de l'initialisation et la robustesse aux incertitudes non modélisées. Aucun code source ni partenaire industriel ne sont mentionnés dans le préprint disponible. Une intégration dans des frameworks de calibration open-source comme Kalibr ou easy_handeye constituerait la prochaine étape naturelle vers une adoption pratique.

UELes intégrateurs robotiques européens déployant des cellules 6-DOF à forte charge (KUKA, ABB) pourraient bénéficier d'une meilleure répétabilité de calibration sans changement matériel, sous réserve d'une publication du code dans des frameworks open-source comme Kalibr ou easy_handeye.

RecherchePaper
1 source
Contrôle de hauteur et planification optimale du couple pour le saut de robots bipèdes à roues
3arXiv cs.RO 

Contrôle de hauteur et planification optimale du couple pour le saut de robots bipèdes à roues

Des chercheurs présentent dans un preprint arXiv (2605.03302, mai 2026) deux méthodes combinées pour contrôler avec précision la hauteur de saut des robots bipèdes à roues. Le constat de départ est pratique : face à l'incertitude dynamique, ces plateformes sautent systématiquement plus haut que nécessaire pour garantir la sécurité, ce qui génère des pertes moteur évitables, des forces de contact au sol excessives et une surconsommation énergétique. La première contribution, le modèle W-JBD (Wheeled-Bipedal Jumping Dynamical), permet de cibler précisément une hauteur de saut, mais produit une consigne de couple en échelon incompatible avec les actionneurs réels. La seconde, BOTP (Bayesian Optimization for Torque Planning), optimise la trajectoire de couple sans nécessiter de modèle dynamique précis et converge en 40 itérations en moyenne. Validée sur le simulateur Webots, BOTP réduit l'erreur de hauteur de 82,3 % et la consommation énergétique de 26,9 % par rapport à la baseline, tout en produisant une courbe de couple continue. Ce résultat est pertinent pour les intégrateurs qui déploient des robots bipèdes à roues dans des environnements industriels ou logistiques : l'efficacité énergétique conditionne directement l'autonomie embarquée, et la reproductibilité du saut détermine la fiabilité du franchissement d'obstacles. Le fait que BOTP fonctionne sans modèle dynamique précis est un avantage opérationnel concret, car calibrer un modèle complet sur chaque variante de plateforme est coûteux. L'approche bayésienne converge rapidement, ce qui la rend adaptée à une validation sur robot réel avec un nombre limité d'essais physiques, un point critique pour réduire l'usure mécanique. Cela dit, les auteurs n'ont pas encore franchi le sim-to-real : l'ensemble des résultats reste en simulation, et le gap entre Webots et un vrai terrain reste à quantifier. Les robots bipèdes à roues constituent une classe en expansion : Unitree B2-W, l'ETH Zurich avec Ascento, ou encore les plateformes Handle/mobility de Boston Dynamics combinent la vitesse des roues avec la capacité de franchissement des pattes. Le planning de couple par optimisation bayésienne s'inscrit dans une tendance plus large qui vise à remplacer les contrôleurs MPC classiques, trop dépendants de modèles précis, par des méthodes d'optimisation légères adaptables à la production. Les auteurs annoncent comme prochaine étape la validation expérimentale sur robot physique en s'appuyant sur les trajectoires simulées pour réduire l'espace de recherche, ce qui devrait permettre de confirmer, ou non, la tenue des gains annoncés hors simulation.

UELes travaux pourraient intéresser les équipes de recherche européennes sur les robots bipèdes à roues (notamment ETH Zurich / Ascento), mais l'impact reste indirect, sans contribution ni déploiement européen identifié.

RecherchePaper
1 source
Apprentissage par renforcement basé sur un modèle pour le contrôle robotique via optimisation en ligne
4arXiv cs.RO 

Apprentissage par renforcement basé sur un modèle pour le contrôle robotique via optimisation en ligne

Des chercheurs ont publié sur arXiv (arXiv:2510.18518v2) un algorithme d'apprentissage par renforcement basé sur un modèle (MBRL) conçu pour contrôler des systèmes robotiques complexes directement dans le monde réel, sans passer par une phase de simulation intensive. L'approche construit un modèle de dynamique à partir des données d'interaction en temps réel, puis effectue des mises à jour de politique guidées par ce modèle appris. Les validations expérimentales ont été conduites sur deux plateformes distinctes : un bras d'excavatrice hydraulique et un bras robot souple. Dans les deux cas, l'algorithme atteint des performances comparables aux méthodes model-free en quelques heures d'entraînement, là où ces dernières réclament habituellement des millions d'interactions simulées. La robustesse de l'adaptation a également été évaluée sous conditions de charge utile (payload) aléatoire, avec des résultats stables malgré le changement de dynamique. L'enjeu principal est la réduction de ce que le secteur appelle le "sim-to-real gap" : l'écart entre les politiques apprises en simulation et leur comportement réel une fois déployées sur du matériel. Les pipelines dominants, adoptés aussi bien par des labos académiques que par des industriels comme Boston Dynamics ou Figure AI, reposent sur des millions de rollouts en simulation avant tout contact avec un robot physique, ce qui introduit un biais systématique difficile à corriger. Cet algorithme court-circuite cette étape en apprenant directement sur données réelles, avec une garantie formelle de progression : les auteurs démontrent des bornes de regret sous-linéaires (sublinear regret bounds) sous hypothèses d'optimisation stochastique en ligne, ce qui est rare dans la littérature MBRL appliquée à la robotique physique. Pour un intégrateur ou un industriel, cela se traduit par une réduction potentielle du temps de mise en service sur des tâches à dynamique variable (variation de charge, usure mécanique, changement de matériau). Ce travail s'inscrit dans un débat structurant du champ : model-based vs model-free RL pour la robotique physique. Les méthodes model-free comme PPO ou SAC dominent les benchmarks simulés mais peinent à s'adapter efficacement en production réelle. Des approches hybrides comme MBPO ou DreamerV3 ont tenté de combler cet écart, mais rarement validées sur des systèmes aussi hétérogènes qu'un bras hydraulique industriel et un manipulateur souple. La prochaine étape naturelle serait une validation sur des plateformes humanoïdes ou des AMR (autonomous mobile robots) à haute dimension, où les enjeux de sample efficiency sont directement liés aux coûts d'exploitation et à la durée de vie des actionneurs.

RecherchePaper
1 source