Aller au contenu principal
STAR-Filter : approximation convexe efficace de l'espace libre par filtrage d'ensembles étoilés en environnements bruités
RecherchearXiv cs.RO2sem

STAR-Filter : approximation convexe efficace de l'espace libre par filtrage d'ensembles étoilés en environnements bruités

1 source couvre ce sujet·Source originale ↗·
Résumé IASource uniqueImpact UE

Une équipe de chercheurs a soumis sur arXiv en avril 2026 (référence 2604.26626) STAR-Filter, un framework algorithmique léger pour l'approximation de l'espace libre en milieu encombré et bruité. Le problème ciblé est central en planification robotique : représenter rapidement l'espace navigable sous forme de polytopes convexes exploitables par des optimiseurs, même lorsque les données capteurs sont imparfaites. La méthode repose sur la construction de "starshaped sets" (ensembles étoilés), une structure géométrique dans laquelle tout point peut être "vu" depuis un centre, utilisée comme filtre pour identifier les contraintes actives, c'est-à-dire les points obstacles qui définissent réellement la frontière du polytope, en éliminant les calculs redondants. Les auteurs valident le framework sur la génération de Safe Flight Corridors (SFC) et la planification agile de quadrotors en environnement bruité à large échelle.

L'enjeu pour les intégrateurs est concret : la génération de régions convexes en temps réel est un goulot d'étranglement pour tout robot naviguant dans des environnements dynamiques ou reconstruits par LiDAR avec bruit de mesure. Les méthodes d'inflation itératives existantes, dont IRIS développé au MIT, voient leur temps de calcul augmenter fortement à mesure que la densité d'obstacles croît, et restent sensibles à l'initialisation. STAR-Filter réduit cette complexité en filtrant en amont les contraintes pertinentes, sans sacrifier la faisabilité ni la sécurité. Les simulations présentées affichent le temps de calcul le plus bas parmi les méthodes comparées, avec des polytopes moins conservateurs, ce qui se traduit par des trajectoires plus proches des obstacles réels et donc plus efficaces énergétiquement. Pour un opérateur déployant des drones en entrepôt ou des robots mobiles en environnement industriel non structuré, c'est un gain direct en réactivité.

La planification par corridors convexes est un axe de recherche actif depuis une décennie, structuré autour des travaux de Russ Tedrake au MIT et des pipelines drone de l'équipe de Vijay Kumar à UPenn. STAR-Filter s'inscrit dans cette tradition en visant le passage à l'échelle sur des données réelles bruitées, là où les méthodes académiques butent souvent sur l'écart sim-to-real. Côté références concurrentes, les outils de décomposition convexe tels que Decomp Util et MRSL restent des standards, mais sans gestion native du bruit capteur. L'article ne mentionne aucun partenariat industriel, ni timeline de commercialisation : il s'agit d'une contribution de recherche pure, sans produit ou déploiement associé à ce stade.

Dans nos dossiers

À lire aussi

COVER : planification de mouvement en temps fixe avec cartes à couverture vérifiée en environnements semi-statiques
1arXiv cs.RO 

COVER : planification de mouvement en temps fixe avec cartes à couverture vérifiée en environnements semi-statiques

Des chercheurs ont publié sur arXiv (référence 2510.03875v2) un framework baptisé COVER (Coverage-VErified Roadmaps), conçu pour résoudre des requêtes de planification de mouvement dans un budget temps fixe, sur un manipulateur 7-DOF effectuant des tâches de pick-and-place dans des environnements de type table rase et étagères. Le principe repose sur des environnements dits semi-statiques : la majorité de l'espace de travail reste identique entre les tâches, tandis qu'un sous-ensemble d'obstacles change de position. COVER décompose l'espace des configurations possibles de chaque obstacle mobile de façon indépendante, construit des roadmaps (graphes de chemins) de façon incrémentale, et vérifie formellement la faisabilité de ces graphes dans chaque partition. Pour les régions vérifiées, la résolution d'une requête est garantie dans un temps borné. Les benchmarks montrent une couverture de l'espace-problème plus large et un taux de succès par requête supérieur aux approches antérieures, notamment face à des obstacles de tailles hétérogènes. L'enjeu industriel est direct : les planificateurs généralistes comme RRT ou ses variantes ne garantissent pas de temps de réponse borné, ce qui bloque leur usage dans les applications temps-réel (lignes d'assemblage, cellules de palettisation, cobots en cadence synchronisée). COVER apporte une garantie formelle de couverture, absente des travaux précédents, sans discrétiser les configurations d'obstacles en un ensemble fini prédéfini. C'est ce dernier point qui étend l'applicabilité aux scénarios industriels réels, où les positions d'obstacles varient continûment et ne tombent pas dans des cases prédéterminées. Pour un intégrateur, la différence est concrète : un planificateur qui "essaie" n'a pas la même valeur contractuelle qu'un planificateur qui "garantit" dans X millisecondes. La planification de mouvement certifiée dans des environnements changeants est un problème ouvert depuis des années, à la frontière entre la robotique manipulation et la vérification formelle. Les approches par probabilistic roadmaps (PRM) offrent performance mais pas de garanties ; les méthodes exactes sont trop coûteuses en temps de calcul pour être embarquées. COVER se positionne entre ces deux extrêmes en exploitant la structure semi-statique propre à la majorité des environnements industriels. Les concurrents implicites sont les planificateurs adaptatifs comme STOMP, TrajOpt, ou les approches d'apprentissage par imitation (pi-zero de Physical Intelligence, GR00T N2 de NVIDIA), qui résolvent la planification par inférence neuronale mais sans garantie formelle de complétude. La prochaine étape naturelle serait d'étendre COVER à des environnements avec obstacles dynamiques ou à des manipulateurs montés sur bases mobiles, ce que l'article ne couvre pas encore.

RecherchePaper
1 source
Greedy Kalman-Swarm : amélioration de l'estimation d'état dans les essaims de robots en environnements difficiles
2arXiv cs.RO 

Greedy Kalman-Swarm : amélioration de l'estimation d'état dans les essaims de robots en environnements difficiles

Des chercheurs ont publié sur arXiv (référence 2604.16868) une méthode de filtrage de Kalman distribué baptisée "Greedy Kalman-Swarm", conçue pour améliorer l'estimation d'état dans les essaims de robots opérant en environnements dégradés. Le principe : chaque robot intègre, à chaque itération, l'ensemble des données de voisinage disponibles au moment précis du calcul, sans attendre une synchronisation globale. Contrairement aux approches classiques qui requièrent soit un nœud centralisateur, soit des protocoles de communication lourds pour atteindre un consensus collectif, cette méthode fonctionne de façon purement locale. Les simulations menées dans des environnements à connectivité contrainte montrent que le système reste fonctionnel même en cas de perte partielle de données entre agents, tout en maintenant une précision supérieure à celle d'un filtre de Kalman purement individuel. L'enjeu industriel est réel pour les déploiements multi-robots en milieu non structuré. La plupart des architectures d'essaim actuelles butent sur un compromis difficile : la précision collective nécessite soit une infrastructure de communication fiable et à large bande passante, soit une unité centrale de fusion de données, deux hypothèses rarement tenables sur le terrain. Le Greedy Kalman-Swarm démontre qu'une cohésion globale peut émerger de comportements locaux greedy, sans consensus explicitement imposé. C'est un résultat qui contredit l'intuition dominante selon laquelle la précision collective exige de la coordination synchrone, et qui ouvre la voie à des essaims véritablement autonomes dans des conditions adverses, sans dépendance à une infrastructure fixe. Le filtrage de Kalman est une brique fondamentale de l'estimation d'état en robotique depuis les années 1960, et son extension aux systèmes multi-agents fait l'objet de travaux actifs depuis au moins deux décennies. Les approches distribuées existantes, comme le Kalman consensus filter ou les variantes à diffusion de données, supposent généralement une topologie de communication stable ou des échanges périodiques complets. Greedy Kalman-Swarm se positionne comme une alternative légère, scalable et tolérante aux pannes. Les auteurs ciblent explicitement deux applications : la recherche et le sauvetage (search-and-rescue) en milieu sinistré, et l'exploration spatiale, deux domaines où la fiabilité des liaisons radio ne peut être garantie. Le code n'est pas encore publié et les résultats restent pour l'instant au stade de la simulation, ce qui appelle une validation sur matériel réel avant tout déploiement opérationnel.

RecherchePaper
1 source
DynoJEPP : estimation conjointe, prédiction et planification en environnements dynamiques
3arXiv cs.RO 

DynoJEPP : estimation conjointe, prédiction et planification en environnements dynamiques

DynoJEPP (Joint Estimation, Prediction and Planning) est un cadre de planification robotique basé sur les graphes de facteurs, publié le 14 mai 2026 sur arXiv (2605.12897), qui optimise simultanément trois modules traditionnellement traités en séquence : l'estimation d'état, la prédiction du comportement des objets environnants, et la planification de trajectoire. Le coeur de la contribution est l'introduction des "facteurs dirigés" (directed factors), un nouveau type de noeud dans le graphe de facteurs imposant un flux d'information strictement unidirectionnel entre les modules. Sans ce mécanisme, les informations issues de la prédiction et de la planification remontent dans l'estimateur d'état, corrompant les estimées et produisant des comportements non désirés. Le framework inclut également une extension baptisée Cooperative DynoJEPP, permettant au robot de modéliser un comportement coopératif des objets mobiles dans sa planification de trajectoire. L'impact le plus saillant ressort des expériences de validation : sans les facteurs dirigés, le robot entre en collision dans la majorité des tests, en environnement statique comme dynamique. Ce résultat pointe un problème fondamental des architectures JEPP existantes : la co-optimisation conjointe crée des boucles de rétroaction non désirées qui dégradent la sécurité opérationnelle. Le module d'estimation d'état, typiquement le composant de référence dans les systèmes de navigation, se retrouve contaminé par des hypothèses issues de la planification, inversant la causalité naturelle du pipeline. Pour les intégrateurs travaillant sur la navigation autonome en entrepôt ou en espace partagé humain-robot, l'approche suggère que la structure des dépendances entre modules est au moins aussi critique que leur optimisation conjointe. Les graphes de facteurs sont une technique établie en robotique depuis le milieu des années 2000, popularisée notamment par Frank Dellaert (Georgia Tech) via la librairie GTSAM pour le SLAM. Les approches JEPP suscitent un intérêt croissant face à la montée des robots en espaces dynamiques (entrepôts, routes mixtes, cobotique). Les concurrents directs incluent les planificateurs MPC à modules séparés, les architectures différentiables de type Wayve ou DreamerV3, et les VLA (Vision-Language-Action) qui intègrent progressivement la modélisation des agents environnants. La contribution de DynoJEPP reste au stade de la recherche académique (preprint sans revue par les pairs), sans déploiement ni pilote industriel annoncé.

RecherchePaper
1 source
Apprentissage par imitation : sélection efficace des données d'échec via les différences de distribution dans l'attention
4arXiv cs.RO 

Apprentissage par imitation : sélection efficace des données d'échec via les différences de distribution dans l'attention

Des chercheurs ont déposé sur arXiv en mai 2026 (arXiv:2605.07560) une méthode visant à exploiter les démonstrations d'échec dans l'apprentissage par imitation pour la robotique. La quasi-totalité des politiques d'imitation sont actuellement entraînées exclusivement sur des démonstrations réussies, bien que la collecte humaine produise inévitablement une proportion significative d'échecs. La méthode proposée apprend des représentations latentes des divergences succès-échec et les intègre dans le mécanisme d'attention du réseau, permettant au système de sélectionner au moment de l'inférence un mode latent adapté à partir de l'observation initiale. Les auteurs introduisent également une métrique post-entraînement qui quantifie la divergence d'attention entre chaque démonstration d'échec et le corpus de succès, afin de filtrer automatiquement les échantillons d'échec réellement bénéfiques à l'apprentissage. L'enjeu est considérable pour les pipelines industriels de collecte de données robotiques : une fraction structurelle des démonstrations humaines sont des échecs, jusqu'ici systématiquement écartés ou nécessitant un traitement manuel coûteux. Les approches existantes pour exploiter ces données s'appuient généralement sur des mises à jour itératives de la politique via des rollouts autonomes, ce qui complique leur intégration stable et directe dans un pipeline de production. Cette méthode opère en revanche directement sur les données brutes collectées sans itérations supplémentaires, ce qui la rend potentiellement plus accessible pour des équipes travaillant en conditions réelles de déploiement. Les résultats en simulation montrent une amélioration des taux de succès par rapport à un entraînement basé uniquement sur des démonstrations réussies, et la métrique proposée identifie correctement les échantillons d'échec dont l'ajout est bénéfique. L'apprentissage par imitation est devenu un paradigme central en robotique manipulatrice, porté par des architectures comme ACT, Diffusion Policy ou pi-0 de Physical Intelligence, et la gestion des données hors-distribution reste un défi ouvert du domaine. Que faire des trajectoires partiellement réussies ou des démonstrations ambiguës constitue une question de recherche active, d'autant que les coûts de re-collecte sur robot physique sont prohibitifs à grande échelle. Ce travail s'inscrit dans ce courant sans rupture radicale : les résultats sont limités à la simulation et aucun déploiement sur hardware réel n'est mentionné dans le preprint, ce qui appelle une validation expérimentale indépendante. La prochaine étape naturelle sera la validation sur robots physiques en manipulation dextère, contexte où le taux d'échec lors de la collecte humaine est structurellement élevé et où le gain potentiel d'un tel filtrage automatique serait le plus significatif.

RecherchePaper
1 source