Aller au contenu principal

Dossier Pollen Robotics — Reachy

22 articles

Pollen Robotics et Reachy : robot humanoïde open-source français, intégration Hugging Face, plateforme de recherche pour la manipulation et la téléopération.

L'expression émotionnelle des robots à faibles degrés de liberté : évaluation de la perception avec Reachy Mini
1arXiv cs.RO FR/EU ecosystemePaper

L'expression émotionnelle des robots à faibles degrés de liberté : évaluation de la perception avec Reachy Mini

Une étude parue sur arXiv (2605.12786) analyse comment des humains interprètent les expressions émotionnelles du Reachy Mini, robot à faible nombre de degrés de liberté (low-DoF) développé par Pollen Robotics et Hugging Face. Le protocole, mené en ligne avec 100 participants en design intra-sujets, exposait chacun à 10 clips vidéo du robot exprimant différentes émotions ; les participants devaient identifier l'émotion perçue, évaluer sa valence et son éveil (arousal), et noter le robot sur des traits de perception sociale. La reconnaissance exacte s'est révélée globalement modeste : la colère, la tristesse et l'intérêt ont été identifiées de façon fiable, tandis que l'amour, le plaisir, la honte et le dégoût ont été bien moins reconnus. En revanche, les participants ont mieux capté le sens affectif global, sur les axes valence et arousal, que l'étiquette émotionnelle précise. Ces résultats interrogent un postulat courant en robotique sociale : faut-il de nombreux degrés de liberté pour communiquer une émotion crédible ? La réponse est nuancée. Si la finesse expressive reste hors de portée d'un robot low-DoF, le signal affectif général, positif ou négatif, calme ou activé, passe suffisamment pour influencer la perception sociale : les expressions positives ont été perçues comme plus chaleureuses et sociables que les négatives. Pour les intégrateurs de robots de service ou d'assistance, cela suggère qu'un design expressif minimaliste peut produire des effets relationnels mesurables, sans nécessiter une tête animatronique à haute complexité mécanique. Pollen Robotics, startup française basée à Bordeaux, a conçu Reachy Mini comme plateforme ouverte pour la recherche en interaction homme-robot (HRI). Son partenariat avec Hugging Face, acteur français de l'IA open-source, vise à connecter le robot à des modèles de perception et de langage accessibles. Dans le paysage concurrentiel, Reachy Mini se positionne face à NAO et Pepper (SoftBank Robotics) sur le segment recherche/éducation, avec un ancrage open-source plus marqué, et s'écarte des androïdes expressifs à haute fidélité comme ceux de Hanson Robotics. Les auteurs proposent d'établir Reachy Mini comme benchmark standardisé pour la communication affective sur robots contraints, et identifient l'interaction physique directe (versus vidéo seule) comme prochaine étape expérimentale.

UEL'étude positionne Reachy Mini de Pollen Robotics (Bordeaux) et Hugging Face comme références en recherche HRI open-source en Europe, avec une preuve empirique qu'un design expressif minimaliste suffit pour des robots de service à moindre complexité mécanique.

1 source
L'IA physique, trait d'union entre rentabilité et durabilité
2The Robot Report 

L'IA physique, trait d'union entre rentabilité et durabilité

Omar Asali, président et directeur général de Ranpak, prendra la parole le 27 mai 2026 au Robotics Summit & Expo de Boston (Thomas M. Menino Convention & Exhibition Center, 14h30-15h15) pour présenter les résultats chiffrés de l'IA physique appliquée à la logistique d'entrepôt. Les métriques avancées par Ranpak dans des scénarios de déploiement réels sont les suivantes : réduction de 25 % de la consommation de carton ondulé (corrugate), diminution de 75 % du nombre de références boîtes (SKUs) en stock, et multiplication par 4 à 5 du débit de traitement. L'entreprise positionne ces gains comme une réfutation empirique du "dilemme vert", la présupposition largement répandue dans le secteur logistique selon laquelle les objectifs de durabilité entrent nécessairement en conflit avec la rentabilité opérationnelle. Le concept central mis en avant par Ranpak est celui d'IA physique (physical AI) : des systèmes embarqués, pilotés par capteurs, capables de caractériser en temps réel les objets manipulés pour adapter dynamiquement le format d'emballage. Contrairement aux approches purement logicielles (optimisation de tournées, prévision de la demande), l'IA physique agit directement sur le flux matière, ce qui explique l'impact simultané sur les coûts matière, le footprint de stockage et le débit. Pour un intégrateur ou un COO industriel, l'argument est structurant : si les chiffres sont confirmables à l'échelle, cela invalide le trade-off classique entre capex automation et ROI court terme, et rend les critères ESG directement commensurables aux KPIs opérationnels. Il convient toutefois de noter que les métriques présentées émanent d'un communiqué de promotion de conférence, sans méthodologie publiée ni périmètre de déploiement précisé, à vérifier avant toute extrapolation. Ranpak, fondée en 1972 et cotée au NYSE (PACK), est historiquement spécialisée dans les matériaux d'emballage protecteur en papier. L'entreprise a amorcé depuis 2019 un pivot vers l'automatisation, avec des acquisitions dans la robotique d'emballage (notamment Automated Packaging Systems et des partenariats avec des intégrateurs AMR). Sur le segment de l'optimisation d'emballage piloté par IA, Ranpak se positionne face à des acteurs comme Packsize (dimensionneurs on-demand), Sparck Technologies (boîtes sur-mesure automatisées) et, sur le volet logiciel pur, Nulogy ou Paccurate. Aucun acteur français ou européen de premier plan n'est directement cité dans ce contexte, bien qu'Enchanted Tools et Pollen Robotics travaillent sur des segments adjacents de manipulation en entrepôt. La prochaine étape observable sera la présentation elle-même le 27 mai, et d'éventuelles annonces de pilotes ou de partenariats associées au salon.

UELes métriques annoncées pourraient intéresser les opérateurs logistiques européens, mais aucun déploiement ni partenariat européen n'est confirmé à ce stade.

IndustrielActu
1 source
TAVIS : un benchmark pour la vision active égocentrique et le regard anticipateur en apprentissage par imitation
3arXiv cs.RO 

TAVIS : un benchmark pour la vision active égocentrique et le regard anticipateur en apprentissage par imitation

Une équipe de chercheurs a publié TAVIS, un environnement d'évaluation standardisé pour comparer les approches de vision active en apprentissage par imitation, soit la capacité d'une politique robotique à contrôler son propre regard pendant une tâche de manipulation. Le benchmark comprend deux suites : TAVIS-Head (5 tâches avec caméra sur cardan pan/tilt pour la recherche globale de scène) et TAVIS-Hands (3 tâches avec caméras de poignet pour gérer les occlusions locales). Il est construit sur IsaacLab et s'appuie sur deux embodiments de torse humanoïde : le GR1T2 de Fourier Intelligence et le Reachy2 de Pollen Robotics (Bordeaux). Environ 2 200 épisodes de démonstrations téléopérées sont publiés en format LeRobot v3.0 sur HuggingFace, avec Diffusion Policy et π₀ (Physical Intelligence) comme baselines. Trois résultats principaux ressortent : la vision active améliore les performances, mais de façon conditionnelle à la tâche ; les politiques multi-tâches se dégradent nettement sous distribution shift contrôlé ; et l'imitation seule produit un regard anticipatoire dont les temps de préemption médians, mesurés par la métrique GALT (Gaze-Action Lead Time), sont comparables à ceux du téléopérateur humain de référence. Jusqu'ici, plusieurs groupes avaient démontré indépendamment les bénéfices de la vision active en 2024-2025, sans base commune de comparaison. TAVIS comble ce vide avec trois primitives reproductibles : un protocole comparatif caméra mobile/caméra fixe sur des démonstrations identiques, la métrique GALT issue des sciences cognitives et de l'HRI (Human-Robot Interaction), et des splits procéduraux in-distribution/out-of-distribution. Le constat que les gains sont task-conditional invalide l'hypothèse naïve qu'ajouter des degrés de liberté à la caméra améliore systématiquement les performances, nuance décisive pour les intégrateurs industriels. La fragilité sous distribution shift constitue un signal d'alarme concret pour tout déploiement hors simulation. La vision active en manipulation connaît un regain d'intérêt depuis 2024, porté par les progrès des VLA (Vision-Language-Action models) et la disponibilisation de robots humanoïdes à têtes articulées. Le choix de Reachy2 comme plateforme de référence est notable : Pollen Robotics, startup bordelaise fondée en 2016, est l'un des rares acteurs européens dont le robot open-source figure dans des benchmarks académiques internationaux, face aux concurrents américains (Figure, Agility) et asiatiques (Fourier, Unitree). Les prochaines étapes naturelles incluent l'évaluation de politiques VLA récentes comme GR00T N2 ou OpenVLA sur TAVIS, ainsi que le transfert sim-to-real, que le papier ne couvre pas encore.

UEPollen Robotics (Bordeaux) est l'une des deux seules plateformes de référence du benchmark TAVIS, ce qui ancre un acteur français open-source au cœur d'une infrastructure d'évaluation académique internationale pour les politiques VLA.

FR/EU ecosystemePaper
1 source
Hugging Face lance une boîte à outils à base d'agents pour Reachy Mini
4The Robot Report 

Hugging Face lance une boîte à outils à base d'agents pour Reachy Mini

Hugging Face a lancé cette semaine un kit de développement agentique permettant de créer des applications pour Reachy Mini, son robot de bureau open source, sans écrire une seule ligne de code. Le principe : l'utilisateur décrit en langage naturel le comportement souhaité, et un agent IA rédige, teste et déploie automatiquement le code sur le robot. Reachy Mini mesure 27,9 cm de hauteur pour 16 cm de largeur, pèse 1,5 kg et se pilote intégralement depuis une interface web. Plus de 200 applications sont déjà disponibles dans un App Store hébergé sur le Hugging Face Hub, installables en un clic, forkables et modifiables à la demande. Un simulateur navigateur permet également de tester les applications sans posséder le matériel. Parmi les exemples publiés : un tuteur d'accent linguistique, un assistant de cuisine pas-à-pas, un commentateur de Formule 1 en temps réel, ou un jeu inspiré de Squid Game. L'un des cas d'usage mis en avant est celui de Joel Cohen, retraité de 78 ans sans formation technique, qui a construit un co-facilitateur vocal IA pour les groupes de dirigeants qu'il anime sur Zoom : le système dispose de quatre modes de facilitation, d'une banque de plus de 60 questions et reconnaît par son nom chacun de ses 29 participants. Ce lancement illustre un changement de paradigme potentiel dans l'accès au développement robotique. Jusqu'ici, déployer un comportement sur un robot impliquait la maîtrise d'un SDK, la connaissance d'API de bas niveau et un temps d'intégration significatif. Ici, la barrière technique est explicitement remplacée par un agent LLM, ce qui déplace la contrainte vers la qualité du prompt plutôt que vers la compétence en programmation. Pour les intégrateurs et les décideurs B2B, le modèle Hub-plus-simulator offre une logique de validation à coût quasi nul avant achat du matériel physique. Reste à mesurer la robustesse réelle du code généré dans des conditions d'usage prolongé : les 200 applications recensées sont des contributions communautaires récentes, pas des déploiements industriels validés. La distinction entre démo accessible et produit robuste en production reste entière. Hugging Face, souvent décrit comme le "GitHub de l'IA" avec plusieurs millions de développeurs et des dizaines de milliers d'entreprises utilisatrices, a acquis Pollen Robotics en 2024. Cette startup française de Bordeaux est le fabricant de la gamme Reachy, des robots open source à vocation éducative et de recherche. L'intégration de la plateforme Hub à l'écosystème robot concrétise donc une stratégie annoncée lors de l'acquisition : faire de Hugging Face le point d'entrée unique pour le développement robotique grand public. Sur le segment des robots de bureau open source, Reachy Mini se positionne face à des plateformes comme LeRobot (également porté par Hugging Face) ou les kits SO-100/SO-101 de The Robot Company, avec un avantage différenciant sur la fluidité du parcours développeur et l'effet réseau du Hub existant. Aucune timeline de déploiement commercial à grande échelle n'a été communiquée.

UEPollen Robotics, startup française de Bordeaux désormais intégrée à Hugging Face, voit son robot Reachy Mini devenir une plateforme de développement robotique grand public, consolidant le positionnement de la France dans la robotique open source mondiale.

FR/EU ecosystemeOpinion
1 source
Prix RBR50 2026 de l'innovation en robotique
5Robotics Business Review 

Prix RBR50 2026 de l'innovation en robotique

The Robot Report a publié pour la quinzième année consécutive son palmarès RBR50, sélectionnant 50 organisations mondiales, entre entreprises, associations et institutions académiques, pour leur innovation technologique et commerciale en robotique. L'édition 2026 intègre à la fois des habitués et de nouveaux entrants, avec une couverture allant des capteurs industriels aux rovers martiens, en passant par des solutions de fabrication, de logistique, de nouveaux matériaux et de processeurs. Parmi les distinctions spéciales : Physical Intelligence (San Francisco, fondée en 2023) reçoit le titre de Startup de l'Année ; Harvard University décroche le prix Application de l'Année pour un système d'assistance aux personnes souffrant de limitations motrices du bras ; Tatum Robotics remporte la catégorie Robots for Good pour ses applications auprès de personnes sourdes-aveugles. La cérémonie de remise des prix est prévue lors du dîner de gala du Robotics Summit & Expo à Boston. Le palmarès 2026 reflète plusieurs dynamiques structurantes pour les acteurs industriels : essor des manipulateurs mobiles, développement des systèmes portables (wearables) et accélération de l'IA appliquée à la robotique physique. La distinction accordée à Physical Intelligence est particulièrement significative : la startup a développé pi0, l'un des premiers modèles VLA (Vision-Language-Action) à démontrer des capacités de généralisation sur des tâches physiques variées, sans reprogrammation tâche par tâche. Pour les intégrateurs et décideurs industriels, ce type de reconnaissance signale quels segments technologiques atteignent un seuil de maturité commerciale justifiant un investissement. Le palmarès inclut également les grands fournisseurs de solutions complètes pour la fabrication et la logistique, ainsi que des fabricants de composants critiques (capteurs, actionneurs, processeurs). L'inclusion d'une approche inédite de confection textile automatisée et d'un rover en opération sur Mars illustre la volonté du jury de couvrir l'étendue réelle du champ robotique en 2026. Créé en 2012, le RBR50 s'est imposé comme un repère annuel dans le secteur : selon The Robot Report, plusieurs lauréats passés ont levé des millions de dollars dans les mois suivant leur sélection, et nombre d'entre eux sont revenus sur la liste avec de nouvelles innovations. L'édition 2026 intègre aussi une dimension institutionnelle et politique notable : l'Association for Advancing Automation travaille à convaincre le Congrès américain d'adopter une stratégie nationale en robotique, tandis que MassRobotics accompagne des startups internationales dans leur accès au marché américain. Aucun acteur français ni européen n'est explicitement mentionné dans le communiqué public, bien que des entreprises comme Wandercraft, Enchanted Tools ou Pollen Robotics figurent régulièrement dans ce type de palmarès. À noter : l'article source est un teaser promotionnel invitant au téléchargement d'un rapport complet accessible sur formulaire, et ne détaille pas les critères de sélection par organisation.

BusinessActu
1 source
Apprendre à sentir le futur : DreamTacVLA pour la manipulation riche en contacts
6arXiv cs.RO 

Apprendre à sentir le futur : DreamTacVLA pour la manipulation riche en contacts

Des chercheurs ont publié DreamTacVLA, un framework qui dote les modèles Vision-Language-Action (VLA) d'un sens du toucher anticipatif. Ces architectures, parmi lesquelles Pi-0 de Physical Intelligence ou GR00T N2 de NVIDIA, généralisent des comportements robotiques à partir de connaissances web-scale, mais restent aveugles à la physique du contact : force, texture et glissement. DreamTacVLA introduit une perception hiérarchique à trois niveaux : images tactiles haute résolution (micro-vision), caméra poignet (vision locale) et vue tierce (macro-vision), le tout aligné par une perte baptisée Hierarchical Spatial Alignment (HSA). Le système est ensuite affiné par un modèle de monde tactile prédisant des états de contact futurs, ce qui lui permet de conditionner ses décisions à la fois sur des observations réelles et sur des conséquences anticipées ; sur des benchmarks de manipulation contact-riche (vissage, pelage, textiles), il atteint jusqu'à 95 % de succès face aux baselines VLA état de l'art, appuyé par un dataset hybride combinant simulation haute-fidélité (digital twin) et expériences en monde réel. Ce résultat quantifie concrètement le "gap tactile" des VLA modernes : intégrer des signaux de contact haute résolution est discriminant pour des tâches industrielles entières, de l'assemblage de précision au conditionnement de composants déformables. Conditionner les décisions sur des conséquences tactiles anticipées, et non seulement sur des observations en temps réel, rapproche les VLA du raisonnement physique implicite des opérateurs expérimentés. Pour les intégrateurs B2B, cela laisse entrevoir une prochaine génération de politiques robotiques capables de manipulation fine sans capteurs de force-couple coûteux, à condition d'embarquer des capteurs tactiles conformes haute résolution. La démonstration reste cependant purement académique : aucun déploiement industriel ni partenariat de production n'est annoncé dans le papier. Le travail s'inscrit dans un mouvement d'enrichissement des VLA au-delà du seul canal vision-langage, aux côtés d'approches intégrant proprioception, retour de force ou audio. DreamTacVLA se distingue par l'application au domaine tactile de techniques issues des modèles de monde visuels (Dreamer, RSSM), une transposition méthodologiquement originale. L'article est à sa troisième révision arXiv (v3), signe d'une évaluation par les pairs active. Parmi les acteurs à surveiller : Sanctuary AI et Agility Robotics sur les politiques de manipulation, GelSight et Contactile sur les capteurs tactiles, et en Europe, Pollen Robotics qui explore des effecteurs sensoriellement enrichis.

UEPollen Robotics, identifié comme acteur européen explorant des effecteurs sensoriellement enrichis, est directement positionné pour intégrer ce type d'avancée tactile dans ses politiques de manipulation VLA.

IA physiqueOpinion
1 source
Hugging Face lance un App Store open source pour robots avec plus de 200 applications pour Reachy Mini
7VentureBeat AI 

Hugging Face lance un App Store open source pour robots avec plus de 200 applications pour Reachy Mini

Hugging Face, la startup new-yorkaise fondée il y a dix ans et devenue la référence mondiale pour l'hébergement de modèles d'IA open source, a lancé un App Store dédié à son robot de bureau Reachy Mini. Cette boutique d'applications compte déjà plus de 200 créations communautaires, toutes téléchargeables gratuitement par les propriétaires du robot. Le Reachy Mini, commercialisé à 299 dollars depuis juillet 2025 après le rachat de la startup Pollen Robotics par Hugging Face, s'est vendu à environ 10 000 unités en moins d'un an. Petit robot de bureau fixe, il est équipé d'une caméra, d'un haut-parleur et d'un microphone, et peut désormais être programmé sans aucune compétence en ingénierie grâce à l'agent IA maison baptisé "ML Intern". Il suffit de décrire un comportement en langage naturel, comme "faire un signe de la main quand quelqu'un dit bonjour", et l'agent génère, teste et déploie le code correspondant en quelques minutes. L'enjeu dépasse largement la nouveauté gadget : Hugging Face veut faire pour la robotique ce qu'Apple a fait pour le smartphone, c'est-à-dire rendre la création d'applications accessibles à des millions de personnes sans formation technique. Jusqu'ici, développer une application robotique nécessitait de maîtriser des SDK propriétaires, la gestion du firmware et des abstractions matérielles complexes. En éliminant cette barrière, la plateforme permet à des non-ingénieurs de livrer des logiciels robotiques fonctionnels en moins d'une heure. Le PDG Clément Delangue voit également dans ce store un terrain d'expérimentation pour les créateurs de modèles d'IA, qui pourront tester les capacités physiques de leurs nouvelles architectures directement sur un robot réel. La difficulté historique de la robotique tient au manque de données d'entraînement spécifiques : là où les grands modèles de langage ont pu s'appuyer sur des centaines de milliards de lignes de code généraliste via GitHub, les dépôts robotiques restent marginaux, avec seulement 17 000 repositories publics recensés. Hugging Face contourne ce problème en proposant une couche d'abstraction agnostique, compatible avec GPT-5.5, Claude Opus 4.6, Gemini Live, OpenAI Realtime et plusieurs autres modèles. Cette ouverture multiple crée un écosystème qui ne dépend d'aucun acteur unique. La prochaine étape sera probablement l'introduction d'options de monétisation pour les développeurs d'applications, absentes au lancement. Si la dynamique se confirme, Hugging Face pourrait transformer le Reachy Mini en plateforme de référence pour la robotique grand public, à l'heure où Boston Dynamics, Figure et d'autres misent sur des machines bien plus coûteuses et fermées.

UEHugging Face est fondée par des Français et Pollen Robotics (fabricant du Reachy Mini) est une startup française de Bordeaux, ce lancement positionne l'écosystème français en tête de la robotique grand public open source mondiale.

💬 300 dollars, 200 apps communautaires, un agent qui génère le code depuis une phrase, bon, sur le papier c'est exactement ce qu'il fallait pour que la robotique grand public décolle enfin. La comparaison avec l'App Store d'Apple est surjouée, mais les briques techniques sont là cette fois, et Pollen Robotics de Bordeaux dans la boucle c'est un beau signal pour l'écosystème français. Reste à voir si les usages dépassent le gadget de bureau dans six mois.

HumanoïdesOpinion
1 source
Cadre de commande SDRE hors ligne en trois étapes pour reproduire le mouvement humain sur un robot bipède suspendu
8arXiv cs.RO 

Cadre de commande SDRE hors ligne en trois étapes pour reproduire le mouvement humain sur un robot bipède suspendu

Une équipe de recherche a publié sur arXiv (réf. 2506.04680) une stratégie de contrôle en trois étapes permettant à un robot bipède suspendu de reproduire fidèlement des mouvements humains capturés par mocap, avec une erreur quadratique moyenne (RMSE) inférieure à 3 degrés sur l'ensemble des articulations testées. Le pipeline repose d'abord sur un contrôleur SDRE (State-Dependent Riccati Equation) qui génère des trajectoires de couple optimales à partir du modèle dynamique du système bipède. Une deuxième étape produit des séquences de commandes en vitesse et accélération articulaires via une optimisation paramétrée intégrant les contraintes des actionneurs. La troisième étape applique un contrôleur hybride PID-LQR piloté par les données pour minimiser l'écart entre le mouvement cible et celui effectivement exécuté. Le dispositif expérimental est un robot bipède suspendu conçu spécifiquement pour l'évaluation d'exosquelettes anti-gravité, validé sur deux tâches : squat répétitif et marche. L'enjeu est direct pour l'industrie de l'exosquelette : les protocoles d'homologation impliquent aujourd'hui des sujets humains, ce qui introduit des risques de sécurité et complique la reproductibilité des tests. Remplacer le porteur par un robot calibré sur ses propres données de capture de mouvement ouvre la voie à des bancs d'essai systématiques, automatisés et comparables entre laboratoires. La précision annoncée, moins de 3° de RMSE moyen, est suffisante pour valider des algorithmes d'assistance articulaire sur des cycles locomoteurs complets, même si les auteurs ne précisent pas les conditions de charge ni la fréquence de cycle, deux paramètres déterminants pour juger de la transférabilité à des exosquelettes industriels ou médicaux. Le problème de la reproduction de mouvement humain sur robot hétérogène est un verrou classique en robotique de rééducation, aggravé par les différences de cinématique et d'actionnement entre humain et machine. L'approche SDRE, plus flexible que le LQR classique sur systèmes non-linéaires, n'est pas nouvelle mais son association à un raffinement PID-LQR guidé par les données constitue une contribution méthodologique incrémentale. En France, Wandercraft développe l'exosquelette Atalante pour la rééducation neurologique et fait face aux mêmes problématiques de test reproductible ; Pollen Robotics et Enchanted Tools opèrent sur des segments adjacents. Au niveau international, les équipes de Boston Dynamics, Agility Robotics et Apptronik publient sur des défis similaires en sim-to-real pour bipèdes. La prochaine étape logique pour les auteurs serait de valider le framework sur une plateforme non suspendue, condition nécessaire pour que l'approche soit utilisable en certification exosquelette en conditions réelles.

UEWandercraft (Atalante) et d'autres acteurs français de l'exosquelette sont directement concernés : ce framework de test robotisé et reproductible pourrait informer les futurs protocoles d'homologation d'exosquelettes médicaux et industriels en Europe, réduisant le recours à des sujets humains lors des certifications.

ExosquelettesPaper
1 source
Revue complète des modèles du monde pour l'apprentissage robotique
9arXiv cs.RO 

Revue complète des modèles du monde pour l'apprentissage robotique

Un groupe de chercheurs a publié début mai 2026 une revue systématique sur les modèles de monde appliqués à l'apprentissage robotique (arXiv:2605.00080). Ces modèles sont des représentations prédictives qui modélisent l'évolution d'un environnement en réponse aux actions d'un agent. Utilisés dans six fonctions distinctes, policy learning, planification, simulation, évaluation, génération de données et entraînement à l'échelle fondation, ils sont devenus un composant central des architectures robotiques modernes. Le survey couvre les grandes familles d'architectures, leurs rôles fonctionnels et leurs applications dans l'embodied AI, en s'étendant à la navigation mobile et à la conduite autonome. Les auteurs inventorient également les benchmarks et protocoles d'évaluation disponibles dans le domaine, et maintiennent un dépôt GitHub mis à jour en continu pour intégrer les travaux émergents. L'intérêt de cette synthèse réside dans la fragmentation actuelle du domaine : les architectures de modèles de monde se développent en silos, reinforcement learning, génération vidéo, VLA (Vision-Language-Action models), avec peu de recoupement méthodologique. Le survey clarifie comment ces modèles s'articulent avec les politiques robotiques, comment ils servent de simulateurs appris pour le RL, et comment les modèles de monde vidéo ont évolué de la génération par imagination vers des formulations contrôlables à l'échelle fondation. Pour les équipes R&D et les intégrateurs industriels, cette cartographie facilite le choix architectural et réduit le risque de duplication des efforts. L'accélération récente du domaine est en partie portée par la montée en puissance des foundation models et de la génération vidéo large-scale depuis 2023. Les modèles de monde en robotique s'enracinent dans les travaux de Schmidhuber dans les années 1990 et ont connu un regain majeur avec DreamerV3 (Google DeepMind, 2023), UniSim, et les VLA récents intégrant une prédiction d'état futur comme Pi-0 (Physical Intelligence) ou GR00T N2 (NVIDIA). Les acteurs dominants restent américains et chinois, DeepMind, NVIDIA, Physical Intelligence, Figure AI, avec des contributions académiques majeures de Stanford, MIT et Berkeley. En Europe, les contributions restent moins visibles à l'échelle internationale, bien que des acteurs comme Pollen Robotics (France) et l'INRIA travaillent sur des approches connexes. Le principal défi identifié est de combler le sim-to-real gap via des modèles suffisamment fidèles pour substituer partiellement les environnements physiques dans la boucle d'entraînement.

UEPollen Robotics et l'INRIA sont mentionnés comme acteurs connexes mais restent en retrait international ; cette cartographie peut aider les équipes européennes à identifier les lacunes à combler face à la domination américaine et chinoise.

RecherchePaper
1 source
Combler l'écart de latence : pourquoi l'IA physique exige des architectures edge-first
10Robotics Business Review 

Combler l'écart de latence : pourquoi l'IA physique exige des architectures edge-first

Les systèmes vision industriels déployés en cloud affichent des latences aller-retour de 100 à 200 millisecondes pour la chaîne complète (acquisition image, inférence, retour commande). La norme ISO/TS 15066 sur le Speed and Separation Monitoring (SSM) impose pourtant au robot de maintenir en permanence une distance de séparation protectrice vis-à-vis de l'opérateur, et de réduire sa vitesse ou stopper dès que cette distance est franchie. À une vitesse de bras modérée de 2 m/s, une latence de 150 ms représente une zone aveugle de 300 mm dans la cellule, soit la différence entre une opération conforme et un incident. Pour compenser, les intégrateurs élargissent les zones de sécurité et plafonnent les vitesses, annulant l'essentiel du bénéfice productivité visé par la collaboration. L'architecture proposée consiste à déplacer l'inférence IA vers un processeur edge localisé dans la cellule, connecté directement au contrôleur robot via EtherCAT, PROFINET IRT ou les API temps-réel des constructeurs (URScript pour Universal Robots, RAPID pour ABB, KAREL pour FANUC), en contournant le PLC pour les ajustements cinématiques dynamiques. L'enjeu pour les intégrateurs et les décideurs industriels est d'atteindre une latence end-to-end inférieure à 30 ms, seuil identifié comme nécessaire pour un SSM proactif en environnement dynamique. Les PLCs industriels classiques, conçus pour des cycles de scrutation de 10 à 50 ms sur des entrées-sorties discrètes déterministes, ne sont pas dimensionnés pour ingérer les flux haute bande passante issus du suivi squelettique, de l'analyse de micro-mouvements et de l'estimation de l'état opérateur. Y router les inférences IA ajoute un cycle complet plus l'overhead fieldbus, suffisant pour briser le déterminisme nécessaire. Le modèle edge-direct débloque ainsi deux niveaux de valeur simultanément : le maintien du temps de cycle dans les cellules high-mix à haute variabilité, et la conformité SSM sans recourir à des vitesses réduites permanentes. À noter : l'article ne fournit pas de données de validation expérimentale sur cellules de production réelles, ce qui sera déterminant pour les intégrateurs en phase d'évaluation. L'article est publié par Cogniedge.ai, startup positionnée sur les architectures edge pour la robotique collaborative, dans un contexte de transition progressive des lignes brownfield vers des configurations HRC sans cage de protection. La norme ISO/TS 15066 encadre ce déploiement depuis 2016, mais son application reste freinée par des architectures logicielles héritées. Sur le marché, des acteurs comme SICK (capteurs de sécurité vision), Pilz (PNOZ, SafetyBUS) ou Veo Robotics (racheté par FANUC en 2023 après avoir développé une approche similaire de vision 3D pour SSM) adressent des segments proches. Du côté européen, des entreprises comme Pollen Robotics ou Enchanted Tools travaillent sur des plateformes robotiques à latence réduite, mais davantage dans des contextes de service que d'assemblage industriel. Les prochaines étapes logiques pour Cogniedge.ai seraient de publier des benchmarks comparatifs et de sécuriser des pilotes en production réelle, deux éléments absents de cette publication.

UELes intégrateurs européens soumis à l'ISO/TS 15066 pourraient adopter ces architectures edge-direct pour maintenir la conformité SSM sans sacrifier les temps de cycle sur les lignes HRC brownfield, mais l'absence de validation expérimentale retarde toute décision d'adoption.

IndustrielOpinion
1 source
Figure et 1X accélèrent la production de robots humanoïdes
11IEEE Spectrum Robotics 

Figure et 1X accélèrent la production de robots humanoïdes

Figure atteint désormais une cadence de production de 55 robots humanoïdes par semaine, selon une annonce publiée fin avril 2026. Ces unités sont, selon la startup américaine, destinées aux équipes internes de R&D, à la collecte de données, au développement de tâches domestiques de bout en bout et à des "cas d'usage commerciaux en développement", une formulation qui interroge sur la destination réelle de cette production alors que les déploiements commerciaux restent à maturité. En parallèle, 1X Technologies a officiellement ouvert la NEO Factory à Hayward, en Californie : une usine de 58 000 pieds carrés (environ 5 400 m²) employant plus de 200 personnes, avec une chaîne entièrement intégrée couvrant moteurs, batteries, transmissions, capteurs, structures et assemblage final. Les premières unités NEO sortent déjà des lignes de production, avec des livraisons grand public annoncées pour 2026. Sur le plan technique, Agility Robotics a publié des tests d'équilibre dynamique sur une seule jambe pour son robot Digit, et une équipe de recherche a présenté HTD (Humanoid Transformer with Touch Dreaming), un système de manipulation humanoïde combinant téleopération VR, apprentissage par renforcement pour le bas du corps et capteurs tactiles distribués. La montée en cadence simultanée de Figure et 1X marque un glissement du secteur humanoïde vers la production industrielle, mais chaque annonce appelle une lecture critique. Produire 55 unités par semaine sans contrats commerciaux confirmés suggère soit une stratégie de collecte de données à grande échelle, ressource clé pour l'entraînement des politiques VLA (Vision-Language-Action), soit une anticipation agressive de la demande avant une prochaine levée de fonds. L'intégration verticale revendiquée par 1X, inspirée du modèle Tesla, offre une flexibilité d'itération et réduit la dépendance aux fournisseurs, mais mobilise des capitaux considérables. Les travaux d'Agility sur l'équilibre dynamique illustrent par ailleurs que le gap sim-to-real reste un verrou technique central : la moindre divergence entre modèle simulé et robot réel peut provoquer une instabilité en conditions réelles, limitant directement la fiabilité en milieu industriel. Figure, fondée en 2022 par Brett Adcock, a levé plus de 750 millions de dollars avec BMW, Microsoft et Amazon comme partenaires, et opère un pilote chez BMW Manufacturing en Caroline du Sud depuis 2024, bien que les vidéos publiées restent en conditions contrôlées. 1X, société norvégienne soutenue par OpenAI et Tiger Global, se positionne sur le marché résidentiel face à Tesla Optimus (déployé progressivement dans les usines Tesla), aux robots Agility Digit (opérés chez Amazon) et aux fabricants chinois comme Unitree (G1, H1) qui exercent une pression tarifaire croissante. Aucun acteur européen, ni Wandercraft, ni Enchanted Tools, ni Pollen Robotics, n'annonce de production à ce volume pour l'instant. Les prochains trimestres détermineront si ces cadences correspondent à des commandes fermes ou à une stratégie de positionnement avant financement.

UELa montée en cadence de Figure et 1X exerce une pression concurrentielle sur les acteurs européens (Wandercraft, Enchanted Tools, Pollen Robotics), qui n'annoncent pas de volumes de production comparables à ce stade.

HumanoïdesActu
1 source
IA incarnée et création artistique : Alter-Art, un robot avatar pour explorer l'art
12arXiv cs.RO 

IA incarnée et création artistique : Alter-Art, un robot avatar pour explorer l'art

Des chercheurs ont publié sur arXiv (arXiv:2604.26473) un travail exploratoire autour du paradigme qu'ils nomment "Alter-Art" : permettre à un artiste humain d'habiter un corps robotique, baptisé Alter-Ego, pour créer dans le monde physique. Le système repose sur une téléopération immersive combinée à une actuation dite "compliant" (articulations à compliance variable, capables d'absorber les forces de contact sans rigidité excessive), offrant un retour sensoriel en première personne. Trois domaines artistiques ont été testés : la danse, le théâtre (aux côtés d'acteurs humains en chair et en os) et la peinture sur toile. L'article ne communique pas de spécifications hardware précises, nombre de degrés de liberté, payload, latence de la boucle de téléopération, ce qui limite l'évaluation externe des performances réelles du système. L'intérêt de ce travail pour la communauté robotique ne réside pas tant dans les specs techniques que dans le cadre conceptuel qu'il propose : l'embodiment comme principe de design central, distinct à la fois du robot autonome et du robot collaboratif. Les retours qualitatifs des artistes indiquent qu'un sentiment de présence dans le corps robotique se développe rapidement, et que les contraintes physiques du robot, cinématique limitée, inertie, précision motrice différente, influencent activement le processus créatif plutôt que de simplement le contraindre. Pour les intégrateurs et chercheurs en téléprésence, cela valide l'idée que la compliance mécanique n'est pas qu'un paramètre de sécurité mais un vecteur d'expressivité. L'accessibilité artistique pour des personnes à mobilité réduite est également mentionnée comme application concrète. Ce travail s'inscrit dans une tendance plus large autour de la téléprésence incarnée (embodied telepresence), un champ où des groupes comme ceux travaillant sur les interfaces haptiques (Shadow Robotics, Kinova) ou les robots de téléprésence sociale croisent désormais les arts vivants. En France, des acteurs comme Enchanted Tools (Miroki) et Pollen Robotics (Reachy) explorent des territoires adjacents, interaction sociale et manipulation expressive. L'équipe ne précise pas d'étapes de déploiement ni de partenariats industriels annoncés ; l'article reste à ce stade une contribution académique exploratoire, sans prototype commercialisé ni timeline de mise sur le marché.

UELes résultats sur la compliance mécanique comme vecteur d'expressivité pourraient nourrir la réflexion de design des acteurs français comme Enchanted Tools (Miroki) et Pollen Robotics (Reachy), actifs dans l'interaction sociale et la manipulation expressive, sans impact opérationnel immédiat.

RecherchePaper
1 source
Conception, modélisation et évaluation expérimentale d'un mécanisme d'abduction-adduction du poignet à câbles pour exosquelette du membre supérieur
13arXiv cs.RO 

Conception, modélisation et évaluation expérimentale d'un mécanisme d'abduction-adduction du poignet à câbles pour exosquelette du membre supérieur

Des chercheurs ont publié sur arXiv (preprint 2604.20893, avril 2026) un mécanisme inédit d'actionnement par tendon unique pour le mouvement d'abduction-adduction du poignet dans un exosquelette de membre supérieur. Le système repose sur un câble de Bowden unique, maintenu en tension permanente par un ressort de torsion spiralé (dit "clock spring"), ce qui élimine le besoin d'une actuation antagoniste classique. Le prototype a été évalué expérimentalement avec cinq participants sans déficience motrice (NMD), dans différentes positions du bras et sous plusieurs charges, à travers trois configurations de ressorts. Les résultats montrent une bonne concordance entre les prédictions de simulation et les données expérimentales, avec la configuration nominale offrant le meilleur compromis entre amplitude de mouvement, couple requis et répétabilité. Ce travail s'attaque à un problème réel dans la conception d'exosquelettes du poignet : les actionneurs conventionnels (moteurs électriques, pneumatique) alourdissent le dispositif, introduisent des frottements et compliquent l'intégration mécanique. L'approche par câble de Bowden assisté par ressort torsionnel permet d'obtenir un mécanisme compact et léger, sans recourir à un câble de retour actif. Point méthodologique notable : les auteurs proposent une méthode de sélection des paramètres de rigidité entièrement guidée par simulation, ce qui réduit la dépendance au tuning empirique itératif, typiquement coûteux en phase de prototypage. Pour les intégrateurs en rééducation robotique, cela ouvre la voie à un processus de conception plus prévisible, même si l'évaluation sur cinq sujets valides reste insuffisante pour valider l'usage clinique. Les exosquelettes de poignet font l'objet d'une recherche active, avec des acteurs académiques et industriels comme Hocoma, Tyromotion ou, côté français, Wandercraft et Pollen Robotics qui travaillent sur la rééducation du membre supérieur. L'articulation du poignet, et notamment son degré de liberté en abduction-adduction, est souvent la moins bien couverte dans les dispositifs existants, car mécaniquement complexe à intégrer. Ce preprint ne présente pas un produit commercialisé mais un prototype de recherche validé en laboratoire; les prochaines étapes naturelles seraient une étude sur des patients post-AVC ou avec pathologies neuromusculaires, et une intégration dans un exosquelette complet du membre supérieur.

UECe mécanisme compact par câble de Bowden et ressort torsionnel pourrait informer les équipes R&D européennes en rééducation robotique (Wandercraft, Pollen Robotics), mais reste un preprint sans validation clinique ni transfert industriel annoncé.

ExosquelettesPaper
1 source
Planification hybride tâche-mouvement et gestion réactive des collisions pour le démontage multi-robots de batteries VE
14arXiv cs.RO 

Planification hybride tâche-mouvement et gestion réactive des collisions pour le démontage multi-robots de batteries VE

Des chercheurs ont publié, dans un article arXiv (2509.21020v2), un cadre de planification tâche-et-mouvement (TAMP) appliqué au démontage de batteries de véhicules électriques par deux bras robotiques travaillant en parallèle. Le système intègre une décomposition et une allocation dynamique des tâches, un planificateur de trajectoire basé sur RRT enrichi par un modèle de mélanges gaussiens (GMM), et une couche de sécurité hybride combinant un jumeau numérique MoveIt/FCL pour la détection prédictive de collisions avec un module d'évitement réactif par vision. Contrairement à une planification en boucle ouverte, le système opère en boucle fermée : il rescanne la scène en continu et met à jour la séquence de tâches restante selon l'état d'achèvement réel. Sur des expériences physiques de démontage de batteries EV, comparé à l'algorithme de référence RRTConnect, le framework réduit la longueur cumulée des trajectoires d'effecteur de 48,8 m à 17,9 m (soit -63,3 %), améliore le temps global de cycle (makespan) de 467,9 s à 429,8 s (-8,1 %), et diminue les volumes balayés par chaque robot (R1 : de 0,583 à 0,139 m³ ; R2 : de 0,696 à 0,252 m³), ainsi que leur chevauchement (de 0,064 à 0,034 m³). Ces résultats sont significatifs pour les intégrateurs industriels qui travaillent sur des lignes de démantèlement de batteries en fin de vie, un marché en forte croissance avec la montée en volume des VE. La combinaison planification prédictive et évitement réactif -- sans recours à une trajectoire figée -- est ce qui distingue l'approche : le système peut gérer des obstacles dynamiques et des imprévus de perception sans replanification globale coûteuse. La réduction de 63 % des distances parcourues réduit mécaniquement l'usure, le temps d'exposition aux risques de collision et l'énergie consommée, trois facteurs critiques pour un passage à l'échelle industrielle. Il faut noter que les expériences sont réelles (pas uniquement en simulation), ce qui renforce la crédibilité des métriques, même si les conditions exactes de test (variété des modules de batteries, taux d'échec de perception) ne sont pas détaillées dans le résumé. Le problème de démontage de batteries VE est devenu un axe de recherche prioritaire avec les objectifs européens de recyclage fixés par le règlement batteries 2023. Des équipes académiques et industrielles comme celles gravitant autour de MoveIt (OSRF), ainsi que des acteurs français tels que Pollen Robotics ou des intégrateurs proches du CEA-List, explorent des pistes similaires. Ce travail s'inscrit dans une tendance plus large : dépasser le sim-to-real gap en déployant des planificateurs hybrides sur du matériel réel, et adresser des tâches séquentielles complexes à contraintes d'ordre strict (précédence de dévissage, fragilité des cellules). La prochaine étape logique serait de tester la robustesse sur une gamme élargie de modèles de batteries et d'intégrer un retour haptique pour les phases de contact délicat.

UECe cadre TAMP répond directement aux objectifs de recyclage fixés par le règlement batteries UE 2023, en rendant le démantèlement automatisé de batteries VE en fin de vie plus efficace et scalable pour les intégrateurs industriels européens.

💬 63 % de réduction de trajectoires sur de vrais robots, pas en simulation, c'est rare dans les papiers arXiv et ça change vraiment la crédibilité du truc. La boucle fermée (rescan continu, réallocation dynamique) c'est exactement ce qu'il faut pour tenir en conditions industrielles, où une batterie mal positionnée ou un module abîmé peuvent faire dérailler toute la séquence. Reste à voir si ça tient sur une gamme large de modèles de batteries, parce que les conditions exactes de test ne sont pas détaillées, mais le règlement UE 2023 va créer la demande, et là il commence à y avoir des outils à la hauteur.

IndustrielPaper
1 source
Calibration main-oeil en continu pour la manipulation robotique en environnement ouvert
15arXiv cs.RO 

Calibration main-oeil en continu pour la manipulation robotique en environnement ouvert

Une équipe de chercheurs a publié sur arXiv (arXiv:2604.15814) un framework d'étalonnage main-oeil continu (continual hand-eye calibration) destiné aux robots manipulateurs déployés dans des environnements ouverts et changeants. Le problème adressé est précis : les modèles de calibration basés sur le deep learning perdent leur précision sur les scènes précédemment apprises dès qu'ils s'adaptent à un nouvel environnement, un phénomène connu sous le nom d'oubli catastrophique (catastrophic forgetting). Le framework proposé repose sur deux composants distincts. Le premier, SARS (Spatial-Aware Replay Strategy), construit un buffer de rejeu géométriquement uniforme qui couvre l'espace de poses de chaque scène sans redondance, en sélectionnant les points de vue les plus informatifs plutôt que les frames adjacentes. Le second, SPDD (Structure-Preserving Dual Distillation), décompose la connaissance de localisation en deux niveaux, la structure grossière de la scène et la précision fine de pose, puis applique une distillation séparée pour préserver les deux dimensions lors des adaptations successives. Les expériences sur plusieurs datasets publics confirment que le modèle maintient la précision sur les scènes passées tout en s'adaptant aux nouvelles. L'enjeu industriel est réel : un bras manipulateur recalibré pour une nouvelle cellule de production ne devrait pas perdre sa précision sur les postes précédents. C'est le problème quotidien des intégrateurs qui déploient des robots dans des lignes flexibles ou multi-produits. La plupart des approches actuelles imposent soit un recalibrage complet à chaque changement de scène, soit acceptent une dégradation progressive des performances sur les configurations antérieures. Ce travail propose une voie intermédiaire via l'apprentissage continu structuré, sans recourir à un replay naïf qui ne suffit pas à enrayer l'oubli. L'approche par distillation duale est notamment pertinente car elle distingue deux types d'erreur, positionnement global et précision locale, ce que les méthodes monolithiques ne font pas. Ce travail s'inscrit dans un champ de recherche en forte activité depuis 2022, où la robustesse de la calibration visuelle en conditions réelles est identifiée comme l'un des goulots d'étranglement pour le passage à l'échelle des manipulateurs autonomes. La localisation visuelle pour la calibration main-oeil emprunte aux techniques de Visual Place Recognition (VPR) et de relocalisation utilisées en navigation mobile, mais les contraintes de précision sous-millimétrique propres à la manipulation y ajoutent une difficulté spécifique. Parmi les acteurs qui travaillent sur des problèmes adjacents figurent des équipes comme Physical Intelligence (pi) avec Pi-0, ou des laboratoires comme le Stanford AI Lab et ETH Zurich sur la sim-to-real calibration. En France, des acteurs comme Enchanted Tools et Pollen Robotics, qui développent des plateformes d'interaction physique, sont directement concernés par ce type de verrou. La prochaine étape naturelle pour ce framework serait une validation sur des données industrielles réelles et une intégration dans des pipelines de déploiement multi-cellules, que les auteurs n'ont pas encore annoncée.

UEEnchanted Tools et Pollen Robotics, qui développent des plateformes de manipulation physique en France, sont directement concernés par ce verrou de calibration continue, susceptible de réduire les coûts de redéploiement en production flexible.

RecherchePaper
1 source
NVIDIA donne vie à des agents avec DGX Spark et Reachy Mini
16HuggingFace Blog 

NVIDIA donne vie à des agents avec DGX Spark et Reachy Mini

NVIDIA introduit DGX Spark, une plateforme AI miniature, et Reachy Mini, un bras robotique. DGX Spark est conçu pour les développeurs, offrant une puissance de calcul pour des applications AI locales. Reachy Mini est un bras robotique collaboratif, plus petit et plus abordable, destiné aux démonstrations et à l'apprentissage. Résumé: NVIDIA lance DGX Spark, une plateforme AI compacte pour développeurs, et Reachy Mini, un bras robotique collaboratif plus petit et accessible.

UENVIDIA's DGX Spark et Reachy Mini pourraient propulser les startups et PME françaises dans l'IA et la robotique, en fournissant des outils de calcul accessibles et des bras robotiques collaboratifs, tout en respectant les futures exigences de l'AI Act et en offrant des opportunités dans divers secteurs.

HumanoïdesOutil
1 source
Critiques des Règles : Une plateforme robotique open-source innovante, Reachy Mini, destinée aux constructeurs d'intelligence artificielle actuels et futurs
17HuggingFace Blog 

Critiques des Règles : Une plateforme robotique open-source innovante, Reachy Mini, destinée aux constructeurs d'intelligence artificielle actuels et futurs

Le Reachy Mini est un robot open-source conçu pour les constructeurs d'IA actuels et futurs. Il est équipé de bras articulés et peut être contrôlé via un logiciel open-source. Ce robot est idéal pour les applications de recherche, d'éducation et de développement. Résumé: Le Reachy Mini, un robot open-source avec bras articulés, vise les constructeurs d'IA, offrant applications en recherche, éducation et développement.

UELe Reachy Mini, robot open-source avec bras articulés, fournit aux constructeurs d'IA français des outils pour la recherche, l'éducation et le développement, en ligne avec l'AI Act, tout en favorisant l'innovation et la compétitivité dans le secteur technologique européen.

HumanoïdesOutil
1 source