Aller au contenu principal
QNX présentera des démonstrations pratiques et de nouvelles recherches au Robotics Summit
InfrastructureThe Robot Report5j

QNX présentera des démonstrations pratiques et de nouvelles recherches au Robotics Summit

1 source couvre ce sujet·Source originale ↗·
Résumé IASource uniqueImpact UE

QNX, la division logicielle temps-réel de BlackBerry Ltd., sera présente au Robotics Summit & Expo les 27 et 28 mai 2025 à Boston, avec trois démonstrations interactives et le lancement d'une étude de marché inédite. Sur le stand, la société présentera un bras robotique d'entrée de gamme capable de détecter et imiter les gestes humains pour saisir des objets, en s'appuyant sur son programme QNX Everywhere qui offre un accès gratuit au logiciel pour le prototypage. Un second démonstrateur simule un environnement de "Digital Factory Automation" : un bras industriel piloté par QNX OS fusionne données lidar et vision pour détecter et éviter les obstacles en temps réel, avec réponse déterministe immédiate dès qu'un objet ou une personne entre dans son périmètre. Le troisième poste, tournant sur hardware Intel et NVIDIA, exploite la détection de pose par IA pour répliquer les mouvements d'un visiteur sur un avatar à l'écran, ciblant explicitement les plateformes utilisées dans les robots humanoïdes. En parallèle, QNX dévoilera son "Inside the Robot: Architecture Benchmark Report", une étude basée sur 1 000 développeurs en robotique à l'échelle mondiale, qui cartographie les freins à l'adoption, les écarts entre ambitions système et capacités réelles, et les tendances du secteur. John Wall, président de QNX, participera au keynote d'ouverture "Building the Next Era of Robot Autonomy" aux côtés de représentants d'Amazon Robotics, Locus Robotics et Universal Robots.

La participation de QNX à ce salon illustre une tension structurelle du marché : les équipes d'IA embarquée savent entraîner des modèles, mais peinent à garantir le comportement déterministe requis dès lors que ces modèles pilotent des actionneurs physiques en environnement humain. QNX positionne son RTOS (Real-Time Operating System) comme la couche d'exécution qui traduit les décisions d'un VLA (Vision-Language-Action model) ou d'un module de pose detection en commandes moteur à latence bornée et prévisible. Le benchmark report est potentiellement plus significatif que les démos : avec 1 000 répondants développeurs, il devrait objectiver les vrais goulots d'étranglement du cycle sim-to-real, là où la majorité des communications sectorielles restent des annonces produit sans données comparatives. Pour un COO industriel ou un intégrateur, la question clé n'est pas "est-ce que le bras évite les obstacles en démo" mais "quel est le taux de défaillance certifiable en production", ce que l'étude prétend adresser.

QNX existe depuis 1980 et son RTOS est historiquement déployé dans l'automobile (ADAS, infotainment), le médical et l'aérospatiale, des secteurs où la certification fonctionnelle (ISO 26262, IEC 61508) est non-négociable. L'entrée en robotique collaborative et humanoïde représente une extension logique à mesure que ces systèmes quittent les cages industrielles pour les entrepôts et espaces partagés. Sur ce terrain, QNX affronte Wind River (VxWorks), ROS 2 avec son middleware DDS pour le temps-réel souple, et des stacks propriétaires comme ceux qu'embarquent Boston Dynamics ou Figure AI. Le programme QNX Everywhere, qui ouvre l'accès gratuit pour le prototypage, est une réponse directe à l'adoption massive de ROS dans les labs universitaires et startups. Les suites concrètes à surveiller : la publication du benchmark report lors du salon, et d'éventuelles annonces de partenariats OEM avec des fabricants de bras collaboratifs ou de plateformes humanoïdes dans les mois suivants.

Dans nos dossiers

À lire aussi

Hesai dévoile sa stratégie et de nouveaux produits pour redéfinir l'infrastructure d'IA physique, de l'automobile à la robotique
1Pandaily 

Hesai dévoile sa stratégie et de nouveaux produits pour redéfinir l'infrastructure d'IA physique, de l'automobile à la robotique

Le 17 avril 2026, Hesai Technology (NASDAQ: HSAI, HKEX: 2525) a tenu son Technology Open Day annuel pour dévoiler le Picasso SPAD-SoC, présenté comme le premier chip LiDAR 6D full-color au monde. Ce circuit intègre à la fois la détection couleur RGB et la mesure de distance par temps de vol (TOF) au niveau pixel, générant directement des nuages de points colorés sans post-traitement. Le LiDAR traditionnel se limite aux trois dimensions spatiales XYZ ; le Picasso ajoute la teinte (RGB), portant à six les dimensions de perception simultanée. Son efficacité de détection photonique (PDE) dépasse 40 %, ce qui permet de détecter des objets plus lointains et de mieux performer en faible luminosité. Ce chip alimente la série ETX, plateforme LiDAR full-color dépassant 1 000 lignes, disponible en configurations 1 080, 2 160 et 4 320 lignes. En version haute résolution, le ETX affiche une portée jusqu'à 600 mètres, 400 mètres à 10 % de réflectivité, et est capable d'identifier une barrière de chantier à 300 mètres, un petit animal à 280 mètres, ou un bloc de bois à 150 mètres. La mise en production de masse est prévue pour le second semestre 2026, avec un déploiement sur des modèles phares attendu entre 2027 et 2028. L'annonce repositionne Hesai sur un marché en pleine redéfinition : le passage de la voiture autonome de niveau 2+ vers le L3 exige que le LiDAR passe du statut de composant optionnel à celui de système de sécurité critique. Les architectures véhicules basculent vers des configurations multi-LiDAR (typiquement 3 à 6 capteurs pour une couverture 360°), ce qui démultiplie les volumes par véhicule. Le fait que Hesai soit aujourd'hui le seul fabricant de LiDAR à développer en interne l'intégralité de ses sept composants clés, lasers, détecteurs, drivers, TIA, ADC, DSP et contrôleurs, lui confère une autonomie verticale rare dans un secteur très dépendant des fournisseurs asiatiques de semi-conducteurs. Avec 21 puces certifiées AEC-Q, 230 millions d'unités livrées cumulées et des commandes constructeurs dépassant les 6 millions d'unités pour les seuls produits basés sur le Fermi C500 (lancé en novembre 2025 sur architecture RISC-V), Hesai présente des métriques de commercialisation réels, pas seulement des démonstrations de laboratoire. Fondée à Shanghai, Hesai a construit son écosystème chip en cinq générations de R&D. La dénomination "Picasso", référence au peintre cubiste et à sa maîtrise de la représentation multidimensionnelle, marque symboliquement le pivot stratégique de l'entreprise vers ce qu'elle appelle l'"intelligence spatiale", matérialisé par le nouveau produit Kosmo (hardware IA spatial) et une direction inédite autour de modules d'alimentation pour la robotique. Sur ce dernier segment, Hesai entre en compétition directe avec des acteurs comme Ouster (désormais Ouster-Velodyne fusionné avec Sense Photonics), Luminar, ou encore RoboSense, qui ciblent tous la robotique humanoïde et les AMR industriels. Hesai prévoit que ses livraisons cumulées dépasseront 300 millions d'unités d'ici fin 2026. Les prochaines étapes attendues concernent les homologations L3 par les constructeurs partenaires et les premières intégrations Kosmo dans des environnements de test physique AI, mais aucun client ni calendrier précis n'a été communiqué sur ces deux points.

InfrastructureActu
1 source
GMSL et l'écosystème croissant autour des systèmes de vision pour la robotique
2Robotics Business Review 

GMSL et l'écosystème croissant autour des systèmes de vision pour la robotique

Le standard GMSL (Gigabit Multimedia Serial Link), longtemps cantonné aux systèmes embarqués automobiles comme l'ADAS, s'impose progressivement dans les architectures de vision robotique industrielle. Selon Stephen Liu, responsable robotique chez Advantech, développeur de systèmes embarqués, environ un tiers des projets robotiques qu'il accompagne utilisent ou envisagent déjà des caméras GMSL. La technologie permet de transporter vidéo haute résolution, signaux de contrôle et synchronisation sur un unique câble léger, avec une latence déterministe et une résistance aux interférences électromagnétiques (EMI) significativement améliorée. Analog Devices (ADI), qui dispose d'un écosystème GMSL structuré -- modules caméra pré-validés, adaptateurs, BSP (Board Support Packages) et plateformes compatibles ROS -- positionne cette offre comme un raccourci entre preuve de concept et production de masse. L'adoption dépasse le stade POC : les plateformes AMR (robots mobiles autonomes) de logistique en sont les premiers utilisateurs en production, suivis par les robots humanoïdes, les stations de picking, les applications agricoles et certains usages en santé et construction. Ce glissement du GMSL vers la robotique répond à une contrainte système qui s'aggrave : à mesure que le nombre de capteurs embarqués augmente (caméras multiples, lidars, IMU), la gestion simultanée de la bande passante, de la latence et de la synchronisation devient le vrai goulot d'étranglement. Un décalage de quelques millisecondes entre les flux capteurs suffit à dégrader la précision de navigation. "Les robots ne font pas que voir, ils doivent décider et agir instantanément", résume Liu, ce qui impose une coordination serrée entre GPU, MPU et système d'exploitation temps réel. Dans des environnements difficiles -- vibrations, poussière, températures extrêmes, câblages longs dans des châssis compacts -- les contraintes d'ESD et d'intégrité de signal rendent les interfaces non-automotive-grade insuffisantes. Le GMSL apporte ici une robustesse éprouvée en conditions réelles, sans surcharger les équipes d'intégration d'une couche de développement bas niveau supplémentaire. La transition depuis l'automobile n'est pas anodine sur le plan industriel. Les chaînes d'outillage ADAS ont absorbé pendant une décennie les problèmes que la robotique affronte aujourd'hui : multiples caméras synchronisées, longues distances de câblage, tolérance zéro aux pannes de perception. ADI capitalise sur cet héritage pour proposer un écosystème directement transposable, réduisant les délais d'intégration de plusieurs mois à quelques semaines selon Advantech. Les concurrents directs sur ce segment -- notamment les acteurs proposant des solutions basées sur MIPI CSI-2 ou USB3 Vision -- restent pertinents pour les robots opérant en conditions contrôlées, mais peinent à répondre aux contraintes des déploiements extérieurs ou mobiles à longue durée. Les prochaines étapes portent sur l'extension vers les humanoïdes et les plateformes agricoles, segments où la densité sensorielle et la rugosité environnementale font du GMSL un candidat naturel face aux architectures plus conventionnelles.

UEL'adoption du GMSL dans les AMR et robots industriels concerne indirectement les intégrateurs et fabricants européens confrontés aux mêmes contraintes de synchronisation multi-capteurs dans leurs architectures de vision embarquée.

InfrastructureOpinion
1 source
L'évolution de la connectivité visuelle en robotique : de l'USB et l'Ethernet au GMSL
3Robotics Business Review 

L'évolution de la connectivité visuelle en robotique : de l'USB et l'Ethernet au GMSL

La connectivité vision dans les systèmes robotiques traverse une mutation structurelle. Pendant près d'une décennie, les intégrateurs ont déployé des caméras USB ou Ethernet (protocole GigE Vision) pour alimenter les pipelines de perception des robots. L'USB, bon marché et universellement supporté, suffisait au prototypage, mais ses contraintes de longueur de câble, sa latence non déterministe et sa charge CPU élevée l'ont rendu inadapté aux plateformes complexes. GigE Vision a ensuite étendu la portée et standardisé les interfaces entre fournisseurs, au prix d'un processeur embarqué sur chaque caméra pour packetiser les données, ajoutant latence et complexité réseau. Aujourd'hui, le GMSL (Gigabit Multimedia Serial Link), conçu initialement pour les systèmes caméra de l'automobile, s'impose comme alternative de référence dans les architectures robotiques de nouvelle génération. Ce standard transmet des images non compressées, un contrôle bidirectionnel et l'alimentation électrique sur un unique câble coaxial ou paire torsadée blindée, sur plusieurs mètres de portée, adapté aux plateformes mobiles et articulées. La tendance est claire : les robots modernes embarquent désormais huit capteurs d'images ou plus, répartis sur l'ensemble de la structure, pour des fonctions allant de l'évitement d'obstacles à la manipulation dextre et à l'interaction humain-robot. L'enjeu pour les intégrateurs et décideurs B2B est celui du déterminisme. Les systèmes USB et Ethernet souffrent d'arbitrage et de buffering qui introduisent une variabilité de latence incompatible avec la perception temps réel : boucles de contrôle pour la manipulation, fusion LiDAR-IMU-caméra, vision stéréo synchronisée. GMSL établit une liaison point-à-point dédiée par caméra vers un calculateur centralisé (GPU embarqué ou FPGA), éliminant ces aléas. C'est un changement d'architecture, pas simplement d'interface : le traitement migre vers un noeud central unique plutôt que d'être fragmenté sur chaque caméra. Pour les plateformes qui doivent fusionner données RGB, LiDAR, radar et IMU avec une synchronisation stricte - typiquement les humanoïdes et les AMR de nouvelle génération - ce déterminisme est une exigence fonctionnelle, pas un confort. Le GMSL est issu de l'industrie automobile, où Analog Devices (ADI), principal promoteur de la technologie, l'a développé pour répondre aux exigences des systèmes ADAS et de conduite autonome : robustesse électromagnétique, temps réel, longues portées de câble. Ce transfert technologique auto-vers-robotique s'inscrit dans une dynamique plus large du secteur, où plusieurs standards automotive (Ethernet TSN, MIPI CSI-2) trouvent des débouchés dans les plateformes robotiques. ADI n'est pas seul sur ce créneau : Texas Instruments et NVIDIA proposent leurs propres écosystèmes de connectivité vision pour la robotique, et le choix d'interface reste un facteur de différenciation dans les appels d'offres industriels. À noter que l'article source est publié par ADI lui-même, ce qui invite à lire les métriques comparatives avec le recul habituel vis-à-vis des communications techniques de fournisseurs. La prochaine étape du secteur sera probablement la standardisation : des consortiums comme MIPI Alliance travaillent à harmoniser les interfaces caméra pour faciliter l'interopérabilité entre fournisseurs de capteurs, de calculateurs et intégrateurs robot.

UELes intégrateurs robotiques européens peuvent être amenés à intégrer le GMSL dans leurs cahiers des charges pour les nouvelles plateformes, mais aucun acteur ou réglementation FR/EU n'est directement impliqué.

InfrastructureActu
1 source
La convergence des systèmes de perception, de l'automobile aux robots
4Robotics Business Review 

La convergence des systèmes de perception, de l'automobile aux robots

Une nouvelle génération de robots mobiles - AMR en entrepôts et hôpitaux, drones à longue autonomie, humanoïdes opérant aux côtés des humains - exige désormais des architectures de perception radicalement différentes de celles des décennies précédentes. Là où les capteurs jouaient autrefois un rôle secondaire dans le contrôle, ils constituent aujourd'hui l'entrée principale : la vision haute résolution guide la navigation et la manipulation dextère, le traitement audio multi-microphones permet la localisation sonore et l'interaction vocale, tandis que les capteurs de force et de toucher affinent la préhension et l'équilibre. Ces modalités doivent être synchronisées en temps réel pour alimenter la fusion sensorielle et les boucles de contrôle fermées. Le vrai défi n'est plus de concevoir un capteur isolé ou un modèle autonome, mais de faire fonctionner ensemble, de manière fiable, la perception, la connectivité, le calcul, l'énergie et la sécurité dans des environnements imprévisibles. Ce défi est précisément celui qu'a résolu l'industrie automobile en traitant le véhicule comme un système nerveux distribué : un réseau intégré de capteurs, de processeurs embarqués, de liaisons de communication et d'éléments de contrôle, conçu pour se comporter de façon prévisible dans des conditions réelles. La robotique converge aujourd'hui vers ce même modèle architectural. Pour les intégrateurs et les décideurs industriels, les implications sont concrètes : les données doivent arriver rapidement et de façon déterministe, les capteurs sont physiquement distribués à travers des articulations mobiles ou de longs câbles, et les défaillances doivent être détectables et localisables en temps réel. Les plateformes qui manquent d'observabilité sur l'intégrité des capteurs ou l'état énergétique deviennent de plus en plus fragiles à mesure que leur complexité augmente, rallongeant les cycles de débogage et rendant les déploiements terrain coûteux. A contrario, une architecture conçue avec des diagnostics embarqués et une connectivité déterministe réduit l'incertitude et transforme la sécurité en accélérateur d'itération plutôt qu'en contrainte. Analog Devices (ADI), fabricant de semi-conducteurs à l'interface des marchés automobile et des nouvelles mobilités, signe cette analyse pour promouvoir le transfert de ses technologies automotive-grade vers la robotique et les drones - un parti pris commercial qu'il convient de garder à l'esprit. Ces composants ont été développés sous des contraintes sévères : conditions électriques difficiles, enveloppes thermiques étroites, durées de vie longues et tolérance zéro aux défaillances silencieuses. Des liaisons vision haute bande passante et faible latence permettent, par exemple, la perception multi-caméra sur de grandes structures robotiques, tandis que des réseaux audio déterministes supportent la localisation sonore et l'interaction naturelle avec les humains. ADI se positionne ainsi face à NVIDIA (Jetson, Isaac), Qualcomm et Texas Instruments dans la fourniture de briques de traitement embarqué pour robots et drones. L'article ne cite aucun déploiement en volume ni chiffre de performance concret - il relève davantage du positionnement stratégique que du retour terrain, et les prochaines étapes évoquées restent au stade des perspectives génériques.

InfrastructureActu
1 source