Sacha Arnoud raconte la longue route de Waymo vers le véhicule autonome

Sacha Arnoud est directeur de l'ingénierie chez Waymo et travaille chez Google depuis 2010. Dans la vidéo que je vous propose ci dessous, il donne des indications intéressantes sur le programme de travail de Google sur ces dernières années. Entre les premiers prototypes en 2009 et le lancement annoncé avant la fin de 2018 d'un service commercial de robots taxis sans "safety driver"presque 10 ans se sont écoulés. "Lorsqu'on a fait 90% du chemin, 90% des efforts restent à faire" semble être la morale de cette aventure technique et industrielle.  


Dès 2010, Google avait déjà atteint un premier objectif ambitieux : parcourir en autonomie totale 10 boucles sur des routes ouvertes présentant des complexités très variées : en milieu urbain à San Francisco, sur autoroutes et sur des routes de montagne. 

Pendant les années qui ont suivi, Waymo a bénéficié des avancées considérables de Google Brain en "deep learning". Il s'agit par exemple, des technologies utilisées en production depuis 2012 dans Street View pour interpréter les informations présentes sur les façades : numéro et nom des rues, noms et activités des commerces, signalisation routière...  La mise en oeuvre de ces technologies en temps réel, par exemple pour détecter des piétons, dans des véhicules qui ne sont pas toujours connectés nécessite des adaptations importantes. Sacha mentionne plusieurs articles clés dont les dates de publication marquent les progrès réalisés.

Pour mieux faire comprendre ce qui est en oeuvre aujourd'hui dans les véhicules robots de Waymo, l'analyse se focalise sur la fonction de perception. Cette fonction reçoit en entrée les informations fournies en temps réel par les capteurs de la voiture et des informations cartographiques "historiques" décrivant le lieu. A partir de ces données, la fonction produit une description de la situation dans laquelle se trouve le véhicule. 
Vers la minute 28, il explique l'importance de la perception pour un véhicule qui conduit mieux qu'un humain et qui ne se contente pas simplement d'éviter les obstacles sur son chemin. Dans l'exemple, un véhicule de police, gyrophare allumé, porte ouverte est garé sur la droite.Le policier se tient au milieu de la route et un cycliste, devant le véhicule autonome, se prépare à le contourner...Pour gérer cette situation, il est nécessaire d'interpréter les différentes composantes non seulement comme des "obstacles", mais comme des concepts sémantiquement riches : par exemple un véhicule de police stationné avec gyrophare et dont la porte avant droite est ouverte...
Le deep plarning est aussi nécessaire pour "corriger" les artefacts des capteurs. Les reflets ou les images détectées par certains capteurs doivent, par exemple, être ignorés et non confondus avec des informations réelles.
La "segmentation sémantique" de la scène est donc une étape clé qui se heurte à de nombreuses difficultés. Certains objets : plaques de neige sur la route, sacs en plastique, végétation n'ont pas de "forme caractéristique". Pour les détecter il faut recourir à des méthodes optimisées pour ne pas mobiliser trop de puissance informatique.
L'interprétation des piétons est particulièrement difficile compte tenu de leurs formes variables, des champs sémantiques complexes caractérisant leurs activités, et  de leur comportement qui peut être erratique.
Le recours à des réseaux de neurones récurrents est indispensable pour exploiter les informations capturées à différentes étapes de la trajectoire du véhicule et des différentes composantes de la scène.
La technologie Tensor Flow offre, à tous les scientifiques qui l'utilisent des outils, des données et un langage commun qui facilitent le travail d'équipe efficace.
La présentation se conclut par les 3 stratégies de test utilisées par Waymo ; 
  • la conduite sur routes ouvertes (4 millions de km en 2017), 
  • la simulation (25 milliards de km simulés en 2017)  
  • et la réalisation de tests scénarisés dans des environnements spécialisés sur l'ancienne base aérienne de Castle en Californie.

Si les véhicules autonomes vous intéressent,vous trouverez sur ici les autres articles de Transid sur ce sujet.

Une étude APUR et MIT sur les véhicules autonomes : du contexte international au cas du Grand Paris



L'Apur c'est associée avec l'Urban Mobility Lab du MIT pour produire un rapport présentant à la fois un état de l'art mondial sur les VA (Véhicules Autonomes) et une réflexion spécifique sur l'expérimentation dans le contexte du Grand Paris.
Je vous livre ici quelques notes en vous recommandant la lecture du rapport (en anglais) ou au moins celle d'une note de synthèse en français.

Législation

Un rappel de la stratégie nationale pour le développement du véhicule autonome est fait. Un encadré fait aussi le point sur la réglementation aux USA en insistant sur les dispositions prises en Californie et sur l'approche extrêmement libérale de l'Arizona. 
Le chiffre de $80Mds d'investissements industriels dans les technologies de VA est extrait d'une étude de The Brookings institution.  Au passage, cette étude contient un graphe du nombre cumulé des opérations investissements qui donne une indication sur le dynamisme du secteur :
Source: The Brookings Institution
Le rôle de la puissance publique ne s'arrête pas au pilotage de la stratégie industrielle, ni aux processus d'autorisations. Le rapport aborde l'importance des investissements publics dans les infrastructures. Il s'agit d'aménager les routes mais aussi de disposer des réseaux de communications et d'énergie nécessaires pour ces VA qui seront connectés et majoritairement électriques...
Enfin, mais sans surprise, les acteurs industriels attendent un cadre réglementaire claire et adaptable (!) et s'inquiètent de la superposition des juridictions territoriales...

La technologie et ses impacts sur les systèmes de transport

Le document rappelle les 5 niveaux d'autonomie et détaille l'importance de la notion de domaine sur lequel un véhicule est sensé être en mesure d'être autonome.Il distingue les navettes (type EasyMile ou Navya) et les RoboTaxis pour le transports de voyageurs et différents concepts pour le transports de fret et les livraisons. Enfin il couvre la nécessité d'adapter les infrastructures urbaines pour assurer la possibilité de recharger les véhicules électriques, assurer la connectivité et la communication "sol bord" ou V2X. Il souligne la tension qui peut exister entre les investissements consacrés aux nouvelles technologies et celles qu'il faudra en parallèle continuer à consacrer à la route et à la signalisation "classique". 
La question du péage n'est abordée qu'au travers de l'expérimentation Renault Sanef, sans doute aurait on pu imaginer un développement un peu plus long pour des technologies qui permettent de financer l'évolution des systèmes de mobilité ?  

Etude de cas d'expérimentation

Des fiches présentent des expérimentations  intéressantes dans le monde entier.
. A garbage trucks, Sweden The future of municipal services?
. Singapore Wide-spread testing of diverse technologies.
. Wageningen, Netherlands Fixed-route shuttles for last-mile solutions.
. Helsinki, Finland A targeted, Smart City approach to AVs.
. Phoenix-area, United States Limited regulations and a car-focused approach.
. Paris, France Strong consumer feedback in a pedestrian-friendly area.
. Rouen, France A ride-hailing car service to supplement public transportation.
. Shenzhen, China An eager interest in new technologies combined with a high consumer acceptance.
. Sion, Switzerland : A tourist attraction in a dense, pedestrian-heavy area.

Les VA et la Ville

Cette section fait le point sur l'intérêt que pourrait présenter les VA en ville en particulier en matière :
  • de sécurité, 
  • de congestion (par exemple en limitant les effets de "stop & go" dans les embouteillages), 
  • d'optimisation des services de "Mass Transit" (en améliorant la diffusion et le rabattement vers les gares), 
  • de développement de nouveaux services de transports partagés, 
  • de lutte contre les émissions, 
  • d'emploi...
Le rapport explore aussi les effets potentiellement négatifs et les bonnes options pour les limiter. L'analyse est résumée dans le tableau suivant :
Les mesures recommandées sont :
  • la baisse du nombre de places de stationnement, 
  • une tarification variable pour l'usage de la route visant à encourager le partage aux heures de pointe, 
  • l'intégration des services de types VA et transports publics,
  • une tarification sociale pour favoriser l'accès aux services de VA pour les personnes à faibles revenus, 
  • une centralisation des données pour permettre aux voyageurs de choisir les meilleurs itinéraires et d'optimiser le choix des modes,  
  • le choix de véhicules zéro émission.
Au delà de ces mesures réglementaires, la prise en compte des VA dans la conception (design) de la ville est nécessaire. Il s'agit notamment :
  • d'optimiser dynamiquement l'espace libéré par la réduction du nombre de places de stationnement,
  • revoir la conception de rues, pour agrandir les trottoirs ou faciliter la cohabitation des modes, 
  • de s'intéresser à la gestion des données pour optimiser l'usage de la chaussée et pour étudier la tarification dynamique. 

Une approche pour une expérimentation pour le Grand Paris 

Pour finir, des priorités spécifiques au contexte du Grand Paris sont formulées :
  • valoriser les expérimentations ayant un impact sur le développement durable et l'environnement, conformément à l'engagement de Paris d'être neutre en terme d'émissions carbone en 2050...
  • viser l'articulation avec le système de Mass Transit et les mobilités partagées,
  • améliorer la desserte des zones les moins desservies notamment grâce à des services de transport à la demande et à des véhicules adaptés. 
  • encourager les cohabitation des modes, 
  • coordonner les échanges de données entre plateformes pour faciliter l'information,
  • adapter les services pour les touristes, notamment dans la perspective des JO de 2024.
Des lignes directrices qui reprennent en partie ces priorités y ajoutent les points suivants en conclusion :
  • le soutien pour des véhicules de grande capacité pouvant circuler sur les autoroutes et s'articuler avec les services de Mass Transit, 
  • le développement de services intégrés de type MaaS pour l'information, la réservation, la vente aux voyageurs, 
  • l'aménagement de la voirie en vue de faciliter son partage entre des modes ayant des vitesses et des besoins différents, 
  • des espaces publics connectés en lien avec le développement de cartographie numérique,
  • le développement de l'open data, de la connectivité et des infrastructures de recharge en énergie,
  • l'optimisation du stationnement et des espaces de livraison.  

Sécurité des véhicules robots aux USA avec Chris Gerdes

Chris Gerdes est professeur de mécanique, directeur du Centre pour la Recherche Automobile (CARS)  et directeur du programme REVS à Stanford. Il est aussi passionné d'automobiles et un entrepreneur ; fondateur de Peloton.
Pourtant, dans la vidéo ci-dessous, il s'inspire surtout de son expérience au ministère des transports américain (USDOT) dont il fut le premier Chief Innovation Officer. Il y parle de la sécurité des véhicules autonomes et du cadre réglementaire. L'intérêt de son exposé tient au fait qu'il croise une excellent vision des enjeux réglementaires (aux USA au moins) avec une expertise technique.

Les expériences spectaculaires de Stanford

Il commence par évoquer Shelley l'Audi TTS autonome utilisée par Stanford pour approcher le comportement d'un pilote de course sur un anneau de vitesse ou l'incroyable DeLorean surnommée Marty qui réalise des dérapages contrôlés (des drifts) autonomes et très spectaculaires ! 
L'objectif de ces travaux universitaires (!) est de comparer les performances de robots et de conducteurs humains dans des cas de conduites "aux limites".

La certification des véhicules aux USA

Environ 7.30 minutes après le début, il présente les normes fédérales pour la sécurité des véhicules à moteur "FMVSS" en précisant qu'aucune certification n'est exigée aux USA avant la mise sur le marché d'un véhicule. Chaque constructeur assume lui même l'évaluation de ses véhicules  avant leur mise sur le marché, ces normes sont obligatoires, mais pas vérifiées ex-ante.
Il insiste sur le temps nécessaire (7 ans) pour faire évoluer ces normes et donc sur le décalage entre le temps des règles et celui des innovations.
Il estime (en s'appuyant sur un rapport de Volpe) que ces règles, bien qu'inadaptées, n'empêchent en rien la mise sur les routes de véhicules autonomes. Pour traiter les questions soulevées par ces nouveaux véhicules, USDOT a mis en place un cadre pour l'évaluation de la sécurité en 15 points (mise à jour par l'administration Trump en 2017).
La vision pour la sécurité des systèmes autonomes de transport
de la National Highway Traffic Safety Administration (NHTSA)
Ces points doivent être étudiés par les constructeurs. Il s'agit par exemple de bien définir le cadre d'exploitation du véhicule (ODD Operation Design Domain), de la détection d'objets et d'événements, des mécanisme de retour vers une situation sûre (fallback), etc.. Voici un rapide résumé des 12 points retenus dans la nouvelle version du document :
  1. System Safety : l'approche "système" est mise en avant dès le titre du document (on parle d'ADS pour Autonomous Driving Systems) et il est fait référence de façon indicative aux pratiques et aux normes des secteurs de l'aviation, de l'espace et de la défense.
  2. Operational Design Domain il doit au minimum porter sur le type de routes, les zones géographiques, les vitesses et conditions d'emploi (météo, visibilité...).
  3. Object and Event Detection and Response qui distingue la conduite "normale" et les dispositions permettant d'éviter une collision. La conduite normale inclut notamment le respect du code de la route, mais aussi celui de "l'étiquette" et la capacité à éviter les comportements dangereux des autres véhicules.
  4. Fallback (Minimal Risk Condition) qui couvre les modes permettant, lors de la détection d'un problème, de ce rapprocher d'une situation qui présente un minimum de risque.
  5. Validation Methods différentes méthodes sont évoquées (tests sur pistes d'essai, conduite sur routes ouvertes, simulation...) mais aucune n'est particulièrement préconisée.
  6. Human Machine Interface couvre, au sens large, les interactions avec les passagers y compris l'éventuel conducteur, les autres véhicules et les piétons et cyclistes, et le cas échéant, avec les opérateurs en charge de la supervision. Dans le cas des véhicules conçus pour être totalement autonomes, les interactions avec des utilisateurs présentant des déficiences physiques, perceptives ou cognitives doit être étudiées.
  7. Vehicle Cybersecurity dans ce domaine la coopération entre les acteurs est encouragée pour partager les risques et les parades.
  8. Crashworthiness : il est précisé que la réalisation de crash tests n'est pas obligatoire et que l'agence nationale ne demande pas accès aux résultats de ces tests lorsqu'ils sont réalisés;
  9. Post-Crash ADS Behavior couvre la sécurité à l'issue d'un crash...
  10. Data Recording il est nécessaire d'enregistrer les données du véhicules et d'être en mesure de les partager avec l'administration en cas d'accident.
  11. Consumer Education and Training il s'agit notamment de bien informer les utilisateurs des bonnes conditions de fonctionnement des automatismes.
  12. Federal, State, and Local Laws, les constructeurs doivent garder trace des démarches entreprises pour se conformer aux lois des différents états et aux règles locales...

Quels tests pour garantir la sécurité ? 

Il aborde ensuite la question de test. La simulation numérique lui semble apporter une couverture plus robuste que les tests  sur piste ou sur route ouverte. Pourtant, de nouveau, l'USDOT ne préconise pas un type de test sur les autres. En revanche, les systèmes programmés de façon déterministe et le système apprenant (IA) nécessitent probablement des approches différentes...

Un code de la route qui se fonde sur le bon sens des humains est il adapté aux  robots ?

Il conclut sur les questions relatives au "jugement" du conducteur. Le fameux dilemme du tramway, relève de questions morales souvent difficiles à trancher. Il doit aussi faire l'objet d'une approche plus pragmatique visant à développer toutes les mesures techniques qui permettent de limiter, voir d'éviter les défaillances qui conduisent au dilemme.
Plus que ce dilemme, c'est la question des règles (code de la route)  qui est pertinente. Ces règles sont conçues pour des conducteurs qui disposent de "bon sens" pour les interpréter et décider qu'il convient parfois de les contourner.
Ces règles peuvent poser problèmes si les véhicules robots sont programmés pour les respecter à la lettre.
Plutôt que d'obliger les robots à conduire "aussi mal" que les hommes, c'est donc, selon Chris Gerdes, une révision règles du code de la route qu'il faut entreprendre. Elle prendra en compte les capacités des robots au delà de celles des humains. En s'appuyant sur ses capacités techniques inaccessibles aux humains, le robot pourra atteindre un niveau de sécurité et de performance optimal.      
La conférence est suivie par une série de questions intéressantes.


Informatique quantique et révolution scientifique

Lorsque la "quantum supremacy" sera atteinte, certains problèmes totalement insolubles à l'aide de méthodes "digitales", vont pouvoir être résolus dans des temps suffisamment courts pour que cela ait un intérêt pratique. J'ai donné un exemple de problème de ce type dans l'article sur la cryptologie et l'informatique quantique.

En pratique, de très nombreux problèmes relèvent de cette catégorie et nous avons appris à vivre sans les résoudre...

Avec un ordinateur quantique, la résolution de certains de ces problèmes va ouvrir des voies de recherche nouvelles dans des domaines variés. La question de savoir quels problèmes vont pouvoir être résolus et lesquels resteront insolubles est assez ésotérique.  Pour faire simple, les ordinateurs quantiques vont rendre pratiquement possible la résolution de certains problèmes insolubles aujourd'hui mais il restera des problèmes inattaquables même avec des ordinateurs quantiques.

La chimie est un domaine emblématique d'application de l'informatique quantique. La modélisation les interactions entres atomes pourrait permettre de mieux comprendre le comportement de molécules et de mettre au point des réactions inconnues aujourd'hui. Cela permettra sans doute de synthétiser certains produits de façon plus efficace, de trouver de nouveaux médicaments ou de développer des matériaux totalement nouveaux....

Beaucoup de problèmes d'optimisation aujourd'hui insolubles sauf à petite échelle, pourraient être résolus. Des gains d'efficacité importants pourraient en résulter y compris dans le secteur des transports et de la logistique. Les problèmes classiques du voyageur de commerce et du sac à dos ont, par exemple, des solutions "efficaces" sur un ordinateur quantique. Ces problèmes "théoriques" se retrouvent naturellement dans l'optimisation de nombreux processus dans le secteur des transports.

Les algorithmes de "machine learning" pourraient aussi être améliorés et leur apprentissage accéléré... Comme il est, déjà, difficile de mesurer l'impact de l'intelligence artificielle dans nos vies et nos métiers, j'ai du mal à mesurer ce que cela pourrait permettre "en plus"...

Toujours en mathématique appliquée, on attend des avancées importantes pour certains modèles statistiques (par exemple pour les méthodes de Monte Carlo) qui ont, des applications variées dans de nombreux secteurs : finance, planification en général y compris pour la planification urbaine...

Les ordinateurs quantiques eux mêmes devraient voir leurs performances s'améliorer grâce au développement de nouveaux modèles et aux avancées réalisées dans le domaine de la modélisation des molécules...

Au delà de l'informatique, on envisage l'exploitation des phénomènes quantiques dans d'autres domaines et par exemple dans celui des télécommunications ou des systèmes de navigation... Plus précisément, l'intrication de deux états quantiques peut être réalisé entre deux particules distantes et permettre ainsi la transmission d'information entre  deux points distants de plusieurs centaines de kilomètres et ce de façon "immédiate" ! Les systèmes de navigation inertielle classiques pourraient être concurrencés par des systèmes quantiques beaucoup plus précis.

La "quantum supremacy" ne sera pas simplement un jalon dans l'histoire de l'informatique, cela devrait être le point de départ d'une nouvelle phase d'accélération de découvertes scientifiques. Toute la question est, maintenant, de savoir quand et surtout comment ce jalon va se matérialiser. L'accessibilité de ces technologies pourrait, par exemple, rester limitée à quelques entreprises ou à quelques pays pour des questions de prix ou de sécurité nationale.

Cet article est le quatrième (et dernier ?) d'une série sur l'informatique quantique.

Informatique quantique et cryptologie

La cryptologie est un domaine étrange dans lequel l'impossibilité de résoudre certains problèmes est utile... Ainsi, une grande partie des algorithmes de chiffrement commerciaux actuels (AES par exemple), notamment ceux qui sécurisent les échanges entre votre navigateur et les serveurs des sites internet, reposent sur l'impossibilité de factoriser un grand nombre en nombres premiers.

La décomposition d'un entier en nombres premiers est un problème trivial pour des nombres de 2 ou 3 chiffres (15= 3*5,  116=2*2*29). Elle devient rapidement longue dès que le nombre est grand. Un très grand nombre (1000 chiffres par exemple) pourrait nécessiter, pour être décomposé, des milliers d'années même en mobilisant toute la puissance de calcul digitale disponible... La sécurité de nos communications repose sur cette asymétrie entre une opération très rapide à réaliser : le produit de deux grands nombres, et sur son inverse, la décomposition d'un grand nombre en facteurs premiers qui elle est trop longue pour être pratiquée...

L'informatique quantique permet d'aborder le problème différemment. Plus précisément l'algorithme de Shor permet (permettrait puisque l'ordinateur qui permettra de le faire fonctionner n'existe pas encore) de factoriser de grands nombres dans un "temps polynomial". L'opération inverse devient accessible pour les longueur de clés de chiffrement actuellement utilisée et les secrets peuvent être trouvés...  

Une fois la "quantum supremacy" atteinte (voir l'article précédent), ces algorithmes seront, donc, obsolètes. Nous pourrons quasi instantanément déchiffrer les échanges précédemment chiffrés... Et cela pose de gros soucis à beaucoup de gens !

Les cryptologues travaillent dès aujourd'hui sur de nouveaux algorithmes de chiffrage "résistants à l'informatique quantique" (post quantum cryptography). De nouvelles normes de sécurité "post quantiques" sont, dès aujourd'hui, en cours d'évaluation par le NIST, l'institut des standards américains.

Ces nouveaux standards resteront compatibles avec nos PC "digitaux" mais elles ne seront attaquables ni à partir de PC digitaux ni à partir d'ordinateurs quantiques.

Derrière les enjeux commerciaux évoqués jusqu'ici, les technologies quantiques ont, bien entendu, des applications dans le domaine de la défense. Au delà de la course des industriels, les états et les services de cryptologies gouvernementaux sont aussi en compétition. Un rapport récent du CNAS (center for new american security) documente les avancées chinoises en matière d'informatique, mais aussi de télécommunications, de radars, de senseurs et de systèmes de navigation quantiques. Il estime que la domination stratégique des USA pourrait être menacée par l'ambition des programmes de recherche chinois. Ce rapport a, semble t il, incité la chambre de représentants à accélérer la R&D gouvernementale dans le domaine.
Topsecretsidebar

Cet article est le troisième d'une série sur l'informatique quantique.

Les ordinateurs quantiques existent déjà, mais bientôt ils seront utiles !

Au départ, les ordinateurs quantiques n'étaient qu'un concept théorique issu de la physique quantique. Dès les années 80, des chercheurs imaginent des algorithmes qui pourraient tirer parti des propriétés de superposition et d'intrication des états quantiques. La notion de qubit c'est à dire d'un élément d'information associé à un état quantique, qui peut faire l'objet d'opérations programmées  est née.

Ce n'est qu'à la fin des années 90 qu'une première paire de qubits  "valide la théorie" en réalisant un premier ensemble d'opérations en profitant d'un instant très court pendant lequel les qubits sont utilisables.... Une des difficultés majeure va-t-être de maintenir le qubit dans un état propice au calcul. Pour cela, sans rentrer dans le détail, il faut le maintenir à une température proche du zéro absolu, le protéger des rayonnements et malgré tout interagir avec lui... Bref, ces ordinateurs sont, pour le moment, des objets bien compliqués comme illustré ci dessous.

IBM Q quantum computer



Ce sont ces obstacles que les scientifiques, puis les industriels vont résoudre progressivement. Les ordinateurs quantiques s'améliorent (voir cette "timeline du quantum computing"). Ils sont à la fois plus importants (plusieurs dizaines de qubits), ils restent stables plus longtemps (plusieurs dizaines de microsecondes), génèrent moins d'erreurs... Les véritables performances des différents ordinateurs existants sont assez difficiles à benchmarker. Le secret industriel est de mise car les investissements sont très importants.

Aujourd'hui, IBM et Microsoft (au moins) proposent même des ordinateurs quantiques (et/ou des simulateurs) utilisables en ligne. La réalité de leur performances est attestée par des publications scientifiques et par de nombreux travaux académiques. Atos, de son côté, commercialise un simulateur quantique permettant de développer dès aujourd'hui les algorithmes de demain et s'entoure d'un comité scientifique qui apporte un crédit certain aux messages commerciaux. 

Pourtant, pour le moment tout cela ne permet pas encore de résoudre un problème que nos ordinateurs classiques ne sauraient pas résoudre.

Une cinquantaine, peut être cent qubits avec une stabilité suffisante semblent nécessaires pour résoudre des problèmes réellement impossibles à résoudre avec des ordinateurs digitaux... Les chercheurs estiment que d'ici 3 à 5 ans, ces performances devraient être atteintes. Nous sommes donc relativement proches de cette frontière qu'on appelle "Quantum Supremacy", la date à laquelle un champs d'investigation nouveau s'ouvrira pour tous les scientifiques !

Bien entendu, la quantum supremacy ne va pas sonner le glas des ordinateurs digitaux actuels. Ils cohabiteront et collaboreront probablement, chacun restant dans son domaine de prédilection.

A ce stade,  il est utile de dire un mot de la société canadienne D-Wave puisqu'elle dispose dans son catalogue di D-Wave 2000Q qui propose 2000 Qubits. Sans chercher à arbitrer une controverse, je vous renvoie à leur page Wikipedia en français sur laquelle on comprend que les qubits de D-Wave  ne sont pas en mesure de réaliser toutes les opérations des qubits "classiques"  et sont optimisés pour un usage particulier. Cette limitation ne permet, par exemple pas, de traiter le problème de factorisation de grands entiers en nombre premier de façon efficace.

Cet article est le second d'une série d'article sur l'informatique quantique.

Se renseigner sur l'informatique quantique, c'est facile et nécessaire !

L'informatique quantique ne date pas d'hier et les observateurs les plus agés ont peut être l'impression qu'elle nous promets des lendemains qui chantent depuis des décennies... Et c'est un peu vrai ! mon conseil est néanmoins de vous (ré)intéresser à cette technologie aujourd'hui car les perspectives de mise en application sont proches (quelques années quand même) et tout à fait intéressantes !

Je vais essayer de vous en persuader au travers d'une série d'articles (le projet initial était un article unique, mais au fil de la rédaction, j'arrive à 4 articles au moins !).

Mais commençons par le commencement !
La bonne nouvelle est que le web regorge de ressources qui peuvent vous permettre de mieux appréhender les différentes facettes de l'informatique quantique. Les grands acteurs industriels investissent sur le hardware depuis des années. Aujourd'hui ils investissent aussi sur les logiciels qui tourneront sur ces ordinateurs et sur le développement des compétences nécessaires pour appliquer ces nouvelles capacités de calcul dans différents domaines... 
J'ai exploré quelques uns de ces liens et propose de les partager avec vous. Je suis bien entendu preneur d'autres sites, MOOC et tutoriaux sur le sujet !
  • Atos propose des vidéos et un peu de contenu sur Atos Quantum. Ils témoignent de l'engagement de Thierry Breton, et de la création d'un comité scientifique rassemblant un impressionnant groupe de scientifiques français et européen de très haut niveau. Atos met, notamment, l'accent sur une offre de simulateurs quantiques permettant de développer dès aujourd'hui les algorithmes de demain.  
  • Google propose  un ensemble de publications scientifiques et deux outils open source qui s'adressent à des lecteurs ayant déjà une connaissance du sujet.
  • IBM est, au contraire, très didactique. Le site quantumexperience.ng.bluemix.net est une sorte de MOOC permettant de s'approprier progressivement les concepts généraux, puis de s'intéresser à la programmation en utilisant des outils mis à disposition par IBM. Un éditeur graphique permet de se familiariser avec les spécificités de la programmation quantique et de réaliser vos premiers essais sans avoir à investir sur un langage spécifique. Un kit de développement open source QISKit, des simulateurs, et un véritable ordinateur quantique disponibles gratuitement "on line" permettent d'aller plus loin.
  • Microsoft propose aussi des ressources pédagogiques très complémentaires de celles d'IBM. Un Mirosoft Quantum Development Kit est disponible pour les courageux. Le langage s'appelle Q#, il est intégré dans Visual Studio et permet aussi d'accéder à des simulateurs.
En résumé et pour démarrer je vous conseille d'abord IBM et Miccrosoft.

En guise de conclusion j'ai retrouvé ce "cartoon" de XKCD qui rappelle que les fondamentaux du domaine restent extrêmement complexes et qui nous incite à la modestie !


Véhicule autonome : que propose la plateforme ouverte Apollo de Baidu ?

Les véhicules autonomes sont des sytèmes complexes. Pour les comprendre, les initiatives "open source" sont préciseuses. Elles offrent des informations vérifiables et des logiciels réutilisables. J'ai tenté dans cet article d'explorer celle de Baidu nomée Apollo. Au passage j'en mentionne quelques autres, mais je suis loin d'avoir épuisé le sujet. Le domaine reste très dynamique. N'hésitez pas à compléter en utilisant les commentaires et bonne lecture !


Apollo est une initiative du géant chinois Baidu visant à accélérer le développement des véhicules autonomes. Open Source, elle semble assez dynamique et progresse de semaine en semaine. Elle offre principalement des logiciels open source, mais aussi d'autres composants intéressants que j'évoque ci-dessous.

Un système complet de logiciels ouverts pour le véhicule

Un ensemble de logiciels est disponible sur GitHub. On y trouve notamment :
  • Un Système d'exploitation temps réel (RTOS), 
  • Un framework pour les applications utilisées par le véhicules,
  • Et les principales applications embarquées nécessaires à l'autonomie : gestion des capteurs, cartographie et localisation, planification de la trajectoire et controle du véhicule via le bus CAN, interface homme machine...
D'autres initiatives open source ont la même ambition, notamment AGL Automotive Grade Linux de la Linux Foundation. Notons au passage que ce sont les lorientais de iot.bzh qui sont les premiers contributeurs d'AGL. L'équipe a pouttant l'air de ne pas se prendre au sérieux  et ils embauchent (à Lorient en plus !).

Une version intégrée des différents logiciels, dite "end to end", permet de disposer d'une version de référence "clés en main" associée à un certain niveau de performance. Ainsi actuellement la version 2.5.0 possède les fonctions suivantes : This release allows the vehicle to autonomously run on geo-fenced highways. Vehicles are able to do lane keeping cruise and avoid collisions with the leading vehicles.  

Coma.ai crée  par George Hotz propose aussi un "agent de conduite" ouvert : Openpilot qui utilise une simple caméra. Openpilot offre des fonctions d'adaptative cruise control et de lane keeping assist system.

L'architecture générale retenue par Apollo permet de simuler l'ensemble des logiciels sur une configuration matérielle donnée, mais aussi d'intégrer dans la simulation des "composants matériels réels" qui permettent d'interagir avec la simulation. 

Cette simulation avec "hardware in the loop" est aussi l'objet de AirSim de Microsoft, open source aussi qui permet de simuler des drones, mais aussi des véhicules autonomes.

Une plateforme "harware" de référence

Cette plateforme comporte un véhicule Lincoln MKZ (marque de luxe propriété de Ford) intégrant un kit ADAS (Advanced Driver Assistance System), une centrale inertielle Novatel, un calculateur embarqué Astuff, un recepteur GNSS ProPak et son antenne, une carte de communication CAN ESD et un Lidar Velodyne.

Des services hébergés : cloud services

Il s'agit de services en ligne du catalogue de Baidu sur lesquels s'appuient les briques logicielles embarquées. Cette offre se compare à celles des géants américains comme Google ou Amazon par exemple et bien entendu elle n'est ni ouverte ni gratuite... Il s'agit notamment :
  • d'une carte haute définition, 
  • des services géolocalisés et On line travel agency (OTA), 
  • des services d'IA (DuerOS) utilisés notamment pour de la reconnaissance d'image ou du langage naturel,
  • mais aussi de fonctions de sécurité.

Des données

La plateforme propose plusieurs ensembles de données annotées manuellement et utiles pour l'apprentissage des différentes briques logicielles. On y trouve par exemple :

Pour l'apprentissage
  • des nuages de points Lidar et des images de caméras annotées pour la détection et la classification des obstacles : piétons, véhicules motorisés ou pas et "autres types"...
  • des photos de feux tricolores permettant d'entraîner les logiciels de reconnaissance des feux,
  • des données d'environnement permettant d'entraîner ou de tester les briques de calcul de trajectoire ou de compréhension de l'environnement... 
Pour les tests un outil permet de sélectionner le scénario : tourner à droite à un carrefour, à gauche, changer de voie... Avec différents type d'obstacles et sans. L'objectif est, pour chaque scénario, de récupérer les éléments perçus en entrée et de ceux attendus en sortie du module à tester.

Enfin, des données de démonstration permettent de constater et d'analyser le comportement des différents modules existants. Par exemple le module de fusion des données des différents capteurs permet de comprendre comment fonctionne le logiciel correspondant et d'en débugger les nouvelles versions.

La plateforme propose, naturellement, aux utilisateurs d'enrichir la base avec des données qu'ils ont eux mêmes collectées, en précisant le capteur utilisé, le pays et si ces données ont été capturées en mode autonome ou non. Cette approche rappelle celle astucieusement proposée par Coma.ai. Si vous disposez d'un boîtier ODB sur votre véhicule et d'un simple téléphone mobile équipé de l'application Chffr (ou mieux du DashCam EON ) , vous pouvez enregistrer toutes vos données de conduite et la vidéo capturée par votre "DashCam". Coma.ai propose alors de les télécharger pour enrichir sa base de conduite ! Quel bénéfice pour vous ? l'avenir des voitures autonomes dépend de vous !

Un écosystème de partenaires

Une centaine de partenaires sont actuellement identifiés parmi lesquels : Bosch, Delphi et Continental, ou Intel, Miscrosoft et NVIDIA... Cet écosystème permet de proposer des réalisations très variées. On trouve notamment des vidéos de promotion pour des intégrationsdu système dans des camions (CIDI), des bus Golden Dragon...

Un fond d'investissement

Enfin, Baidu propose aux start-ups actives dans les domaines des capteurs, des données ou du software des offres de capital...

Réglementation et mobilité en débat aux Etats Unis

Le premier accident mortel impliquant un véhicule Uber en mode autonome et un piéton a eu lieu le 20 mars 2018. Quelques semaines après, les révélations concernant le traitement des données personnelles par Facebook et Cambridge Analytica ont conduit à l'audition de Mark Zuckerberg par le congrès américain. Ces deux événements ravivent le débat sur la réglementation et l'innovation aux USA en général et en Californie en particulier. 

Citylab titre "il est temps de réglementer la technologie des Smart Cities". Laura Bliss dénonce le "laissez faire" des autorités américaines plus préoccupées par la promotion des entreprises innovantes que par la protection des citoyens. Elle souligne les risques importants liés non seulement au traitement des données de mobilités mais aussi  à la sécurité physique des voyageurs.

Jeff Spross dans The Week du 8 mars, estime que les véhicules autonomes sont surfaits (overhyped). Il montre que les bénéfices liés à la diminution des embouteillages et de la pollution ne sont pas liés à l'automatisation des véhicules. L'automatisation qui rendrait les déplacements automobiles plus souples, moins chers et plus confortables, pourrait au contraire aggraver la congestion et la pollution. Les mesures réellement efficaces : augmentation du partage des véhicules (autonomes ou pas), l'électrification massive et développement des transport public demandent des décisions publiques difficiles à prendre ! The New York Times produit une belle infographie sur le même sujet intitulée Automated Vehicule Can't Save Cities avec à peu près le même argumentaire.

La décision publique c'est, d'ailleurs, explicitement le champs d'action de SideWalk Labs filiale d'Alphabet qui souhaite "accélérer l'innovation urbaine et être un phare pour les villes autour du monde" ("we’re creating a new type of place to accelerate urban innovation and serve as a beacon for cities around the world"). Elle est notamment active à Toronto où elle teste Replica un outil qui promets de mettre la données au service de la gouvernance, mais sur lequel peu d'informations sont disponibles pour le moment (seule une partie des principes de traitement est ouverte).

Les universitaires américains étudient aussi les liens entre innovation et réglementation. C'est le sujet de Is It Time for a Public Transit Renaissance? Navigating Travel Behavior, Technology, and Business Model Shifts in a Brave New WorldSusan Shaheen et Adam Cohen de ITSBerkeley y formulent quatre propositions pour les autorités de transport :
  • développer des partenariats public/privé, notamment pour développer l'offre de transport à la demande pour améliorer le rabattement et la diffusion à partir des lignes régulières et proposer des services moins coûteux à la place des lignes les moins fréquentées,
  • l'avènement des véhicules autonomes (sur le quel les auteurs ne partagent pas les doutes de Jeff Spross) devrait encore accélérer la tendance,
  • d'accélérer l'ouverture des données, de nouer des partenariats public/privé pour mieux les exploiter et même d'envisager d'obliger certains acteurs à fournir des données de reporting,
  • enfin, il rappelle que les services de transport doivent rester abordables et leur accès équitable.

Sur le même sujet et des mêmes auteurs, Shared Mobility Policy Briefs fait des propositions plus précises dans le cadre spécifique de l'Etat de Californie. L'état de Californie devrait, par exemple,  obtenir l'accès aux données des acteurs privés en contrepartie de l'utilisation de droits de passage dans l'espace public. Je copie ci dessous les recommandations relatives aux "applications mobiles et données impactant les transports" et vous encourage à lire le document en intégralité:


Maas : la feuille de route d'ATEC ITS France dans le cadre de Mobilité 3.0

Je profite de ce WE froid et humide pour revenir sur la Feuille de route Maas (pour Mobility as a service) de l'ATEC ITS France.
Ce document, que je vous engage à lire si vous êtes intéressé par la billettique et l'information multimodale, présente à la fois une vision de ce qu'est le "Maas" et les modalités possibles de son déploiement, des recommandations sur lesquelles je vais revenir, mais aussi un état des lieux intéressant. L'état des lieux porte notamment sur les technologies : billettiques et information multimodale dans un tableau synthétique intéressant proposé en annexe. 

L'état des lieux liste aussi les atouts et les caractéristiques nationales qui font obstacle à la mise en oeuvre de la vision... On y trouve notamment :

  1. "Une priorisation insuffisante des investissements publics sur les territoires à enjeux: les villes, communautés d’agglomérations et les métropoles déploient peu de solutions relevant de l’information ou de la billettique multimodale
  2. La multiplicité des acteurs, l’absence de chef de file, qui pénalisent la gouvernance, complexifient les projets, surenchérissent les couts et les délais
  3. La nécessité de déployer des solutions pour le plus grands nombre et non uniquement pour des catégories sociales aisées des centres urbains. 
  4. La non intégration de la voiture dans le dispositif de mobilité, qui concentre 5 des 16 freins identifiés avec le plus haut score d’importance sur le manque de coopération entre acteurs de l’automobile et de la mobilité. 
  5. Le manque de données (en particulier routières) et la qualité des données permettant de construire des services de haut niveau."
Les recommandations sont priorisées et réparties en 4 axes : Connaître, Innover, Déployer, Organiser... Les plus prioritaires sont : 

Quatre propositions relatives à l'intégration de la voiture  : 
  • "Le développement des incitatifs de covoiturage (tarifaires, temps de parcours : voies réservées, ouverture des couloirs bus, ...) et les dispositifs de contrôle."
  • "Le déploiement de moyens pour disposer de la données temps réel de trafic routier (boucles, FCD, ...) L’évolution de la tarification de la mobilité au niveau des bassins de vie afin de favoriser la mobilité durable là où des alternatives existent (tarification centrée sur l’usage, simplification des tarifications, intégration de la voiture en favorisant le covoiturage, ...). "
  • "Permettre aux AOMD de mettre en place des péages urbains, ou une tarification de la voiture intégrée aux autres mobilités. "
  • "Le développement de projets de covoiturage périurbain rassemblant agglomérations et des acteurs de la filière automobile intégré à la billettique multimodale. "
Puis des actions relatives aux données de mobilités :
  • "Le passage aux actes sur l’ouverture des données publiques, l’accès à de nouvelles données publiques et la disponibilité des données privées en mode partenarial, en veillant cependant à l’équité concurrentielle",
  • "La création de plateformes territoriales, au bon niveau selon les situations permettant de rassembler l’ensemble des données en un seul point, ce qui facilite la création de services totalement multimodaux." 
Enfin, des actions liées à la gouvernance :
  •  "avoir un chef de file sur la mobilité ce qui est clef pour faciliter le déploiement du MaaS. Plusieurs pistes sont à explorer..."
  • "Déployer des structures de droit privées pilotées par les AOMD et des partenariats pour porter l‘information multimodale et la billettique multimodale sur les territoires." 
  • "Mettre en place un groupe Filière Automobile / AOMD / Opérateurs de transports collectifs / Opérateurs de covoiturage, sur le partage des données GPS / géolocalisées des voitures, la complémentarité covoiturage/TC, le montage de projets afférents." 
et des actions liées aux besoins en financements et à la capitalisation des expériences.

Ce dernier paragraphe porte une conviction d'ordre architecturales, je cite : "Il s’agit clairement de se focaliser sur les innovation et investissements relatifs aux architectures MaaS dites en back office, et donc à exclure du champs de ces financements les systèmes de billettiques dites media centric"
Je ne doute pas que cette phrase puisse être âprement discutée et même contestée par les partisans des systèmes "media centric", et j'en connais... 
Les tenants de ce débat opposent les systèmes de billettiques dans lesquelles le voyageurs porte un dispositif d'authentification, la vérification de ses droits (ou le calcul du sa redevance) se faisant en central (en "back office") à ceux qui considèrent que le voyageur doit porter ses droits localement.... Le premier défendent l'ABT pour Account Based Ticketing.
Pour ma part,je ne souhaite pas prendre position dans ce débat que je trouve vain comme la plupart des convictions générales en matière d'architecture technique. Je crois qu'une architecture technique doit répondre à des besoins et des contraintes spécifiques dans le cadre d'un projet donné.

Au final, un document synthétique et intéressant qui va m'inciter à suivre plus régulièrement les productions de l'ATEC ITS.

Véhicule autonome et Intelligence Artificielle...

Le MIT propose un cours de "deep learning" pour les véhicules autonomes. La deuxième leçon est un état de l'art récent en matière de véhicule autonome qui n'est ni trop technique ni trop général. Il m'a semblé intéressant de vous le résumer.


De la difficulté de prédire les évolutions du marché

Lex Fridman rappelle qu'il est bien impossible de prédire l'avenir... 
  • Doit on espérer avec les optimistes et imaginer une mobilité plus sûre et accessible à tous ?
  • Ou craindre avec les sceptiques et anticiper un chômage de masse, des algorithmes irresponsables et des failles informatiques ? 
Il rappelle aussi que les prédictions n'engagent que ceux qui y croient. Mieux vaut fonder son analyse sur ce qui existe effectivement aujourd'hui que de se perdre en conjectures sur ce qui pourrait se passer dans les années qui viennent... La vitesse de déploiement commerciale des nouvelles technologies s'est accélérée au 20eme siècle et il est possible que des ruptures rapides apparaissent aussi dans le domaine des véhicules autonomes...

Les 6 niveaux d'autonomie une notion inadaptée pour les concepteurs logiciel ? 

Lex Fridman critique ensuite le modèle SAE J3016 de la Society of Automotive Engineers qui définit 6 niveaux d'autonomie de la conduite non assistée jusqu'à l'autonomie totale.Pour ce qui est du travail de conception des algorithmes, il propose plutôt de distinguer simplement entre les systèmes qui intègrent la présence d'un homme et ceux qui visent une conduite totalement automatique sans possibilité pour le passager d'intervenir.

Les fonctions de l'IA dans un véhicule autonome

Il distingue 4 champs principaux d'application de l'intelligence artificielle :
  1. la localisation : où suis je ? 
  2. la compréhension de l'environnement qui sont et que font les différents objets, véhicules et personnes autour de moi ?
  3. la planification du déplacement : quelle doit être ma trajectoire ? 
  4. l'interaction homme machine, dans quelle position et quel état d'esprit est le pilote ? 
  5. Les communications : comment les véhicule transmet il ses intentions au pilote potentiel et aux autres humains dans l'environnement du véhicule ? 
Un fin de cession, l'auteur revient de façon plus détaillée sur ces 5 fonctions. Il en insiste notamment sur le fait que en centre ville, le point 5 semble très difficile à traiter en toute autonomie. Un conducteur humain restera probablement longtemps nécessaire pour être en mesure de s'insérer dans un flux de trafic (cas de la Place de l'étoile à Paris) ou de trouver une issue sans prendre de risque au milieu d'un flux de piétons...

L'importance de l'analyse de l'état du conducteur

Si l'homme reste "dans le système" en devant reprendre le contrôle dans certaines situations, les étapes 4 et 5 sont essentielles. En effet, le véhicule doit être en mesure de "re-mobiliser" son conducteur avec une efficacité totale et un préavis suffisant...

L'équipe de Lex au MIT travaille précisément sur le point 4 à partir des données produites par 25 Tesla spécialement équipées pour enregistrer le comportement du conducteur notamment lorsque le véhicule est en pilotage automatique. Lex affirme que sur cet échantillon 33,8% de la distance parcourues est faite sous le contrôle de l'autopilote
Cela m'a semblé très important, mais une carte montre que c'est sur les grands axes auto-routiers que le pilote automatique de Tesla fonctionne, ce qui correspond aussi aux longues distances...  L'étude des données permet aussi de constater que le regard du pilote porte à peu près aux mêmes endroits que le pilotage automatique soit engagé où pas.

Les différents capteurs

Lex présente ensuite les principaux capteurs utilisés par les véhicules : micro, caméra, ultra sons, radars, caméras et Lidar. Les premiers sont peu chers seul les lidars sont encore suffisamment chers pour ne pas pouvoir être généralisés.L'efficacité de nuit, la sensibilité aux conditions météo, la résolution, la portée varient selon la technologie, mais pour Lex, la combinaisons des senseurs peu chers permet une bonne couverture de l'environnement du véhicule.

L'état du marché 

Waymo a réalisé plus de 6 millions de km en mode autonome et surtout les premiers itinéraires réalisés sans "safety driver", c'est à dire en mode totalement autonome. La stratégie de Waymo est d'écarter totalement l'homme du pilotage. Les autres acteurs ayant adopté cette stratégie sont notamment : Uber, GM, nuTonomy, OptimusRide, Zenuity, Voyage...

Tesla avec plus de 300 000 voitures équipés et plus d'un milliard de km parcourus en pilote automatique est le leader pour la stratégie consistant à garder un pilote actif dans certaines conditions.
Audi annonce pour fin 2018 avec l'Audi A8, une prise de responsabilité du constructeur sur les accidents qui pourraient intervenir en pilotage automatique dans certaines conditions (en dessous de 60Km). Les autres acteurs sur cette stratégie sont Volvo, Mercedes, Comma.ai openpilot...

On regrette que Lex n'ait pas positionné les acteurs français et chinois dans cet état des lieux.