De la gouvernance de la complémentarité humain – robotique – IA

De la gouvernance de la complémentarité humain – robotique – IA

Face à un marché mondial de la robotique et des technologies de l’intelligence artificielle (IA) en forte croissance, et à la transformation en profondeur de l’organisation du travail, le nouvel enjeu est celui de la gouvernance de la complémentarité humain – robotique – IA. 

Le marché mondial de la robotique en 2017 et ses évolutions à 5 ans.

Selon les estimations des différentes études disponibles, le marché de la robotique et de l’intelligence artificielle pourrait atteindre 153 milliards de dollars en 2020, dont 83 milliards pour les robots et 70 pour les produits à base d’intelligence artificielle.

Ce marché n’est pas comparable au marché mondial du véhicule automobile qui est estimé à 1000 milliards de milliards.

Les différents marchés de la robotique

Le marché mondial des services en robotique industrielle :

Selon le cabinet d’analyses britannique Technavio, le marché mondial des services en robotique industrielle, devrait connaître un taux de croissance annuel moyen (CAGR) de plus de 9 % sur la période 2017 à 2021. Cette tendance s’expliquerait par « une forte demande en prestations personnalisées comprenant la conception, la simulation, la mise en service et le support d’équipements de robotisation ».

Les grands déterminants des marchés de la robotique

Robotique déterminants dumarché

Déterminants du marché de la robotique

Les secteurs à fort potentiel de développement en France

Selon l’avis de Xerfi-Precepta, la robotique industrielle française se porte plutôt bien. Près de 3300 robots multifonctions ont été vendus en 2016 (+8,4%), plaçant ainsi le marché hexagonal au pied du podium européen.

Un dynamisme porté par des politiques publiques volontaristes, multipliant les dispositifs d’aides à l’achat.

Mais selon l’avis de Xerfi-Precepta, le volume des livraisons se réduira à court terme avec la fin du dispositif de « suramortissement Macron ». La fin de ce dispositif est partiellement effective depuis le 14 avril 2017. Introduit en 2015 dans le cadre de la loi dite « Macron », le dispositif fiscal d’amortissement supplémentaire sur les investissements industriels s’est partiellement arrêté le 14 avril 2017. Une décision que le Symop, organisation professionnelle des créateurs de solutions industrielles qui a contribué à l’élaboration de cette mesure, déplore.

Selon l’étude Xerfi-Precepta, le chiffre d’affaires des « entreprises spécialisées dans la robotique industrielle présentes commercialement ou industriellement en France devrait reculer de 3% en 2017, avant de se redresser légèrement en 2018 et 2019 pour se stabiliser autour de 3200 unités ».

Le marché de la robotique est structuré en 8 secteurs clés :

  • Robots industriels : cobotique, intégration au sein d’usine du futur, cybersécurité,
  • Robots logistiques : robots picking pour le e-commerce, robots inventaires,
  • Robots agricoles : en remplacement de certains matériels agricoles,
  • Robots de santé : certification, achats par les établissements de santé,
  • Robots ménagers : facilité d’usage,
  • Robots jouets : importante valeur émotive,
  • Robots compagnons : développement en open source,  développement de nouveaux usages,
  • Robots militaires : UAS, RPAS, UGV.

La montée en puissance de la robotique dans les services domestiques et professionnels avec le développement des applications

Les robots ne cessent de conquérir de nouveaux domaines d’application, tant en robotique de service personnelle ou domestique qu’en robotique professionnelle de service. Certains domaines d’applications de la robotique sont en passe de bouleverser de nombreux métiers. 

Applications Areas Services Robots for Personal Uses

Applications Areas Services Robots for Personal Uses

Applications Areas Services Robots for Professional Uses

Applications Areas Services Robots for Professional Uses

L’investissement dans la robotique.

Selon Morningstar, les flux cumulés dans des fonds « robotique » ont atteint 1,12 milliard de dollars dans le monde. Ce succès reflète plusieurs tendances de fonds qui expliquent l’intérêt des sociétés de gestion. L’explosion des données en tous genres et de la puissance de calcul des ordinateurs, l’interconnexion croissante des objets (« IoT »), et l’innovation continue en matière d’algorithmes et de recherche scientifique ont permis l’émergence de technologies et de solutions automatiques capables de résoudre un nombre croissant de problèmes que jusqu’ici seuls l’homme pouvait traiter.

Le développement de la robotique et de l’IA au cœur de la quatrième révolution

Selon des prévisions de Tractica, spécialisée dans l’étude des marchés, le marché de l’intelligence artificielle devrait croître de 643,7 millions de dollars évalués sur 2016 à 36,8 milliards de dollars d’ici 2025. 

Au Japon, qui est l’un des pays ou les robots sont les mieux acceptés, le taux de chômage est au plus bas depuis 22 ans. Il est en effet tombé à 2,8 % en mars 2017. Malgré ce taux de chômage très faible, l’avis publié par le Nomura Research Institute conclut que 49 % des emplois présenteraient un haut risque d’automatisation au Japon.

Dans de nombreux pays en Europe et aux USA, il existe aujourd’hui un important débat pour savoir si robotique et IA seront en compétition avec les humains ou coexisteront. La montée en puissance de la robotique et des technologies IA suscitent des réactions contradictoires. Entre inquiétudes et optimismes, les réactions sont nombreuses.

Mais que disent les rapports ou études et peuvent-ils fournir des éléments de réponse au débat.

Transformations profondes, incertitudes sur les impacts de la robotisation et de l’IA sur l’emploi

La première étude sur l’incidence de la robotique «The Future of Employment: How susceptible are jobs to computerisation ?» publiée le 17 septembre 2013, avant l’enquête réalisée par le Forum Economique Mondial (WEF), par deux économistes de l’Université d’Oxford, prévoyait la disparition de 50 % des emplois aux Etats-Unis.

L’étude Roland Berger d’octobre 2014, qui analyse l’impact de la transformation digitale sur les classes moyennes prévoyait que :

« 42% des métiers présentaient une probabilité forte du fait de la numérisatio de l’économie. Pour la première fois, les métiers automatisables ne sont pas uniquement les métiers manuels. Des tâches intellectuelles de plus en plus nombreuses sont prises en charges par les outils numériques ».

« La hausse de la productivité liée à la numérisation de l’économie pourrait générer 30 mds€ de recettes publiques additionnelles et (environ) 30 mds€ d’investissements privés supplémentaires, à la condition que les pouvoirs publics engagent une stratégie volontariste d’adaptation de la France aux défis posés par la révolution digitale ».

L’enquête réalisée en janvier 2016 par le Forum économique mondial de Davos concernant les 15 premières économies mondiales dont la France, intitulée « The Future of Jobs », fait apparaître que la robotisation croissante, mais plus globalement l’intelligence artificielle et l’automatisation, auront un impact très négatif sur les marchés du travail.

Face aux études alarmistes, le Conseil d’orientation pour l’emploi (COE) en France évaluait à moins de 10% le nombre d’emplois directement menacés par l’automatisation. Cette analyse est basée sur une approche par tâches et non  par métiers.

France Stratégie dans sa note d’analyse « L’effet de l’automatisation sur l’emploi : ce qu’on sait et ce qu’on ignore » de juillet 2016 rappelait la forte influence de la première étude de 2013 et soulignait les biais de cette étude. En effet, nous vous invitons à prendre connaissance des travaux de l’équipe de recherche allemande ayant travaillé́ pour l’OCDE (Melanie Arntz et al.) et qui a pointé les limites de cette étude.

La conclusion principale des auteurs de l’étude pour l’OCDE est en effet « qu’il est peu probable que l’automatisation et la numérisation détruisent un grand nombre d’emplois. Cependant, les travailleurs peu qualifiés souffriront plus des coûts d’ajustement car leur emploi est davantage susceptible d’être automatisé que pour les travailleurs qualifiés. Ainsi, le défi futur consiste probablement à faire face à la croissance des inégalités et à veiller à former (ou former à nouveau) les travailleurs peu qualifiés ».

En juillet 2016, le Boston Consulting Group publiait son étude « Inside OPS: Are your operations ready for a digital revolution » en s’intéressant à la « Révolution Robotique » à l’horizon 2025. Cette étude a confirmé l’avis que certaines industries sont plus susceptibles de bénéficier de la robotique en raison des salaires élevés et des tâches automatisées.

Très récemment, The US National Bureau of Economic Research a publié fin mars 2017 son document de travail intitulé «Robots and Jobs: Evidence from US Labor Markets “ dans lequel des réponses concrètes sont apportées à beaucoup de questions qui font débats sur l’impact de la robotisation sur l’emploi.

Les deux économistes analyse l’effet de l’augmentation de l’utilisation du robot industriel entre 1990 et 2007 sur les marchés du travail local des États-Unis.

Selon la démarche d’analyse qui est la leur, ils en concluent que les robots peuvent réduire l’emploi et les salaires et que les effets locaux du marché du travail des robots peuvent être estimés en régressant la variation de l’emploi et des salaires sur l’exposition aux robots dans chaque marché du travail local. Selon leurs estimations, « un robot de plus par millier de travailleurs réduit le ratio d’emploi / population d’environ 0,18-0,34 points de pourcentage et les salaires de 0,25 à 0,50% ».

Organiser la gouvernance et penser la complémentarité humain – robotique – IA

Que retenir finalement de l’ensemble des rapports et études sur l’analyse des enjeux et des impacts de l’automatisation, de la robotisation et de l’IA sur l’emploi ?

En premier lieu, comme le relève France Stratégie dans sa note analyse n°49 « de juillet 2016, les emplois automatisables sont en nombre limités et l’automatisation de l’emploi ne se résume pas qu’à une question technologique.

Mentioned in Boston Consulting Group. Sources : US Bureau of Labor Statistics, « International Labor Compensation Coasts in Manufacturing Industries, 2012 ».

Il y a d’autres facteurs qui influencent le déploiement des robots et automates qui sont :

  • le mode d’organisation du travail,
  • l’acceptabilité́ sociale,
  • le positionnement en gamme,
  • la rentabilité́ économique.

L’autre raison pour laquelle il est difficile de prévoir les effets des progrès de l’automatisation et de la robotisation sur l’emploi est que l’automatisation ou la robotisation ne risque pas seulement de détruire des emplois, robotisation, automatisation et IA sont aussi susceptibles d’en créer.

Face aux inquiétudes qui surgissent sur les impacts de l’automatisation, la robotique et l’IA, il apparaît plus que jamais nécessaire de penser la complémentarité humain-robotique-IA.

Pour s’inscrire dans la pensée de la complémentarité, trois principes semblent se dégager pour parvenir à un déploiement harmonieux de la robotique et de l’intelligence artificielle :

  • premier principe directeur : veiller à ce que la robotique et l’IA soit toujours au service de l’humain ;
  • second principe directeur : identifier les modalités de complémentarités vertueuses entre l’humain et la robotique et l’IA afin de s’assurer que le déploiement de la robotique et de l’intelligence artificielle soit toujours réalisé en mettant en avant une démarche préalable d’évaluation des risques et de partage de valeurs entre la société civile et les acteurs de la chaine de valeurs. Cette approche devrait également permettre de mieux identifier les potentiels combinés pour l’humain du recours à la robotique et à l’IA mais aussi les limites ou obstacles ainsi que les conséquences qui en découleront pour l’humain. Ce second principe implique de s’interroger systématiquement sur la répartition des gains de productivité résultant du couplage automatisation, robotique et IA ;
  • troisième principe directeur : garantir l’acceptabilité sociale afin d’assurer une complémentarité entre l’humain,robotique et IA.

Face au développement du numérique, de la robotique et de l’intelligence artificielle, et aux transformations continu des métiers en profondeur, il apparaît que la formation individuelle tout au long du cycle de vie professionnelle sera déterminante afin de favoriser l’adaptation nécessaire de l’humain aux technologies de la robotique et de l’IA. Seule une formation individuelle tout au long du parcours professionnel permettra d’anticiper les mutations résultant du déploiement de ces technologies et de gérer le risque cognitif, qui devrait devenir un nouveau risque en entreprise dans les 5 prochaines années.

Si l’hypothèse d’une destruction massive d’emplois est loin d’être totalement avérée mais ne peut être totalement exclue, il faut se préparer à ce que la nature des emplois mutent sous l’influence de l’IA, de l’automatisation et de la robotique.  

Le couplage automatisation, robotique et IA va inconstestablement contribuer à supprimer les tâches les plus répétitives réalisées par l’humain et peut contribuer à une augmentation de l’humain dans ses activités domestiques et professionnelles, à la condition que l’humain garde toujours la maîtrise sur les technologies et puisse reprendre la main sur les technologies de la robotique et de l’IA.

Pour en savoir plus – For more information :

 Operations with New Robotic Process Automation Technology – Nomura Research Institute (NRI) Automates Post-trade

Robots and Jobs: Evidence from US Labor Markets, The National Bureau of Economic Research, USA – March, 2017

Inside OPS: Are your operations ready for a digital revolution – Boston Consulting Group. July, 2016.

L’effet de l’automatisation sur l’emploi : ce qu’on sait et ce qu’on ignore, Note d’analyse n°49, France Stratégie, Juillet 2016.

Arntz, M., T. Gregory et U. Zierahn  (2016), « The Risk of Automation for Jobs in OECD Countries : A Comparative Analysis », OECD Social, Employment and Migration Working Papers, No. 189, Éditions OCDE, Paris.

The Future of Jobs, FEM (WEF 2017) – January, 2016.

Les classes moyennes face à la transformation digitale. Comment anticiper ? Comment accompagner ? Boston Consulting Group, Octobre 2014.

The Future of employment:How susceptible are jobs to computerization? Carl Benedikt Frey† and Michael A. Osborne‡ September 17, 2013.

 

Technology More than Moore, end of Moore’s law, IT, AI

Technology More than Moore, end of Moore’s law, IT, AI

C’est l’un des co-fondateurs d’Intel, Gordon Earle Moore, qui en 1965 a énoncé la loi de Moore qui porte son nom.

Gordon Earle Moore Moore's Law

Gordon Earle Moore

L’énoncé précis a varié au cours des années mais il y a un accord pour dire qu’elle affirme désormais que le nombre de transistors des microprocesseurs sur une puce de silicium double tous les dix-huit mois ou vingt-quatre mois.

Il ne s’agit là que d’une loi empirique mais vérifiée par les progrès de la technologie depuis une quinzaine d’années.

Les technologies More than Moore ou technologies dites dérivées représentent les technologies qui intègrent plusieurs fonctions sur une même puce de silicium.

Les technologies More than Moore sont celles qui permettent d’intégrer sur une puce de silicium des fonctions de calcul et de mémoire mais également des fonctions telles que la radiofréquence, les composants haute tension, l’électronique de l’éclairage et les chargeurs de batterie).

Si l’on compare les technologies More than Moore au corps humain, les fonctions intégrées représentent des yeux, des oreilles, des bras et des jambes et permettent au cerveau (qui calcule et mémorise) d’interagir avec le monde réel. Ces technologies sont au cœur du développement de la robotique.

Fin de la loi de Moore annoncé en 2024

La date prévue de la fin de la loi de Moore varie selon les chercheurs et les études. Certains chercheurs l’avaient annoncée pour 2020, d’autres pour 2021. Plus récemment, l’International Roadmap for Devices and Systems (IRDS) au sein de l’IEEE, société savante internationale, vient de publier en mars 2017 son livre blanc « International Roadmap For Devices and Systems – More Moore ».

Dans son livre blanc, l’IRDS prévoit la fin de la loi de Moore en 2024. Les principales étapes de la feuille de route de l’IRDS sont les suivantes :

« La mise à l’échelle de la règle du sol ralentit et se sature autour de 2024. La technologie EUV (extra-ultraviolet) a maintenant commencé à ralentir cette tendance à la saturation en maîtrisant le coût grâce à la réduction de la complexité du processus. La transition vers l’intégration 3D et l’utilisation d’appareils au-delà des CMOS pour des fonctions complémentaires System-on-Chip (SoC) sont projetées après 2024 ».

Du transistor de Bardeen au transistor monoatomique

Plus de soixante-treize ans après l’invention du premier transistor par Bardeen, en 2012, la fin de la loi de Moore avait été évoquée suite à une publication de plusieurs chercheurs des universités de New South Wales, Purdue et Melbourne d’un article dans la revue scientifique Nature Nanotechnology.

Dans leur publication, les chercheurs australiens faisaient état d’une percée dans la réalisation de transistors sur un support en silicium.

Le groupe de chercheurs australiens, avaient annoncé être en mesure de fabriquer avec précision un transistor composé d’un unique atome de phosphore sur une couche d’atomes de silicium.

Et après la loi de Moore

Prenant en considération l’hypothèse que la loi de Moore puisse arriver à son terme en 2024, le Syndicat professionnel américain des industries des semi-conducteurs (le SIA) et le Semiconductor Research Corporation (SRC), un consortium à but non lucratif de sociétés ayant un intérêt commun à accélérer les progrès de la recherche en sciences et ingénierie des semiconducteurs, viennent de publier également un guide « Semiconductor Research Opportunities » dans lequel sont identifiées les priorités pour la recherche et l’industrie afin d’anticiper la fin de la loi de Moore.

Ces priorités visent 14 domaines de recherches jugés stratégiques.

Research areas needs for futur computing, SIA-SRC Guide, Mars 2017.

Vers l’Informatique cognitive.

Les activités de recherche en Europe.

Human Brain Project (2013)

Le projet Human Brain est une initiative paneuropéenne qui a débuté en octobre 2013 et qui a été prévu pour une durée de dix ans. La phase I s’est terminée en avril 2016.

Ce projet est financé par le programme ICT de l’UE ( qui appuie la recherche technologique) avec un coût projeté d’un milliard d’euros.

L’objectif affiché poursuit le rassemblement d’un large éventail de communautés de recherche, des ingénieurs matériels aux neuroscientifiques, des programmeurs aux philosophes, afin collectivement, de réaliser des progrès significatifs dans la connaissance de la machine la plus compliquée connue de l’Homme : le cerveau humain lui-même.

Ce projet massif est divisé en plusieurs thèmes appelés piliers.

Plate-forme Neurorobotics (NRP)

Cette plate-forme est un système de simulation accessible par Internet qui permet la simulation de robots et d’environnements contrôlés par des réseaux de neurones dynamiques.

La plate-forme permet de réaliser des expériences virtuelles simples en boucle fermée en neuroscience cognitive en utilisant des modèles de cerveau développés au sein de l’HBP, avec la possibilité de personnaliser plusieurs variables, telles que les paramètres environnementaux et physiques, à l’aide d’un concepteur de robots, d’un constructeur d’environnement et d’une boucle fermée moteur.

Un autre objectif de ce projet est de soutenir une compréhension commune du cerveau.

La capacité de modéliser des robots et des environnements virtuels existe déjà, et d’autres chercheurs ont créé des configurations en boucle fermée avec des modèles simples de cerveau.

Cependant, la plate-forme Neurorobotics est la première plate-forme qui devrait permettre aux robots virtuels d’être connectés à des modèles détaillés du cerveau. Elle devrait permettre dans le futur d’effectuer des expériences explorant le lien entre les circuits de cerveau de bas niveau et la fonction de haut niveau, offrant ainsi des capacités inégalées aux chercheurs.

De cette façon, la plateforme Neurorobotics devrait congribuer à combler le fossé entre la neuroscience et la robotique et présentera de l’intérêt pour une communauté d’utilisateurs diversifiée. Les systèmes de la plate-forme permettront également une expérimentation silico, ce qui facilitera la validation et la comparaison des résultats avec les chercheurs pour la recherche in vivo.

Neuromorphic Computing Platform

La plate-forme de calcul neuromorphique (NCP) se compose de deux systèmes informatiques neuromorphes complémentaires et configurables, basés sur des conceptions matérielles personnalisées.

Ces systèmes sont « conçus pour imiter les microcircuits neuronaux et appliquer des principes semblables à des cerveaux dans l’apprentissage par machine et l’informatique cognitive, c’est-à-dire des principes qui permettront à la machine d’apprendre de la manière que le cerveau fonctionne plutôt que d’être programmée comme un ordinateur normal ».

La plate-forme neuromorphique utilise des technologies « de composants et de circuits électroniques à la fine pointe de la technologie et intègre de nouvelles connaissances acquises dans d’autres domaines de la recherche en neurosciences » (neurosciences expérimentales, neurosciences théoriques et la modélisation du cerveau).

La plate-forme Neuromorphic offre un accès à distance à des systèmes informatiques neuromorphes à grande échelle basés à Manchester, au Royaume-Uni et à Heidelberg, en Allemagne. Ensemble avec le système TrueNorth par IBM, ce sont les seuls systèmes neuromorphes dans le monde capable d’exécuter des simulations de systèmes de circuits neuronaux avec des modèles de neurones, des synapses et de la plasticité à la fine pointe du temps en temps réel ou accéléré (soit 10 000 fois plus vite qu’en temps réel).

PHRESCO – PHotonic REServoir COmputing

De nouveaux paradigmes informatiques sont nécessaires pour alimenter la prochaine révolution dans les technologies de l’information. Les machines doivent être inventées pour pouvoir apprendre, mais aussi gérer une grande quantité de données.

Afin d’atteindre cet objectif et de réduire encore l’empreinte énergétique des technologies de l’information et de la communication, des innovations matérielles fondamentales doivent être réalisées.

Une implémentation physique prenant nativement en charge de nouvelles méthodes informatiques est nécessaire.

La plupart du temps, CMOS est utilisé pour émuler par exemple. Comportement neuronal …

Spiking Neural Network Architecture (SpiNNaker)

SpiNNaker fait partie du pilier neuromorphe du projet Human Project dont l’intérêt est de développer et soutenir de nouveaux matériels informatiques qui peuvent accélérer la simulation de grands réseaux de neurones.

Pour la première phase du projet, les objectifs sont les suivants :

  • Développer et améliorer le logiciel fonctionnant sur les plus grandes machines SpiNNaker (Comprenant entre 100 000 et un million de microprocesseurs simples connectés dans une grille hexagonale) permettant de simuler des réseaux de plusieurs millions de neurones en temps réel.
  • Faire en sorte que le matériel SpiNNaker soit mis à la disposition des chercheurs du monde entier via une interface Web simple afin qu’ils puissent
  • Exécuter leurs simulations à distance
  • Utiliser la plate-forme à Manchester pour contribuer à la recherche sur la fonction cérébrale
  • Travailler avec des partenaires pour concevoir une puce de test pour une machine SpiNNaker de prochaine génération, en tirant parti de notre expérience avec la machine SpiNNaker actuelle et des commentaires de notre base d’utilisateurs.

La conception sera terminée et la machine construite dans la seconde phase du projet

SpiNNaker est une architecture informatique inspirée du fonctionnement du cerveau humain. SpiNNaker est une plate-forme de calcul, axée sur trois grands domaines de recherche :

Les neurosciences : comprendre comment fonctionne le cerveau est un Grand Défi de la science du 21ème siècle. SpiNNaker envisage ainsi de fournir une plate-forme pour aider les neuroscientifiques à démêler le mystère qui est l’esprit. D’après SpiNNaker, la plus grande machine SpiNNaker sera capable de simuler un milliard de neurones simples, ou des millions de neurones à structure complexe et à une dynamique interne.

La robotique : SpiNNaker est également une cible à atteindre pour les chercheurs en robotique, qui ont besoin d’un calcul mobile et de faible puissance. Un petit tableau SpiNNaker permet de simuler un réseau de dizaines de milliers de neurones spiking, de traiter les entrées sensorielles et de générer des sorties moteur, en temps réel et dans un système à faible puissance.

L’informatique : SpiNNaker rompt les règles suivies par les superordinateurs traditionnels qui s’appuient sur des communications déterministes, reproductibles et des calculs fiables. Les nœuds SpiNNaker communiquent à l’aide de messages simples (spikes) intrinsèquement peu fiables. Cette rupture avec le déterminisme offre de nouveaux défis, mais aussi le potentiel de découvrir de puissants nouveaux principes de calcul massivement parallèle.

Les activités de recherche aux USA

NSCI – National Strategic Computing Initiative Strategic Plan (NSCISP, Juillet 2016)

  1. L’objectif n°3 de la NSCISP : The post Moore’s Law era (Aire post loi de Moore)

L’objectif n° 3 du Plan stratégique de l’Initiative pour l’informatique stratégique (NSCI) est d’établir, au cours des 15 prochaines années, un chemin viable pour les futurs systèmes HPC au-delà des limites de la technologie actuelle des semi-conducteurs et lorsque la loi de Moore prendra fin (Ere post-Moore’s Law).

Establishing, over the next 15 years, a viable path forward for future HPC systems even after the limits of current semiconductor technology are reached (the « post-Moore’s Law era »).

« Alors que les approches actuelles des semi-conducteurs devraient être réalisables à l’exascale, ces approches finiront par se développer en raison de limitations physiques inhérentes. L’objectif stratégique 3 du NSCI cherche de nouvelles technologies qui continueront à progresser dans l’informatique afin d’établir les bases pour étendre l’avantage informatique mondial des États-Unis au milieu des années 2050.

Pour atteindre cet objectif, le NSCI poursuivra deux axes d’efforts parallèles sur une période de 10 à 20 ans : la R & D des technologies qui permettront de déplacer la performance informatique numérique après les limites théoriques des semi-conducteurs d’oxyde métallique complémentaires (CMOS) et la recherche et le développement des paradigmes alternatifs qui ouvriront de nouvelles possibilités pour l’avancement de l’informatique à grande échelle.

Le NSCI envisage un environnement informatique futur plus hétérogène, où l’informatique numérique est complétée par des systèmes mettant en œuvre des paradigmes alternatifs pour résoudre efficacement des problèmes spécifiques.

Ces paradigmes de calcul alternatifs, qu’ils soient quantiques, neuromorphes ou autres alternatives, peuvent résoudre certaines classes de problèmes intrinsèques à l’informatique numérique et fournir des solutions plus efficaces pour d’autres types de problèmes. Pour atteindre cette vision, il est essentiel de rechercher l’éventail des problèmes de calcul de ces approches car il s’agit de favoriser la R & D de base qui leur permettra.

Pour les problèmes qui resteront dans le domaine de l’informatique numérique, l’augmentation des performances au-delà de l’exascale ou d’autres réductions du coût de l’énergie peut ne pas être possible avec les technologies à semi-conducteurs actuelles.

(Exascale : supercalculateur capable de traiter un milliard de milliards d’opérations par seconde).

Pour relever ces défis, les activités du NSCI doivent explorer et créer de nouvelles technologies informatiques hautement évolutives, programmables, efficaces et économiquement viables ».

The National Artificial Intelligence Research And Development Strategic Plan (octobre 2016)

Ce plan stratégique national de R & D en intelligence artificielle établit un ensemble d’objectifs pour la recherche sur l’AI fondé au niveau fédéral, tant les recherches menées au sein du gouvernement que la recherche financée par le gouvernement fédéral se déroulant à l’extérieur du gouvernement, comme dans le milieu universitaire.

Le but ultime de cette recherche est de produire de nouvelles connaissances et technologies de l’AI qui offrent une gamme d’avantages positifs à la société tout en minimisant les impacts négatifs. Pour atteindre cet objectif, ce plan stratégique de R & D d’AI identifie les priorités suivantes pour la recherche AI sur l’aide fédérale :

Stratégie 1: Faire des investissements à long terme dans la recherche sur l’IA. Prioriser les investissements dans la prochaine génération d’IA qui conduira la découverte et la perspicacité et permettra aux États-Unis de rester un leader mondial de l’IA.

Stratégie 2: Élaborer des méthodes efficaces pour la collaboration entre les humains et les IA. Plutôt que de remplacer les humains, la plupart des systèmes d’IA collaboreront avec les humains pour obtenir des performances optimales. Des recherches sont nécessaires pour créer des interactions efficaces entre les humains et les systèmes d’IA.

Stratégie 3: Comprendre et aborder les implications éthiques, juridiques et sociétales de l’IA. Nous nous attendons à ce que les technologies de l’IA se comportent selon les normes formelles et informelles auxquelles nous tenons nos compatriotes. Des recherches sont nécessaires pour comprendre les implications éthiques, juridiques et sociales de l’IA et pour développer des méthodes de conception de systèmes d’AI qui s’harmonisent avec les objectifs éthiques, juridiques et sociétaux.

Stratégie 4: Assurer la sécurité et la sécurité des systèmes d’IA. Avant que les systèmes d’AI ne soient largement utilisés, il faut s’assurer que les systèmes fonctionneront en toute sécurité et de manière sécurisée, de manière contrôlée, bien définie et bien comprise. De nouveaux progrès dans la recherche sont nécessaires pour relever ce défi de créer des systèmes d’IA fiables, fiables et dignes de confiance.

Stratégie 5: Élaborer des ensembles de données publiques partagés et des environnements pour la formation et les tests d’IA. La profondeur, la qualité et la précision des ensembles de données et des ressources de formation influent de manière significative sur les performances de l’AI. Les chercheurs doivent développer des ensembles de données et des environnements de haute qualité et permettre un accès responsable à des ensembles de données de haute qualité, ainsi qu’à des ressources de test et de formation.

Stratégie 6: Mesurer et évaluer les technologies de l’IA grâce à des normes et des repères. . Les normes, les repères, les bancs d’essai et l’engagement de la collectivité sont essentiels aux avancées dans l’IA, qui guident et évaluent les progrès dans l’IA. Des recherches supplémentaires sont nécessaires pour développer un large éventail de techniques d’évaluation.

Stratégie 7: mieux comprendre les besoins nationaux en matière de main-d’oeuvre en RD. Les progrès dans l’IA exigeront une communauté forte de chercheurs en IA. Une meilleure compréhension des exigences actuelles et futures de la main-d’œuvre en R & D en IA est nécessaire pour s’assurer que suffisamment d’experts en AI sont disponibles pour aborder les domaines stratégiques de R & D décrits dans ce plan.

En conclusion, le plan stratégique de R & D de l’AI prévoit deux recommandations :

  • Élaborer un cadre de mise en œuvre de la R & D de l’AI afin d’identifier les opportunités de S et T et de soutenir une coordination efficace des investissements en R & D de l’AI, conformément aux Stratégies 1-6 de ce plan.
  • Étudier le paysage national pour la création et le maintien d’une main-d’œuvre saine en R & D, conformément à la Stratégie 7 de ce plan.

DARPA  – Systèmes de développement adaptatif néodorphe adaptable en plastique (Programme SyNAPSE)

La vision du programme Systèmes de développement adaptatif néodorphe adaptable en plastique (SyNAPSE) est de développer des ordinateurs électroniques neuromorphes à faible puissance qui se développent à des niveaux biologiques.

Les ordinateurs actuels sont limités par la quantité de puissance requise pour traiter de gros volumes de données. En revanche, les systèmes neurologiques biologiques, tels que le cerveau, traitent de gros volumes d’informations de manière complexe tout en consommant très peu d’énergie. Des économies d’énergie sont réalisées dans les systèmes neuronaux grâce à l’utilisation limitée des ressources matérielles dans le temps et dans l’espace. Étant donné que de nombreux problèmes du monde réel sont limitées et doivent traiter de gros volumes de données, les ordinateurs neuromorphes sont très prometteurs.

SyNAPSE soutient une approche multidisciplinaire coordonnant les activités de développement de technologies agressives en matériel, architecture et simulation.

La phase initiale de SyNAPSE a développé des composants synaptiques électroniques à l’échelle nanométrique capables de varier la force de connexion entre deux neurones d’une manière analogue à celle observée dans les systèmes biologiques et a simulé l’utilité de ces composants synaptiques dans les microcircuits de base qui ont soutenu l’architecture globale du système.

Les efforts continus se concentrent sur le développement du matériel grâce au développement de microcircuits, au développement de systèmes à puce unique et au développement de systèmes multi-puce. À l’appui de ces développements matériels, SyNAPSE cherche également à développer des outils d’architecture et de conception de plus en plus performants, y compris des simulations informatiques à très grande échelle des systèmes électroniques neuromorphes, pour informer les concepteurs et valider le matériel avant la fabrication.

A Federal Vision for Future Computing : A Nanotechnology-Inspired Grand

La Maison Blanche a annoncé en 2015 « Un défi majeur inspiré de la nanotechnologie » pour développer des capacités informatiques transformationnelles en combinant des innovations dans de multiples disciplines scientifiques.

Le Grand Challenge s’attaque à trois priorités de l’Administration: l’Initiative Nationale de Nanotechnologie (NNI), l’Initiative Nationale d’Informatique Stratégique (NSCI) et l’Initiative Brain Research Through Advancer Innovative Neurotechnologies (BRAIN )  à:

Créez un nouveau type d’ordinateur capable d’interpréter et d’apprendre de manière proactive à partir des données, résoudre des problèmes inconnus en utilisant ce qu’il a appris et fonctionner avec l’efficacité énergétique du cerveau humain.

Pour en savoir plus :

IEEE IRDS – International Roadmap for Devices and Systems – 2016 Edition – More Moore White Paper

SIA – SRCSemiconductor Research Opportunities – Mars 2017

UE – CORDIS – PHotonic REServoir COmputing (PHRESCO)

UE – Human Brain Project – Neurorobotics Program

USA White House – National Strategic Computing Initiative Strategic Plan Juillet 2016

USA NITRDThe National Artificial Intelligence Research And Development Strategic Plan

A Federal Vision for Future Computing: A Nanotechnology-Inspired Grand Challenge (White Paper)

Unlocking the secrets of the brain’s intelligence to develop smarter technologies  Graciela Gutierrez  March 11, 2016

Mapping the Brain to Build Better Machines Emily Singer April 6, 2016

He is one of Intel’s co-founders, Gordon Earle Moore, who in 1965 stated Moore’s law that bears his name.

Gordon Earle Moore Moore's Law

Gordon Earle Moore

The precise statement has varied over the years but there is agreement that it now asserts that the number of microprocessor transistors on a silicon chip doubles every eighteen months or twenty four months.

This is only an empirical law, but it has been verified by the progress of technology over the last fifteen years.

More than Moore technologies or so-called technologies represent technologies that integrate several functions on the same silicon chip.

More than Moore technologies are those that allow the integration of calculation and memory functions on a silicon chip, but also functions such as radiofrequency, high voltage components, lighting electronics and battery chargers ).

If we compare More than Moore technologies to the human body, integrated functions represent eyes, ears, arms and legs and allow the brain (which calculates and memorizes) to interact with the real world. These technologies are at the heart of the development of robotics.

End of Moore’s Law in 2024

So far, the expected date of the end of Moore’s law varies according to researchers and studies. Some researchers had announced it for 2020, others for 2021. More recently, the International Roadmap for Devices and Systems, within the IEEE, an international scholarly company, has just published in March 2017 its White Paper « International Roadmap For Devices and Systems – More Moore « .

In its white paper, the IRDS IEEE provides for the end of Moore’s law in 2024.

The main steps of the IRDS roadmap are:

« The scaling of the ground rule slows down and saturates around 2024. EUV (extra-ultraviolet) technology has now begun to slow down this saturation trend by controlling cost by reducing the complexity of process. The transition to 3D integration and the use of devices beyond CMOS for System-on-Chip (SoC) complementary functions is projected after 2024 « .

From the Bardeen transistor to the monoatomic transistor

More than seventy-three years after the invention of the first transistor by Bardeen in 2012, the end of Moore’s law had been evoked following a publication by several researchers from the universities of New South Wales, Purdue and Melbourne of an article In the scientific journal Nature Nanotechnology.

In their publication, the Australian researchers reported a breakthrough in the realization of transistors on a silicon support.

The group of Australian researchers had announced that they were able to precisely manufacture a transistor composed of a single phosphorous atom on a layer of silicon atoms.

And after Moore’s Law

Taking into consideration the hypothesis that Moore’s law could be completed by 2024, the American Professional Union of Semiconductor Industries (SIA) and the Semiconductor Research Corporation (SRC), a non-profit consortium of companies With a common interest in accelerating advances in semiconductor science and engineering research, have also published a « Semiconductor Research Opportunities » guide identifying research and industry priorities to anticipate the end of the Law of Moore.

These priorities focus on 14 strategic areas of research:

Research areas needs for future computing -SIA-SRC March, 2017.

Research areas needs for future computing

Towards Cognitive Computing and AI Convergence, Robotics, Blockchain:

Research activities in Europe

Human Brain Project (2013)

The Human Brain project is a pan-European initiative that began in October 2013 and is planned for a ten-year period. Phase I was completed in April 2016.

This project is funded by the EU’s ICT program (which supports technological research) with a projected cost of one billion euros.

The stated objective continues to bring together a wide range of research communities, from material engineers to neuroscientists, from programmers to philosophers, collectively to make significant progress in knowledge of the most complicated machine known to man : The human brain itself.

This massive project is divided into several themes called pillars.

Neurorobotics Platform

This platform was conceived as a simulation system accessible via the Internet which allows the simulation of robots and environments controlled by dynamic neural networks.

The platform allows for simple virtual closed-loop experiments in cognitive neuroscience using brain models developed within BPH, with the ability to customize several variables, such as environmental and physical parameters, Using a robot designer, an environment builder and a closed loop engine.

Another objective of this project is to support a common understanding of the brain.

The ability to model robots and virtual environments already exists, and other researchers have created closed-loop configurations with simple brain models.

However, the platform Neurorobotics seems to be the first platform that should allow virtual robots to be connected to detailed models of the brain. It should allow experiments in the future to explore the link between low-level brain circuits and the high-level function, thus offering unequaled capabilities to researchers.

In this way, the Neurorobotics platform should help to bridge the gap between neuroscience and robotics and be of interest to a diverse user community. Platform systems will also allow silico testing, which will facilitate validation and comparison of results with researchers for in vivo research.

Neuromorphic Computing Platform

The Neuromorphic Computing Platform (NCP) consists of two complementary and configurable neuromorphic computer systems based on custom hardware designs.

These systems are « designed to mimic neural microcircuits and apply brain-like principles in machine learning and cognitive computing, that is, principles that will enable the machine to learn in the That the brain functions rather than being programmed as a normal computer. « 

The neuromorphic platform uses « state-of-the-art » electronic components and electronics technologies and incorporates new knowledge gained from other areas of neuroscience research (experimental neuroscience, theoretical neuroscience and brain modeling ).

The Neuromorphic platform provides remote access to large-scale neuromorphic computer systems based in Manchester, UK and Heidelberg, Germany. Together with the TrueNorth system by IBM, they are the only neuromorphic systems in the world capable of performing neural circuit system simulations with real-time neural models, synapses and plasticity in real time or (10,000 times faster than in real time).

PHRESCO – PHotonic REServoir COmputing

New IT paradigms are needed to fuel the next revolution in information technology. Machines must be invented to be able to learn, but also to manage a large amount of data.

In order to achieve this objective and to further reduce the energy footprint of information and communication technologies, fundamental material innovations must be achieved.

A physical implementation that natively supports new computing methods is required.

Most of the time, CMOS is used to emulate for example. Neural Behavior.

Spiking Neural Network Architecture (SpiNNaker)

SpiNNaker is part of the neuromorphic pillar of the Project Human Project whose interest is to develop and support new computer hardware that can accelerate the simulation of large networks of neurons.

For the first phase of the project, the objectives were:

– Develop and improve the software running on the largest SpiNNaker machines (Including between 100,000 and one million simple microprocessors connected in a hexagonal grid) to simulate networks of several million neurons in real time.

– Ensure that SpiNNaker hardware is made available to researchers around the world via a simple web interface so that they can

– Run their simulations remotely

– Using the platform in Manchester to contribute to research on brain function

– Work with partners to design a test chip for a next-generation SpiNNaker machine, taking advantage of our experience with the current SpiNNaker machine and feedback from our user base.

The design will be completed and the machine built in the second phase of the project.

SpiNNaker is a computer architecture inspired by the functioning of the human brain. SpiNNaker is a computing platform, focused on three main areas of research:

Neuroscience: understanding how the brain works is a Great Science Challenge of the 21st century. SpiNNaker is considering providing a platform to help neuroscientists unravel the mystery that is the mind. According to SpiNNaker, the biggest SpiNNaker machine will be able to simulate one billion simple neurons, or millions of neurons with complex structure and internal dynamics.

Robotics: SpiNNaker is also a target for robotics researchers, who need mobile computing and low power. A small SpiNNaker table can simulate a network of tens of thousands of spiking neurons, process sensory inputs and generate motor outputs in real time and in a low power system.

IT: SpiNNaker breaks the rules followed by traditional supercomputers that rely on deterministic, reproducible and reliable computations. SpiNNaker nodes communicate using inherently unreliable spikes. This break with determinism offers new challenges, but also the potential to discover powerful new principles of massively parallel computation.

Research activities in USA

NSCI – National Strategic Computing Initiative Strategic Plan (July, 2016)

Goal 3 of the National Strategic Computing Initiative (NSCI) Strategic Plan is to establish, over the next 15 years, a viable path for future HPC (Hight Performance Computing) systems beyond The limitations of current semiconductor technology and when Moore’s law ends.

Establishing, over the next 15 years, a viable path forward for future HPC systems even after the limits of current semiconductor technology are reached (the « post-Moore’s Law era »).

While current semiconductor approaches should be feasible at exascale, these approaches will eventually develop due to inherent physical limitations. NSCI’s Strategic Goal 3 seeks new technologies that will continue to advance in computing to lay the foundation for expanding the global IT advantage of the United States in the mid-2050s.

To achieve this goal, NSCI will pursue two parallel lines of effort over a period of 10 to 20 years: R & D technologies that will shift digital computing performance beyond the theoretical limits of complementary metal oxide semiconductors (CMOS) and research and development of alternative paradigms that will open up new opportunities for the advancement of large-scale computing.

NSCI is also considering a « more heterogeneous future computing environment, where digital computing is complemented by systems implementing alternative paradigms to effectively solve specific problems ».

These alternative computing paradigms (whether quantum, neuromorphic, or other alternatives) need to be able to solve certain classes of problems intrinsic to digital computing and provide more efficient solutions for other types of problems. In order to achieve this vision, it is essential to seek the range of problems in calculating these approaches.

The National Artificial Intelligence Research And Development Strategic Plan (october, 2016)

This National Strategic Artificial Intelligence R & D Plan sets out a set of objectives for federally funded IA research, both on government research and federally funded research at Outside the government, particularly in the academic community.

The ultimate goal of this research is to produce new AI knowledge and technologies offering a range of positive benefits to American society while minimizing negative impacts. To achieve this objective, this AI R & D strategic plan identifies the following priorities for AI research on federal assistance:

1) Make long-term investments in AI research. Prioritize investments in the next generation of RNs that will drive discovery and insight and allow the US to remain a world leader in AI.

2) Develop effective methods for collaboration between humans and RNs. Rather than replacing humans, most AI systems will work with humans to achieve optimal performance. Research is needed to create effective interactions between humans and AI systems.

3) Understand and address the ethical, legal and societal implications of AI. We expect that AI technologies will behave according to the formal and informal standards we hold our fellow citizens. Research is needed to understand the ethical, legal and social implications of AI and to develop methods for designing CE systems that align with ethical, legal and societal objectives.

4) Ensure the safety and security of AI systems. Before CEW systems are widely used, it must be ensured that the systems will operate safely and in a secure, controlled, well-defined and well understood manner. Further progress in research is needed to meet this challenge of creating reliable, reliable and trustworthy AI systems.

5) Develop shared public data sets and environments for AI training and testing. The depth, quality and accuracy of the data sets and training resources significantly affect AI performance. Researchers need to develop high-quality datasets and environments and provide responsible access to high-quality data sets as well as test and training resources.

6) Measure and evaluate AI technologies through standards and benchmarks. . Standards, benchmarks, test benches and community engagement are essential to advances in AI, which guide and evaluate progress in AI. Further research is needed to develop a wide range of assessment techniques.

7) Understand national needs for R & D workforce. Progress in AI will require a strong community of AI researchers. A better understanding of the current and future requirements of the AI ​​R & D workforce is needed to ensure that sufficient AI experts are available to address the strategic R & D areas described in this plan.

In conclusion, the IA’s strategic R & D plan fixed  two recommendations:

– Develop an IA R & D implementation framework to identify S & T opportunities and support effective coordination of R & D investment by the IA in accordance with this plan.

– Study the national landscape for the creation and maintenance of a healthy R & D workforce in accordance with 7 of this plan.

Intelligence Advanced Research Projects Activity (IARPA) – MICrONS (Machine Intelligence from Cortical Networks)

The MICRONS research programof IARPA  seeks « to revolutionize machine learning by reverse engineering algorithms of the brain. The program is expressly designed as a dialogue between data science and neuroscience « 

  Participants in the program seek to advance the theories of neural computation and obtain answers through carefully planned experimentation and data analysis.

DARPA – Systems of Neuromorphic Adaptive Plastic Scalable Electronics

The vision for the Systems of Neuromorphic Adaptive Plastic Scalable Electronics (SyNAPSE) program is to develop low-power electronic neuromorphic computers that scale to biological levels.

Current computers are limited by the amount of power required to process large volumes of data. In contrast, biological neural systems, such as the brain, process large volumes of information in complex ways while consuming very little power. Power savings are achieved in neural systems by the sparse utilizations of hardware resources in time and space. Since many real-world problems are power limited and must process large volumes of data, neuromorphic computers have significant promise.

SyNAPSE supports a multidisciplinary approach coordinating aggressive technology development activities in hardware, architecture and simulation.

The initial phase of SyNAPSE developed nanometer-scale electronic synaptic components capable of varying connection strength between two neurons in a manner analogous to that seen in biological systems and simulated the utility of these synaptic components in core microcircuits that supported the overall system architecture.

Continuing efforts focus on hardware development through microcircuit development, single chip system development and multi-chip system development. In support of these hardware developments, SyNAPSE also seeks to develop increasingly capable architecture and design tools, including very large-scale computer simulations of the neuromorphic electronic systems, to inform the designers and validate hardware prior to fabrication.

A Federal Vision for Future Computing : A Nanotechnology-Inspired Grand challenge

The White House announced in 2015 « A major challenge inspired by nanotechnology » to develop transformational computing capabilities by combining innovations in multiple scientific disciplines.

  The Grand Challenge addresses three priorities of the Administration: the National Nanotechnology Initiative (NNI), the National Strategic Informatics Initiative (NSCI) and the Brain Initiative through Advance Innovative Neurotechnologies (BRAIN) :

Create a new type of computer capable of proactively interpreting and learning from data, solving unknown problems using what it has learned and working with the energy efficiency of the human brain.

For more information :

IEEE IRDS – International Roadmap for Devices and Systems – 2016 Edition – More Moore White Paper

SIA – SRC – Guide « Semiconductor Research Opportunities »

UE – CORDIS – PHotonic REServoir COmputing (PHRESCO

UE – Human Brain Project – Neurorobotics Program

USA White House – National Strategic Computing Initiative Strategic Plan Juillet 2016

USA NITRDThe National Artificial Intelligence Research And Development Strategic Plan

A Federal Vision for Future Computing: A Nanotechnology-Inspired Grand Challenge (White Paper)

Unlocking the secrets of the brain’s intelligence to develop smarter technologies  Graciela Gutierrez  March 11, 2016

Mapping the Brain to Build Better Machines Emily Singer April 6, 2016

En 2016 : le robot a été meilleur que l’humain dans quatre activités

En 2016 : le robot a été meilleur que l’humain dans quatre activités

L’année de la Singularité sera celle ou le robot deviendra supérieur à l’humain dans tous les domaines. Le thème de cette publication m’a été inspiré par la conférence de Manuel Bevand lors d’un TED  en 2015.

Quel est le bilan de la robotique en 2016 ?

2016 n’a pas été l’année de la Singularité. Pourtant le robot a été meilleur que l’humain dans quatre activités.

Le robot AlphaGo meilleur que l’Homme au jeu de go

Lee Se-Dol during a game in october 2012 at Seoul against a robot.

Lee Se-dol (이세돌) during a game against Kim Ji-seok (김지석), October 2, 2012, Seoul Cyberoro ORO

En mars 2016, AlphaGo, le logiciel de Google DeepMind dépasse le sud coréen Lee Sedol au jeu de go. Précédemment en 1997, le programme Deep Blue d’IBM avait battu le champion du monde des échecs, Gary Kasparov.

Les sept jeux les plus stratégiques sont le Tic-Tac-Toé (ou jeu de morpion), le jeu de Dames, le Backgamon, les Echecs, le Jeopardy, le Poker et le jeu de Go.

Suite à l’augmentation de la puissance des processeurs, au développement des algorithmes, et à la capacité de résolution (qui implique que le programme d’ordinateur soit en mesure de passer en revue tous les scénarios possibles du jeu), l’Homme n’est plus en situation de supériorité face au robot.

Le robot est meilleur que l’Homme dans 6 des 7 jeux les plus stratégiques. Le seul jeu ou l’Homme a conservé une supériorité jusqu’à la fin de 2106 reste le Poker. Au Poker, le bluff et le mensonge faisant partie du jeu.  Pour le Tic-Tac-Toé, l’Homme et le robot sont encore à égalité pour la résolution.

Un nouveau programme, dénommé Libratus, développé par des chercheurs en sciences cognitives de l’Université de Carnegie Mellon, et utilisant une intelligence artificielle forte, a été installé dans un Casino de Pittsburgh aux USA. Une compétition entre joueurs professionnels et Libratus, prévue pour durer une vingtaine de jours, permettra de savoir si le programme Libratus, a surpassé les joueurs professionnels et donc l’humain. Après les premiers jours de jeu sur les 20 jours prévus, Libratus l’emporte sur les joueurs professionnels. Si Libratus l’emporte aux termes des 20 jours de compétition prévus, il ne restera qu’un jeu, le Tic-Tac-Toé ou l’humain et le robot sont à égalité.

Le robot chirurgien STAR dépasse la dextérité d’un chirurgien pour recoudre des tissus humain mous

Le robot chirurgical baptisé STAR (Smart Tissue Autonomous Robot) est un robot autonome développé par une équipe d’informaticiens et de chercheurs médicaux dirigée par le Dr Peter Kim du Children’s National Medical Center à Washington, aux États-Unis.

STAR  a dépassé en 2016 la dextérité et le niveau de précision d’un chirurgien. Il a été capable en mai 2016, de recoudre des tissus mous, sans l’intervention d’un chirurgien. STAR est parvenu à surpasser l’humain grâce au couplage des technologies d’imagerie intelligente et de l’utilisation de marqueurs fluorescents. Ces marqueurs sont adaptés pour s’adapter aux spécificités des tissus mous.

Le robot couplé à une l’intelligence artificielle et à une imprimante 3D capable de créer un « nouveau Rembrandt »

En avril 2016, un programme d’ordinateur a été programmé pour analyser l’ensemble des oeuvres de Rembrandt. Le programme a été spécialement conçu pour analyser les portraits dans les oeuvres du maître.

Le programme d’ordinateur, basé sur le Deep Learning, le big data et le calcul algorithmique ont permis l’analyse des proportions des visages et l’utilisation d’une imprimante 3D  ont permis la création d’un « nouveau Rembrandt » conçue et réalisée par une intelligence artificielle. La création d’oeuvres réalisées par une intelligence artificielle et du calcul algorithmique se développe dans des secteurs d’activités économiques. Ces oeuvres créées par l’IA et le calcul algorithmique apparaissent dans la littérature, le journalisme, l’audiovisuel, le cinéma.

Les créations autonomes, sans intervention humaine, créées par les technologies de l’IA ne sont aujourd’hui pas appréhendées par le droit. En effet, le droit d’auteur ne protège aujourd’hui une oeuvre que si cette oeuvre présente l’empreinte de la personnalité de son auteur et si elle est originale.

A qui pourrait être attribué la paternité d’oeuvre conçues et créées exclusivement par IA ?

L’un des meilleurs experts tactiques du combat aérien de l’Air Force battu par l’IA ALPHA

Le magazine de l’Université de Cincinnati aux Etats-Unis (UC Magazine) rapporte qu’en juin 2016 un nouveau système d’intelligence artificielle de combat aérien dénommé ALPHA a systématiquement battu au combat aérien l’un des  meilleurs experts tactiques de l’US Air Force. Malgré la formation de milliers de pilote de l’armée de l’air, le Colonel Gene Lee, l’un des meilleurs experts tactique de l’US Air Force, a été battu à chaque fois par l’IA ALPHA.

(Distribution A: Approved for public release; distribution unlimited. 88ABW Cleared 05/02/2016; 88ABW-2016-2270)

Pour l’UC Magazine, l’IA d’ALPHA est rapide et robuste pour coordonner un plan tactique dans une situation de combat. L’IA ALPHA est en effet estimée « plus de 250 fois plus rapide » que ses adversaires humains. Au-delà de pouvoir contribuer à l’entraînement des équipes de pilotes de combat aérien, l’IA ALPHA pourrait être en mesure de contrôler une escouade de véhicules aériens de combat (RPAS – UAS) non habités volant en soutien d’un pilote humain, apprenant constamment et s’adapter aux adversaires au coeur de la bataille aérienne.

Dans une publication scientifique consacrée à l’IA ALPHA, les auteurs Nicholas Ernest (1), David Carroll(2), Corey Schumacher(3), Matthew Clark(4), Kelly Cohen(5) et Gene Lee(6), présentent de manière détaillée dans  le Journal of Defense Management les avancées l’IA dans « les systèmes flous génétiques, notamment le développement de la méthodologie Genetic Fuzzy Tree, qui ont permis d’élaborer des Intelligences Articielles basées sur la logique floue, lesquelles peuvent être appliquées à des problèmes incroyablement complexes ».

Deux réseaux de neurones du programme Google Brain créé un algorithme de chiffrement.

Dans le cadre du programme de recherche Google Brain, deux réseaux de neurones, ont créés leur propre algorithme de chiffrement. Un troisième réseau de neurone dénommé Eve, n’a pas été en mesure de  déchiffrer les messages chiffrés entre Alice et BoB. L’objectif de ce programme de recherche développé Google Brain était d’assurer la protection des communications par des réseaux de neurones.

Learning to protect communications with adversarial neural cryptography

Alice, Bob, and Eve, with a symmetric cryptosystem

Figure 1: Alice, Bob, and Eve, with a symmetric cryptosystem.LEARNING TO PROTECT COMMUNICATIONS WITH ADVERSARIAL NEURAL CRYPTOGRAPHY

Mart ́ın Abadi and David G. Andersen ∗ Google Brain

Pour en savoir plus, l’intégralité de la communication scientifique sur ce programme de recherche a donné lieu à la publication suivante :  « Learning to Protect Communications with Adversarial Neural Cryptography« .

Les activités robotisées et sans humain.

Les activités qui sont entièrement robotisées et sans humain se développement également. C’est le cas au Japon, confronté au vieillissement de sa population. Plusieurs sociétés envisagent l’ouverture en fin d’année 2016 de fermes entièrement robotisées. La robotisation devrait permettre une augmentation de la production agricole délaissée par le personnel humain.

Au japon, un hôtel installé dans le parc d’attraction Sasebo, dans la préfecture de Nagasaki, est géré par des robots.

Dans un toute autre domaine, la plateforme beauty.ai a organisé en 2016 le premier concours de beauté. Les candidates et les candidats étaient évalués par un jury uniquement composé de robots.

Didier Gazagne

(C) Copyright 01.01.2017

1) CEO, Psibernetix Inc., USA.

2) Programming Lead, Psibernetix Inc., USA.

3) Portfolio Lead, Air Force Research Laboratory, USA.

4) Branch Chief, Air Force Research Laboratory, USA.

5) Aerospace Engineering, University of Cincinnati, USA.

6) (Retired) United States Air Force Colonel, USA.

Intelligence artificielle : Vers la définition d’une stratégie IA pour la France

Intelligence artificielle : Vers la définition d’une stratégie IA pour la France

Tribune pour des « lois » de l’intelligence artificielle comparables aux lois d’Asimov en robotique

Les questions juridiques et éthiques soulevées par l’intelligence artificielle (I.A.) sont particulièrement d’actualité. En effet, se déroule en ce moment même en Suisse, depuis le 17 janvier et jusqu’au 20 janvier prochain, l’édition 2017 du Forum économique mondial de Davos (#wef17).

#Humanity by Default et by Design

A Davos, lors d’un Key Moments « An Insight, An Idea », Sergey Brin, cofondateur de Google (aujourd’hui Alphabet) a donné sa vision de l’évolution technologique résultant de la robotique et surtout de l’intelligence artificielle ainsi que la place de l’humain.  Sergey Brin, a dit  « dit qu’il n’a pas prévu la révolution de l’intelligence artificielle qui a transformé l’industrie de la technologie ».

https://www.youtube.com/watch?v=ffvu6Mr1SVc

#WEF17 Davos – An Insight, An Ideal With Sergey Brin.

A la question « Où l’IA nous mènera-t-elle ? », Sergey Brin a répondu « Que peuvent faire ces choses? Nous ne connaissons pas vraiment les limites ». Sergey Brin a ajouté « Il a des possibilités incroyables. Je pense qu’il est impossible de prévoir avec précision ».

A l’instar des trois lois de la robotique d’Asimov, lors du Forum Economique Mondial,  Ginni Rometty, Chairman, Président and CEO d’IBM a également proposé trois principes éthiques pour une responsabilité éthique de l’IA.  

Ces trois principes  légèrement reformulés sont les suivants :

  • premier principe – Humanity by Default et By Design. Le but de l’intelligence artificielle et l’augmentation des capacités de l’humain, de l’utilisateur, l’IA doit toujours être au service de ce que font les humains ;
  • deuxième principe – Transparence et connaissance des capacités d’apprentissage et des données utilisées. L‘humain doit pouvoir à tout moment savoir qu’il utilise un sytème d’intelligence artificielle, comment l’apprentissage supervisé a été réalisé et avec quelles données ;
  • troisième principe – Compétence et formation aux technologies cognitives et à l’IA. L’humain doit avoir les compétences et être formé aux technologies cognitives afin de garder le contrôle de l’intelligence artificielle.

So

Source : WEF 2017 Ginni Rometty, Chairman, Président and CEO d’IBM.

Stratégie nationale pour l’intelligence artificielle – Plan France IA

La France n’est pas en reste et les autorités publiques souhaitent également une réflexion, sur les enjeux et défis de l’Intelligence artificielle.  

Axelle Lemaire, secrétaire d’Etat chargé du Numérique et de l’Innovation et Thierry MANDON, secrétaire d’Etat chargé de l’Enseignement supérieur et de la Recherche, doivent annoncer demain matin 20 janvier le lancement du plan France IA, pour la définition de la Stratégie de la France pour l’intelligence artificielle.

Quels sont les bénéfices attendus du développement de l’intelligence artificielle et de ses applications ? Quel sera l’impact de l’accélération actuelle du recours à l’IA dans de nombreux secteurs d’activité, sur la société, le travail et l’économie ? Autant de questions qui se posent aujourd’hui.

D.G,  (c) 19.01.2017

Intelligence artificielle : recommandations IEEE pour une conception éthique

Intelligence artificielle : recommandations IEEE pour une conception éthique

 

L’Association des normes IEEE présente dans le document intitulé Ethically Aligned Design (EAD),  (Conception éthique alignée) sa vision sur la manière dont les technologies intelligentes et autonomes peuvent être alignées sur les valeurs morales et ses recommandations pour que les principes éthiques donnent la priorité au bien-être humain.

Conception  éthique alignée –  « Ethically Aligned Design (EAD) »

Ce document de 138 pages, réalisé dans le cadre de l’IEEE Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systems (The « IEEE Global Initiative ») rassemble les regards croisés de leaders des communautés de l’intelligence artificielle et des systèmes autonomes. Ce document est disponible en téléchargement dans sa version 1 sous licence US Creative Commons. 3.0 pour un usage non commercial.

L’IEEE propose en alignant les créations de l’intelligence artificielle et des systèmes autonomes avec les valeurs des utilisateurs et de la société de prioriser l’augmentation du bien-être humain comme comme métrique pour le progrès de l’ère algorithmique.

L’IEEE met en avant la doctrine philosophique de l’eudémonisme d’Aristote laquelle pose comme principe que le bonheur est le but de la vie humaine et qu’il n’est pas opposé à la raison, il en est la finalité naturelle.

Qui est l’IEEE ?

L’Institute of Electrical and Electronics Engineers(1) ou « IEEE » ou I3E, association professionnelle de droit américain, regroupe la plus grande organisation professionnelle dans le monde dédiée aux technologies avancées, avec plus de 430 000 membres, dont plus de 120 000 étudiants,  dans plus de 160  pays dans le monde.

Pour des raisons historiques, l’Association des normes IEEE est majoritairement implantée aux USA même si elle se développe également hors des USA. IEEE mondial est composé de 10 Régions : 7 Régions aux USA et au Canada, la Région 8 regroupe l’Europe, l’Afrique et le Moyen Orient, la Région 9 regroupe l’Amérique Latine et enfin la Région 10 regroupe toute l’Asie. Chaque Région est elle même organisée en section, une section par pays. La section IEEE Franceregroupe environ 4 000 membres.

IEEE  est constituée d’ingénieurs en électricité, électronique, informatique et en télécommunications. Le document publié par l’Association des normes de l’IEEE intitulé  « Ethically Aligned Design » présente la vision sur la manière dont les technologies intelligentes et autonomes peuvent être alignées sur les valeurs morales et les principes éthiques afin de donner la priorité au bien-être humain.

IEEE Global Initiative et programme IEEE TechEthics.

Le document EAD a été créé par de multiples comités de l’IEEE Global Initiative. Il rassemble les regards croisés de multiples voix des communautés de l’Intelligence artificielle et des systèmes autonomes.

IEEE TechEthics est un nouveau programme « conçu pour favoriser une conversation ouverte, large et inclusive sur l’éthique dans la technologie en apportant une multitude de voix dans la discussion. Ce programme  a pour objet de traiter « des implications éthiques et sociales dans une grande variété de domaines technologiques – des interfaces cerveau-machine à l’augmentation humaine, à la robotique de service aux dispositifs médicaux et plus encore. L’accent initial est mis sur l’intelligence artificielle et les systèmes autonomes ».

Structure et contenu de l’EAD.

Ethically Aligned Design (EAD) se présente sous la forme d’un document de 138 pages établi dans le cadre de « IEEE Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systems«  (The « IEEE Global Initiative »). Ce document est disponible en téléchargement dans sa version 1 sous licence Creative Commons. 3.0 pour un usage non commercial Etats-Unis.

Le document « Ethically Aligned Design » représente la vision collective de plus d’une centaine de leaders mondiaux et d’experts en intelligence artificielle, éthique et questions connexes.

Le document Ethically Aligned Design contient huit sections distinctes, chacune aborde abordant un sujet spécifique lié à l’IA et aux systèmes autonomes  ayant fait l’objet d’une discussion par un comité spécifique de l’Initiative mondiale de l’IEEE.

Les huits (8) sections de l’EAD sont les suivantes :

  1. Principes généraux
  2. Intégration de valeurs dans les systèmes autonomes intelligents
  3. Méthodologie pour orienter la recherche éthique la conception
  4. Sécurité et bienfaisance de intelligence artificielle générale (AGI) et de la superintelligence artificielle (ASI)
  5. Données personnelles et contrôle d’accès individuel
  6. Recadrage des systèmes d’armes autonomes
  7. Economie et questions humanitaires
  8. Loi.

Les 3 principes généraux de l’IEEE.

Les trois (3) principes généraux résultant des discussions au sein du Comité des principes généraux de l’IEEE s’applique à tous les types d’intelligence artificielle et à tous les systèmes autonomes.

Ces trois (3) principes généraux dégagés par le comité sont fondés sur des préoccupations éthiques de haut niveau :

  • Incarner les idéaux les plus élevés des Droits de l’Homme ;
  • Donner la priorité au bénéfice maximum pour l’humanité et l’environnement naturel ;
  • Atténuer les risques et les impacts négatifs à mesure que l’intelligence artificielle et les systèmes autonomes évoluent en tant que systèmes socio-techniques.

Les trois principes généraux et recommandations identifiés pourront servir à étayer et échafauder les normes et les normes futures dans un nouveau cadre de gouvernance éthique pour la conception éthique de l’IA et de systèmes autonomes (SA).

Les problèmes posés par l’application des trois principes généraux.

L’application des trois principes généraux dégagés par le Comité Principes Généraux posent de nombreux problèmes. Ces problèmes sont relatifs à l’encadrement du principe :

  • de non-violation des Droits de l’Homme,
  • de responsabilité,
  • de transparence,
  • d’éducation et de sensibilisation afin de minimiser les risques des technologies IA et SA.

Le débat public sur les questions d’éthique en Intelligence Artificielle.

Ce document est également destiné à lancer le débat avec le grand public pour identifier et trouver un large consensus sur des questions éthiques urgentes et des recommandations concernant les technologies de l’IA et des systèmes autonomes.

Ethically Aligned Design peut être téléchargé sur le site de l’IEEE.

Les commentaires sur le design éthique doivent être envoyés par courrier électronique au plus tard le 6 mars 2017 et seront rendus publics au plus tard le 10 avril 2017 à l’initiative mondiale de l’IEEE pour les considérations éthiques en intelligence artificielle et en systèmes autonomes.

Les commentaires du public sont disponibles via les lignes directrices sur les présentations. Les comités nouveaux et existants contribuant à une mise à jour de la conception éthiquement alignée seront présentés lors de la rencontre en face-à-face de l’Initiative mondiale de l’IEEE au Centre Robert S.Strauss de l’Université du Texas à Austin qui se tiendra du 5 au 6 juin 2017.

Les commentaires publiquement disponibles en réponse à cette demande de contribution seront examinés par les comités et les participants de la réunion pour inclusion potentielle dans la seconde version  de Ethically Aligned Design qui sera publié à l’automne 2017.

Le programme de travail de l’IEEE Standards Association et les projets de normes (Standards).

Le plan stratégique de l’IEEE pour la période 2015-2020 est une partie vitale de l’évolution en cours  d’IEEE. Le plan fournit une image claire des évolutions d’IEEE, des buts poursuivis ainsi que les initiatives et orientations de l’IEEE pour les années à venir.

Le deuxième objectif de l’initiative mondiale IEEE est de fournir des recommandations pour les normes de l’IEEE basées sur une conception alignée (axée) sur l’éthique.

Le premier projet normalisé de l’IEEE (approuvé et en cours de développement) inspiré par l’initiative est l’IEEE P7000– Modèle de processus pour résoudre les problèmes éthiques au cours de la conception du système.

Deux autres projets de normes, IEEE P7001™ – Transparence des systèmes autonomes et IEEE P7002™ – Protection des données, ont été approuvés, démontrant l’influence pragmatique de l’initiative sur les questions d’éthique relatives à l’intelligence artificielle et aux systèmes autonomes.

D.G, (c) 05.02.2017.

 

Pour en savoir plus.

Vous pouvez consulter l’Initiative mondiale IEEE  ou contacter l’équipe de relations publiques de l’IEEE-SA.

IEEE « Ethically Aligned Design » –  Download Complete Document.

IEEE « Ethically Aligned Design » – Download Overview Document.

(1) Institut des ingénieurs électriciens et électroniciens (En Français).

Pin It on Pinterest

Share This