... "Pour ces raisons, il semble raisonnable de penser que, vue depuis un futur lointain, par exemple en 2 500 ou en 3 000 après J.-C., l’histoire retiendra que c'est le développement des technologies de l'information qui aura été à l'origine de la révolution la plus radicale qu'ait connue l'humanité. On observera qu’avec l’ère digitale, l’humanité connaît une révolution complète de la connaissance. Beaucoup pourraient objecter que sans révolution industrielle il n'aurait pu y avoir de révolution de la connaissance et qu’il serait malhonnête d'essayer de réécrire l’histoire en ne s’attachant qu’à exacerber le potentiel d’une des nombreuses innovations de l’époque moderne. Pourtant, même si cela n’est pas encore une évidence, il est plus que probable que nous sommes au début d’une période unique dans l'histoire de l'humanité, tant le savoir et l’information, si largement distribués par les outils numériques, sont en train de devenir des facteurs d'émancipation des peuples et de transformation globale des sociétés humaines, plus encore que n’ont pu l’être la machine à vapeur et la mécanisation de l’agriculture. (...)."

 

L’ère numérique, un nouvel âge pour l’humanité, Gilles Babinet

 

 

La deuxième révolution numérique

« Tenter de distiller l'intelligence dans une construction algorithmique peut s’avérer être le meilleur chemin pour comprendre le fonctionnement de nos esprits. »

 Demis Hassabis, Nature, 23 février 2012.

 

C'est peu dire que je partage l'analyse de Gilles Babinet !

 

Dans mon propre métier de chercheur, de la fin des années 60 à aujourd'hui, j'ai pu voir à l'oeuvre cette révolution numérique et observer comment elle a fondamentalement modifié notre approche de la science, en ouvrant des perspectives encore inimaginables au milieu du XXème siècle.

 

D'un autre côté, à l'instar de l'imprimerie - mais dans une autre dimension -, elle a bouleversé nos rapports sociaux en mettant à la disposition de tous, dans tous les domaines, quasiment en temps réel, une avalanche d'informations que nous ne savons pas toujours analyser.

 

Nous voici donc dans le deuxième temps de la révolution numérique : après avoir appris à numériser, à stocker, à décompter... il devenait indispensable de créer de nouveaux outils numériques capables d'interpréter cette quantité faramineuse d'informations.

 

C'est le but du machine learning  (apprentissage automatique) où, à partir d'algorithmes d'apprentissage, l'ordinateur va pouvoir SEUL modéliser les données et résoudre un problème.

 

Nous assistons aux premiers balbutiements de l'intelligence artificielle, qui à long terme posera certainement un certain nombre de problèmes éthiques et philosophiques, mais qui aujourd'hui ouvre des perspectives prometteuses pour l'amélioration de nos conditions de vie. C'est particulièrement vrai dans le domaine de la santé.

 

 

Dans tous les domaines scientifiques les chercheurs croulent sous les données, par exemple :

 

-en biologie avec le décryptage du génome, du protéome, du microbiome, du métabolome...

- en astronomie où les données recueillies se chiffrent en petabytes,

- dans les sciences sociales où l'analyse des données fournies par internet (Google traite des dizaines de pétaoctets par jour !) est devenu un véritable casse-tête.

 - en médecine avec l'émergence du patient numérique,

- en chimie organique, où le traitement informatique traditionnel a largement échoué dans l'accompagnement des synthèses multi-étapes complexes,

...

Un ordinateur de grande capacité est capable de trier des données, mais sur un énorme échantillon il n'en dégagera pas la substantifique moelle ; surtout pour des systèmes complexes, difficiles à modéliser à l’aide des méthodes statistiques classiques, ou dans toutes les situations où il existe une relation non linéaire entre une variable prédictive et une variable prédite.

 

Pour cela les chercheurs, s'inspirant du fonctionnement du cerveau humain,  ont imaginé des réseaux de neurones artificiels.

 

Intelligence artificielle et éthique

J'ai indiqué que les progrès rapides de l'IA, le chemin tracé par certains vers "l'humain augmenté " ne sont pas sans inquiéter de nombreux scientifiques.

 

Ainsi en 2014, l’astrophysicien britannique Stephen Hawking déclarait :

« Parvenir à créer des intelligences artificielles serait le plus grand accomplissement de l’histoire humaine. Malheureusement, il pourrait aussi s’agir du dernier, à moins que nous apprenions à éviter les risques. » 

 

 

Un guide de référence pour un développement éthique de l'intelligence artificielle a été récemment adopté par un groupe de 2 000 signataires, dont Stephen Hawking,  Elon Musk, patron de SpaceXTesla... et 816 scientifiques spécialisés dans l’intelligence artificielle ou la robotique

 

Ces « 23 principes d'Asilomar » s'inspirent un peu des 3 lois de la robotique de l'écrivain Isaac Asimov

 

Connaissez-vous la BCI ?

L'interface cérébrale implantable (Implantable Brain Computer Interface)

Voila un acronyme qui a de l'avenir !

Il s'agit de développer des technologies à l'interface cerveau-ordinateur, de coupler en quelque sorte intelligence biologique et intelligence artificielle.

 

Deux tâches principales sont aujourd'hui assignées à la BCI : l'extraction de signaux neuronaux, principalement pour les commandes motrices, l'insertion de signaux pour restaurer les sensations.

 

La technologie BCI est actuellement principalement axée sur  l'aide aux personnes souffrant de lésions de la moelle épinière. Il permet déjà aux utilisateurs d'effectuer des tâches motrices relativement simples.

 

 Cependant : 

 

"Les capacités actuelles sont déjà impressionnantes. Un neuroscientifique paralysé par la sclérose latérale amyotrophique (SLA, également connue sous le nom de maladie de Lou Gehrig ou motoneurone) a utilisé un BCI pour diriger son laboratoire, rédiger des demandes de subvention et envoyer des courriels . Pendant ce temps, des chercheurs de l'Université Duke à Durham, en Caroline du Nord, ont montré que trois singes avec des implants d'électrode peuvent fonctionner comme un «réseau de cerveau» pour déplacer un bras d'avatar en collaboration. Ces appareils peuvent fonctionner sur des milliers de kilomètres si le signal est transmis sans fil par Internet."

 

Cela veut dire que dans 10, 20 ou 30 ans,  il sera possible de décoder les processus mentaux des patients, de manipuler directement les mécanismes cérébraux qui sous-tendent leurs intentions, leurs émotions et leurs décisions; d'améliorer grandement leurs capacités mentales et physique.

 

Actuellement des dispositifs grossiers sont capables de stimuler et lire l'activité de quelques dizaines de neurones au maximum ; on commence  à interpréter l'activité neuronale d'une personne à partir d'images obtenues par IRM fonctionnelle.

 

Cependant, dès cette année, l'Agence américaine de recherche avancée en matière de défense (DARPA) a lancé un projet intitulé Neural Engineering System Design qui devrait être présenté à la FDA (Food and Drug Administration, USA) dans  4 ans. Il s'agit d'un dispositif pilotable à distance, capable de surveiller l'activité cérébrale en stimulant sélectivement jusqu'à 100 000 neurones.

 

Dans le cadre du projet Brain, dont je parle par ailleurs,  plus de 500 millions de dollars en fonds fédéraux ont été consacrés au développement de neurotechnologies.

Les universités américaines font feu de tout bois...

Les investisseurs privés vont emboîter le pas,  Google, IBM, Microsoft, Facebook, Apple et de nombreuses start-up  sont déjà sur le coup.

 

On peut penser que l'accélération en recherche et développement dans ce domaine va être fulgurante, ne serait-ce que parce que les fameux réseaux neuronaux, dont je parle plus haut,  s'inspirent de connaissances des circuits cérébraux qui datent de plus de 50 ans.

 

L'interaction entre l'intelligence artificielle et les neurotechnologies peut donc conduire à des avancées thérapeutiques extraordinaires, mais s'avérer aussi redoutable aux mains de quelques d'apprentis-sorciers.

 

Aussi, nombreux sont ceux qui pensent qu'il faut aller plus loin qu' Asilomar. C'est le cas de Rafael Yuste (Université de Columbia, NYC) Sara Goering (Université de Washington) et de leurs collègues qui plaident dans la grande revue scientifique Nature, pour que l'intelligence artificielle et les interfaces cerveau-ordinateur respectent et préservent la vie privée, l'identité, l'activité et l'égalité des personnes.

 

Quelques sociétés privées développeurs en BCI : Neuralink (qui vise la fusion des intelligences biologiques et numériques), Kernel (qui grâce à une puce implantée veut restaurer la mémoire et développer l'intelligence), Focus Edu (propose un bandeau stimulant les ondes cérébrales pour améliorer les résultats scolaires... hum !), Neurable (veut avec une technologie sans fil et grâce à  l'activité cérébrale des utilisateurs,permettre un contrôle en temps réel des logiciels et appareils connectés), etc....

Nous avons déjà tous un chapeau de sorcier sur la tête !

Un clin d'oeil pour terminer. Je cite (avec quelques corrections) :

 

" L'industrie naissante des interfaces cerveau-machine est la graine d'une révolution qui va changer à peu près tout. 

Mais à bien des égards, l'avènement de cette interface n'est pas vraiment une chose nouvelle. 

Si vous prenez du recul, cela ressemble plus au prochain grand chapitre d'une tendance qui dure depuis longtemps.

 La langue a pris une éternité à se transformer en écriture, qui a ensuite pris une éternité pour se transformer en livres imprimés. 

Puis vint l'électricité et le rythme  s'accéléra. Téléphone. Radio. Télévision. Des ordinateurs.

Et juste comme ça, les maisons de chacun sont devenues magiques.

 Puis les téléphones sont devenus sans fil. Puis mobile. Les ordinateurs sont passés de dispositifs pour le travail et les jeux à des fenêtres vers un monde numérique dont nous faisons tous partie. 

Ensuite, les téléphones et les ordinateurs ont fusionné en un appareil qui a fait sortir la magie de nos maisons et nous l'a remis entre nos mains. Et sur nos poignets.

Vous n'avez pas besoin d'être un futurologue pour voir que cela se passe."

Tim Urban, Wait but Why

 

Finalement ce bandeau qui entourera bientôt la tête de nos descendants pour chatouiller leurs neurones, ne serait-il pas qu'un nouveau chapeau de sorcier succédant, depuis qu'Adam et Eve ont fauté à l'ombre d'un pommier, à bien d'autres couvre-chefs produits du génie humain.

 

Si vous en avez le courage lisez le blog de Tim Urban : Neuralink et l'avenir magique du cerveauqui suit un entretien de l'auteur avec le fameux Elon Musk patron de Neuralink (et de Tesla, Space X, OpenAl, Solar City...)

 

 

La Sérénissime au peigne fin des nouvelles technologies

Venice Time Machine

" Le projet Venice Time Machine est un programme scientifique international pionnier des sciences humaines numériques lancé par l'EPFL (Ecole Polytechnique Fédérale de Lausanne) et l'Université Ca'Foscari de Venise en 2012. Il comprend les principales institutions patrimoniales vénitiennes: les archives de l'État à Venise, la bibliothèque Marciana, l'Institut Veneto et le Fondation Cini.

 

Le conseil international du projet comprend des chercheurs des universités de Princeton, Stanford, Columbia et London. Trois cents chercheurs et étudiants de différentes disciplines (sciences de base, ingénierie, informatique, architecture, histoire et histoire des arts) ont déjà collaboré à ce programme international. 

 

Le projet Venice Time Machine vise à construire un modèle multidimensionnel de Venise et son évolution couvrant une période de plus de 1000 ans. Les kilomètres d'archives sont actuellement numérisés, transcrits et indexés, établissant la base de la plus grande base de données jamais créée sur les documents vénitiens.

 Des millions de photos sont traitées à l'aide d'algorithmes de vision mécanique et stockées dans un format adapté aux approches informatiques haute performance. En plus de ces sources primaires, le contenu de milliers de monographies est indexé et fait des recherches. L'information extraite de ces diverses sources est organisée dans un graphique sémantique des données liées et se déroule dans l'espace et le temps dans le cadre d'un système d'information géographique historique, basé sur un balayage haute résolution de la ville elle-même

 

La diversité, la quantité et la précision des documents vénitiens sont uniques dans l'histoire occidentale. The Venice Time Machine met en service un pipeline technique pour transformer ce patrimoine en Big Data of the Past. Des scanners de documents rapides produisent un flux d'images numériques qui sont analysées à l'aide de réseaux d'apprentissage en profondeur. Ces algorithmes trouvent des motifs récurrents dans des documents écrits à la main, des cartes mais aussi des peintures et des partitions musicales extrayant des informations sur les personnes, les lieux et les œuvres d'art, créant un réseau géant de données liées. Les éléments d'information extraits des documents sont intimement entrelacés. En combinant cette masse d'informations, il est possible de reconstruire de grands segments du passé de la ville. À plus grande échelle, les archives vénitiennes révèlent 1000 ans de circulation européenne."

EPFL -  Venice Time Machine

 

 

Une révolution pour les historiens... et tous les chercheurs ?

Si l'on regarde d'un peu plus près l'aspect technique de ce travail, on comprend tout de suite que nous sommes devant une révolution majeure dans le domaine de la recherche et de l'exploitation de documents.

 

Je fais partie d'une génération de chercheurs scientifiques qui a longuement fréquenté les bibliothèques universitaires et leurs rayonnages poussiéreux ; passant de longues heures à traquer les bonnes références.

 

Depuis une vingtaine d'années les banques de données en ligne ont considérablement simplifié et accéléré les recherches bibliographiques, dans tous les domaines.

 

Le travail que j'évoque ici va beaucoup plus loin qu'une simple constitution de bases de données de documents numérisés.

 

Les équipes de recherche concernées (évidemment pluridisciplinaires) ont mis en place leurs propres outils :

 

- pour la numérisation, qui est assuré par des robots sans aucune assistance humaine, et que bientôt, grâce au balayage par tomodensitométrie (CT) utilisé en médecine, ils réaliseront sans même que le bouquin ne soit ouvert !

 

- en développant différentes techniques de lecture automatique, y compris pour les vieux manuscrits, grâce au machine-learning.

 

Sur la figure ci-contre on voit comment les algorithmes de la time machine sont conçus pour analyser la structure du texte écrit et en extraire les formes graphiques semblables, pour former une multitude de liens.

A partir d'un nom dans un seul document, le système va établir toutes sortes de corrélations dans l'espace et dans le temps.

 

Ce référencement croisé organise l'information en graphiques géants de données interconnectées.

 

C'est donc un champ pratiquement inépuisable de données qui s'ouvrent pour des recherches dans une infinité de domaines.

 

Le VTM qui soulève l'enthousiasme des chercheurs va faire des émules : l'Amsterdam Time Machine est sur les rails. Je veux croire que le Paris Time Machine ne tardera pas trop. Voila un projet à la mesure de notre CNRS, si toutefois lourdeurs administratives et disette financière ne s'avèrent pas insurmontables. Ce serait vraiment dommage !

 

Sur le site :

Qu'est-ce qu'un réseau neuronal, comment ça marche ?

L'apprentissage automatique,

DeepLearning, apprentissage supervisé,

Robotique et neurosciences,

Les risques pour l'emploi,

Recherche robotisée,

Pixel, Deep Learning, Deepdream, Daydream, DeepMind, Google Translate..., Google à la pointe de l'IA,

Faut-il avoir peur de l'intelligence artificielle...