Auteur/autrice : Francois Lassagne

Créer un podcast, ça prend 10 minutes

Créer un podcast, ça prend 10 minutes

C’était il y a deux ans, autant dire une éternité.

Je me lançais dans la création d’un podcast « bac à sable », pour tâter le terrain de ce média en plein essor, qui me semblait parfaitement désirable, parce que mettant le grain si particulier de l’audio à portée de toutes les oreilles. Plus libre que la plus libre des radios libres, mobile, se glissant simplement d’une plateforme à l’autre… Ainsi allait ma théorie.

La pratique fut un tout petit peu plus rugueuse. Choisir son matériel d’enregistrement, maîtriser un logiciel de montage audio… Rien de sorcier. Quelques tâtonnements, et pas mal de patience avant de s’estimer satisfait. Mais surtout il fallut comprendre où héberger le podcast, comment être référencé, comment rendre possible l’abonnement sur des plateformes variées, pour quiconque découvrirait mes premiers essais sur mon site web…

Cela impliquait de se plonger dans la documentation d’Apple et Google, notamment; de tester plusieurs extensions sur WordPress…

In fine je parvins à i-not-robot.info, officiellement référencé et découvrable sur les plateformes d’Apple et de Google, donc.

Nous voilà quelque 2 ans plus loin. Le bac à sable est resté en l’état. Je n’ai cessé de maintenir une veille très régulière sur le sujet du podcasting: apparition et disparition d’acteurs petits et grands, offres des plateformes de création et/ou de diffusion, structures de conseil et d’accompagnement, qualité des créations originales ici et là, évolution de la politique des radios (natif or not natif), débats sur les droits, mystères persistants des modèles d’affaire durable… Et une question très simple a fini par s’imposer: combien de temps faut-il aujourd’hui pour créer un podcast et mettre en ligne un épisode de podcast sur les grandes plateformes de diffusion ?

Pour répondre, j’ai choisi la méthodologie la plus expéditive possible: 1/ cliquer sur les premiers résultats non sponsorisés sur Google répondant à la requête « créer un podcast ». Ils viennent en foule. J’ai opté pour Anchor, plateforme de création et diffusion. 2/ cliquer « suivant », sans réfléchir, à chaque étape proposée par la plateforme 3/ opter pour un poème lu à haute voix comme contenu test (parce que nous avons tous besoin de beaucoup plus de poésie)

Résultat : en 10 minutes, j’avait mon épisode « MVP ». Il est là, le podcast s’appelle L’Instant Poésie. Je vous laisse juger de sa qualité.

J’en retiens que pour un podcast de type chronique (locuteur unique), avec habillage sonore minimal, il n’y a pas de barrière technique à l’entrée. Et l’on comprend mieux l’explosion récente de l’offre, du pire au meilleur.

Conséquence: l’avenir d’un projet de podcast, qui ne peut plus bénéficier d’un quelconque effet de nouveauté lié au format, repose sur 2 éléments essentiels:

  • 1/ L’éditorial = l’intention éditoriale (a-t-on vraiment quelque chose à raconter ?) + l’écriture (ce qui doit être entendu est-il bien pensé ?) + la qualité de l’exécution (prise de son, mixage, habillage, postprod)
  • 2/ La stratégie de distribution. On l’a vu, la mécanique de distribution n’est plus un frein. En cela, merci aux plateformes (Anchor, donc, et ses concurrentes, ainsi que les plateformes de streaming audio qui se sont bien vite converties à ce média). Mais la stratégie de distribution, elle, est déterminante. Quelle distribution pourra assurer à un podcast le financement dont il a besoin ? Le podcast est-il un coût à assumer dans une stratégie (marketing et/ou communication) plus large ?

… corollaire: un podcast mis en ligne sans avoir combiné intelligemment 1 & 2 a peu de chance de satisfaire qui que ce soit.

Intelligence artificielle : enfin l’enfance ?

Intelligence artificielle : enfin l’enfance ?

L’intelligence artificielle a beau avoir discrètement franchi la cinquantaine, elle semble conserver les attraits du nouveau né. Un geste d’elle – on s’émerveille, on s’alarme. Portée haut par l’avant-garde de l’abstraction algorithmique et les machines les plus sophistiquées de l’industrie informatique, l’IA, fantasme enfin né à la réalité, attire tous les regards.

Elle fut, de la fin des années 1950 au tournant des années 2010, en gestation prolongée, à l’état d’ébauche compliquée dans les laboratoires de recherche en informatique, ou, taisant le nom qui allait faire sa gloire, exploitée discrètement comme outil d’aide à la décision, sous la dénomination de système expert. La voici devenue, en quelques années, technique généraliste en conquête accélérée de tous les secteurs d’activité. Et, où qu’elle se présente, elle fait la joie de ses futurs parents adoptifs, autant qu’elle angoisse celles et ceux qui vont devoir lui faire une place dans leur vie, sans nécessairement pouvoir peser sur son destin.

D’un côté, elle fait fondre les investisseurs, enchante les directeurs d’usine, ravit les ingénieurs. De l’autre, elle inquiète salariés et citoyens. Dans la sphère économique, l’intelligence artificielle promet de transformer bien des métiers. Dans la sphère sociale, elle pose de fort pressantes questions – allant de celle, centrée sur l’individu, des réactions à avoir face à la capacité des machines à identifier quiconque dans la rue à tout instant, à celle, touchant les grands équilibres sociaux, de la proportion d’emplois qu’elle pourrait faire disparaître.

Dans tous les cas, l’intérêt porté à l’IA, parfois excessif, n’est pas usurpé. Car à peine sortie de son berceau, elle surprend par ses capacités, authentiquement étonnantes. En médecine, elle a fait la preuve de son aptitude à détecter les indices de cancer, sur des radiographies, mieux que les meilleurs experts humains. Elle identifie, dans la voix des jeunes enfants, les signes caractéristiques de l’anxiété ou de la dépression, avec davantage d’acuité que les psychologues. Elle peut créer des tableaux à la manière du peintre dont on lui aura présenté des œuvres ; reconstituer un visage en trois dimensions à partir d’une seule photo. Sans compter son aptitude à attribuer une couleur émotionnelle à un discours, à traduire instantanément une langue dans une autre avec suffisamment de précision pour que deux interlocuteurs étrangers se comprennent. Ou encore son impressionnante capacité à battre les humains à des jeux toujours plus difficiles : échecs, go, shogi, jeux vidéos en ligne massivement multijoueurs (MMORPG)…

Les trois piliers de l’IA d’aujourd’hui

Les réseaux de neurones ? Des fonctions mathématiques !

Derrière cette litanie d’exploits, trois conditions sont systématiquement réunies : une équipe scientifique ayant une compréhension très claire du problème à résoudre, des sources de données abondantes et pertinentes, et une sélection d’algorithmes bien choisis et bien articulés pour, à partir des données, apprendre à résoudre le problème posé. Dans la plupart des cas, les IA défrayant la chronique s’appuient sur des algorithmes dits d’ « apprentissage profond ». Ceux-ci fonctionnent tous, schématiquement, selon les mêmes principes. Une très grande quantité de données en entrée du système est traitée par des groupes de fonctions mathématiques reliées les unes avec les autres. Une fonction peut être assimilée à un « neurone », un groupe de fonctions à une couche de neurones. Le résultat du calcul effectué par les fonctions mathématiques, couche après couche, est comparé avec des valeurs cibles. Selon l’écart entre le résultat obtenu et ces valeurs cibles, les fonctions mathématiques sont modifiées automatiquement, jusqu’à ce que résultats et valeurs cibles atteignent une proximité jugée satisfaisante par les programmeurs. A ce stade, les couches de neurones ont « appris » à résoudre le problème posé. Face à de nouvelles données, inconnues mais concernant le même problème, elles sauront, immédiatement, trouver une solution.

Cette présentation est, bien sûr, très schématique. Mais elle donne une idée sans doute plus honnête de ce que fait une intelligence artificielle que la seule métaphore neurologique des « neurones artificiels », qui laisse un peu vite penser que l’IA s’apparente au cerveau humain. Car, en toute rigueur, le fonctionnement du cerveau est autrement plus complexe que celui des « réseaux de neurones » des IA les plus performantes. Surtout, l’apprentissage profond, en dépit de ses indéniables succès, reste incapable d’accomplir d’autres « tours » que ceux aujourd’hui tant applaudis.

Les IA émerveillent en effet par leur aptitude à traiter des problèmes qui, en réalité, sont peu ou prou toujours les mêmes : reconnaître des régularités connues dans des données inconnues (un visage donné parmi une collection de visages, par exemple), découvrir des motifs inconnus dans des données inconnues (classer automatiquement des visages selon des traits caractéristiques), prédire l’émergence d’un motif connu au sein de données inconnues (esquisser un visage à partir d’une partie des traits qui le constituent). L’IA « apprend », certes. Mais cet apprentissage est très limité. Et même les acteurs les plus en vue de ses développements s’en tiennent à des visées raisonnables. «  A la fin, ce que l’on voudrait, ce sont des machines qui ont autant de bon sens qu’un chat de gouttière », rappelait en juin 2019 le Français Yann Lecun, directeur de la recherche en Intelligence Artificielle de Facebook, lauréat 2018 du prix Turing, invité à une soirée d’honneur au Consulat général de France à New York. 

Une grande ambition : le chat de gouttière

Que faut-il à l’IA pour qu’un jour elle acquière autant de bon sens qu’un chat de gouttière ? Que lui faut-il, au-delà, pour réussir à se représenter le monde qui l’entoure, saisir et inventer des concepts nouveaux, appliquer ses connaissances à d’autres domaines que ceux dont elles sont issues… ?

Ces questions sont celles qui forgent la pointe des recherches contemporaines en IA. Et les chercheurs sont en train d’esquisser des réponses qui pourraient faire enfin sortir l’IA de son berceau. Leur conviction ? Celle que l’IA va devoir dépasser les dons innés que lui ont offert les algorithmes d’apprentissage profond, et trouver d’autres manières d’apprendre. Il lui faut désormais apprendre à apprendre. Comme un enfant s’engageant sur le long chemin de l’éducation, les progrès à venir de l’IA vont devoir s’appuyer sur un éventail d’outils pédagogiques bien plus étendu. Travaux théoriques, expérimentations et rapprochements disciplinaires portent la trace de cet acte suivant de l’IA. Ils pourraient aboutir à des IA équipés d’un « sens commun » rudimentaire, aptes à apprendre seules. Ce qui ramènerait les « prouesses » de l’IA actuelles au rang de sympathiques balbutiements… et ferait véritablement entrer les intelligences artificielles dans l’enfance, cette période d’intense développement de la puissance intellectuelle.

Parmi les chercheurs défrichant ces nouvelles pistes figure Josh Tanenbaum. Ce professeur au Département de Sciences cognitives et du cerveau au Massachusetts Institute of Technology a, en 2018, publié une synthèse, à la fois enthousiaste et pragmatique, expliquant pourquoi et comment l’IA devait prendre le chemin d’un progrès inspiré par la manière dont les humains apprennent pendant l’enfance. L’idée était dès alors non pas d’annoncer une révolution, mais de pointer les limites fondamentales des technologies d’apprentissage profond et d’envisager les moyens de leur faire franchir un nouveau cap conceptuel. Ce que pointe d’emblée Josh Tanenbaum, c’est la très faible efficacité de l’apprentissage des réseaux de neurones profonds face à celle des humains, lorsqu’ils sont confrontés à la même tâche. Le chercheur et son équipe s’appuient, notamment, sur la façon dont une IA parmi les meilleures du moment apprend à jouer à des jeux vidéos des années 1980.

236 heures pour gagner à un jeu d’arcade

https://www.flickr.com/photos/astroguy/

En 2015, le système « DQN » , conçu par des chercheurs employés par Google, associant un réseau de neurones profond à des algorithmes d’apprentissage par renforcement, a appris à jouer à 49 jeux d’arcade issus du catalogue d’Atari. « DQN », ont montré ses concepteurs, a réussi à faire mieux qu’un joueur humain expérimenté pour 20 de ces jeux, aussi bien pour 9 d’entre eux, et a concédé la défaite pour les 20 autres. L’équipe de Josh Tanenbaum s’est en particulier intéressée à la manière dont « DQN » avait appris à jouer à « Frostbite ». Le joueur de Frostbite doit construire un igloo. Il saute d’iceberg en iceberg, récolte des blocs de glace et évite les obstacles (ours, oiseaux…). Autant dire que ce n’est pas un jeu difficile. Un adulte s’y essayant parvient à réaliser un score honorable en un temps relativement court (quelques heures au plus). Et si le même adulte observe un joueur aguerri, il lui faut encore moins de temps. L’IA développée par les chercheurs de Google a, elle, besoin de 236 heures pour atteindre un taux de réussite de 49 % – sachant qu’en manipulant de manière totalement aléatoire les contrôles du jeu, ce taux atteint 1,5 %. Au bout de deux heures d’apprentissage, le score de la machine ne dépasse pas 3,5 %, et atteint tout juste 19 % après 116 heures. En clair : « DQN » devient peut être un très bon joueur de « Frostbite », mais au prix d’un apprentissage extrêmement laborieux. Ce qui rend les joueurs humains si rapidement habiles à construire un igloo de pixels en sautant, sur l’écran, d’un iceberg à un autre ? « Les apprenants humains, contrairement au DQN et à tant d’autres systèmes d’IA apprenantes, approchent les nouveaux problèmes armés d’une expérience préalable très large, répond Josh Tanenbaum. Un humain rencontre ici un problème qui n’est jamais qu’un problème parmi une chaîne formée des années durant, et ces problèmes rencontrés au préalable partagent bien souvent des éléments de structure ».

Autrement dit: quand il fait une expérience aussi artificielle que celle consistant à découvrir ce qui fait gagner à un jeu d’arcade, tout humain, aussi rétif aux écrans soit-il, peut s’appuyer sur tout ce que la vie a pu lui apprendre. Comme savoir, et cela dès les premiers mois de vie, qu’il y a souvent intérêt à être attentif aux éléments qui se déplacent dans le décor – que ce soit dans une rue animée ou sur l’écran d’un jeu d’arcade. L’IA, elle, au moins dans ses premiers pas d’exploration, n’a aucune raison de s’intéresser à un pixel plutôt qu’un autre. « Si nous voulons concevoir des machines qui apprennent et pensent comme des humains, alors nos machines doivent se confronter aux tâches à la manière des humains, poursuit naturellement le chercheur du MIT. Les gens ne partent jamais de rien, et c’est le secret de leur réussite. Le défi devient : comment arriver à disposer très vite de connaissances a priori pour apprendre à résoudre très vite de nouveaux problèmes ? »

Et quel défi ! Rien moins que réussir à « équiper » les IA de programmes qui, à l’instar du cerveau d’un très jeune enfant, sera capable d’extraire très vite, et avec une fantastique efficacité, des informations utiles à partir de son environnement. Est-il envisageable de faire se développer une IA comme se développe l’esprit d’un enfant ? Ou à défaut, au moins, d’en faire un honorable chat de gouttière ? Rien n’est acquis. Mais la voie est ouverte, y compris par celles et ceux qui travaillent au plus près des applications industrielles de l’IA. Ainsi certains chercheurs travaillant dans les unités de recherche et développement d’Uber (Uber AI Labs), en marge de leurs travaux centrés sur les logiciels de conduite autonome, contribuent à préparer la génération suivante d’IA, en expérimentant de nouveaux algorithmes dotés de plasticité. Soit des algorithmes dotés de la capacité, après un apprentissage, de reconfigurer partiellement leurs connexions entre « neurones »1 – pour accomplir une tâche légèrement différente, par exemple. « Je travaille sur le développement de réseaux de neurones qui demeurent capable d’apprendre après leur apprentissage initial. L’idée est de former des réseaux de neurones qui, une fois « lâchés » dans leur environnement, sans guidage, restent capables de modifier leur comportement. Cette plasticité les aide à apprendre de manière plus efficace », explique Thomas Miconi, ingénieur de recherche chez Uber.

Le levier de la plasticité, pour aider les machines à « assouplir » leurs capacités d’apprentissage, est fortement inspiré des processus de maturation observée, dans l’enfance, au cœur du cerveau humain. A sa naissance, un nouveau-né dispose, déjà, d’environ 100 milliards de neurones. Seule la moitié de ces neurones sont alors connectés entre eux. Mais minute après minute, environ 2 millions de connexions vont se mettre en place, sous l’influence de facteurs génétiques et des interactions avec l’environnement. Doter une machine ne serait-ce que d’une fraction modeste de cette formidable plasticité, dans la durée – et pas seulement à l’occasion d’un apprentissage initiale effectué dans un but précis – c’est lui donner des chances de pouvoir adapter son comportement à un environnement complexe et changeant.

Reste que, chez les humains, cette plasticité n’est pas absolue : le cerveau de sapiens évolue intensément dans les premiers mois de vie, puis continue à se transformer, jusqu’à la mort. Mais il hérite, aussi, de contraintes imposées par l’évolution, qui inscrivent dans les grands schémas de connexion et de fonctionnement biochimique de ses neurones des dynamiques de réponse organisant, d’emblée, la manière dont un humain appréhende le monde.

La plasticité n’efface pas l’inné, et les êtres humains, avant même de faire l’expérience du monde, partent avec quelques millions d’années d’évolution d’avance sur les machines. Or figure dans cet héritage naturel ce que les spécialistes du développement cérébral assimilent aujourd’hui à de véritables théories. Ce qui fait dire à Stanislas Dehaene, titulaire de la chaire de Psychologie cognitive expérimentale au Collège de France, que « […] pour parvenir à une véritable IAG [Intelligence Artificielle Générale, ndr], c’est probablement le principe même de nos architectures informatiques qu’il faut revoir, parce que le cerveau humain à la différence des autres espèces animales, semble posséder des algorithmes très spéciaux pour formuler des théories du monde extérieur. Il parvient à explorer systématiquement toutes les combinaisons de toutes les règles possibles, à l’aide d’une sorte de langage de la pensée en s’appuyant sur la théorie des probabilités. […] Seule la manipulation des probabilités, c’est à dire des incertitudes sur ce qu’on a appris, permet de tirer le maximum de chaque information. C’est la théorie du cerveau statisticien »2.

Cette théorie est bien connue des chercheurs en intelligence artificielle. Sans surprise, elle fait partie de l’éventail des voies à poursuivre établi par Josh Tanenbaum. « A l’âge de deux ans, probablement avant, les enfants s’attendent à ce que les objets inanimés respectent des principes de persistance, de cohésion, de continuité et de solidité. Les représentations cognitives sous-jacentes peuvent être comprises comme des théories intuitives, avec une structure causale ressemblant à celle des théories scientifiques, retient-il pour sa part3. La proposition de l’enfant scientifique voit même un aspect scientifique dans le processus d’apprentissage lui-même, des expériences récentes montrant que les enfants cherchent à obtenir de nouvelles données pour distinguer des hypothèses, isoler des variables, tester des relations de causalité… ».

Faire émerger les théories scientifiques

Parmi ces expériences, citons celles du Laboratoire de sciences cognitives et psycholinguistique de l’ENS, à Paris, qui montrent qu’avant deux ans les enfants sont, déjà, sensibles à la syntaxe : ils jugent anormales des phrases où verbes et noms sont placés de manière erronée. Citons encore, à Paris toujours, celles menées par le laboratoire de Psychologie de la perception, de l’université Paris-Descartes, qui attestent que des nouveau-nés âgés d’une trentaine d’heures seulement possèdent une représentation abstraite du nombre1.

Peut-on imaginer écrire le code informatique qui offrirait aux IA des aptitudes aussi essentielles, avant même de les exposer aux immenses réservoirs de données qui constituent aujourd’hui leur seul bagage ? « Il n’y a pas d’accord sur la nature computationnelle [des principes et concepts innés chez les enfants], reconnaît Josh Tannebaum. Ont été évoqués des arbres de décisions, des listes de règles… et une approche prometteuse, récente, voit la physique intuitive fonctionner comme les logiciels de simulation de réalité physique qui sert de base aux films d’animation et aux jeux vidéo. Selon cette hypothèse, les gens reconstruisent les scènes perçues en utilisant une représentation interne des objets et de leurs propriétés physiques (masse, friction, élasticité…) et des forces s’y appliquant (gravité, friction, collision…) ».

Ces pistes commencent, modestement, à porter leurs fruits. Dès 2016, des chercheurs de Facebook AI Research2 sont parvenus à entraîner un réseau de neurones artificiels dit « convolutionnel » à prédire la stabilité d’une tour (virtuelle) constituée de quelques cubes, à partir de scènes simulées, montrant des tours tantôt stables, tantôt instables. Ce réseau a « inventé » ses propres lois de mécanique newtonienne et réussi, ensuite, aussi bien que les humains, à prédire ce qu’il adviendrait de vraies tours faites de vraies cubes… au prix d’un apprentissage initial de plus de 100 000 scènes.

Plus récemment, une équipe de neuroscientifiques allemands a découvert, dans les couches profondes d’un réseau de neurones profond développé pour classer des images de formes différentes (carrés triangles, cercles) sans critère préétabli, qu’émergeait spontanément le « sens du nombre » : le réseau classait les milliers d’images qui lui étaient soumises en fonction de leur quantité pour chaque forme présentée.

Ce dernier résultat est encourageant, car il signe la possibilité de cultiver la construction d’abstractions au sein-même des technologies d’apprentissage existantes. Certes, cette découverte ne dit rien de la manière dont devraient être conçus les algorithmes d’apprentissage pour, précisément, faire émerger concepts et capacité d’abstraction. Mais, sur ce plan, un outil très récemment développé par les équipes de la société Deepmind, à qui l’on doit AlphaGo (première IA ayant battu des maîtres du go), pourrait être d’un secours précieux. Appelé Psych Lab, il consiste en un environnement virtuel, reproduisant un poste d’expérience de psychologie cognitive.

Les psychologues, pour percer les mystères du fonctionnement de l’esprit humain, ont conçu des expériences très simples, dès les années 1950, qu’ils font passer à des volontaires. Le plus souvent, elles consistent à faire s’asseoir les volontaires devant un écran relié à un ordinateur et à un clavier, et à appliquer des consignes simples. Fixer une croix apparaissant un instant sur l’écran, puis être attentif à des formes ou des couleurs qui y apparaîtront, quelques minutes durant, par exemple. La consigne peut alors être d’appuyer sur un bouton si une forme inédite apparaît, ou d’appuyer sur le même bouton quand un certain nombre de formes identiques sont apparues… Les psychologues ont imaginé des dizaines d’expérience de ce type, et les ont standardisées. Ils mesurent les temps de réaction, les taux d’échec ou de réussite… et comparent les résultats d’individus d’âges ou de conditions de santé différentes. Ils en tirent des hypothèses sur la manière dont l’esprit humain dirige son attention, compte, se souvient, perçoit des différences, etc.

Les IA passent chez le psy

@Deepmind

L’idée des chercheurs de Deepmind est, sur le principe, très simple : faire passer ces tests bien connus à des IA, en les « branchant » devant un écran virtuel, pour leur faire passer virtuellement les mêmes tests que ceux proposés aux sujets humains, et dont les résultats sont parfaitement connus. Le projet Psych Lab, initié en 2108, n’en est qu’au stade exploratoire. Mais ses concepteurs, soumettant à des tests psychométriques de vision une IA appelée « UNREAL », ont d’ores et déjà établi des différences notables entre la façon dont « voit » cette IA et les caractéristiques humaines de la vision. Un premier pas pour comprendre et influencer la manière dont les machines s’approprient le monde.

Pour faire grandir les IA et étendre leur champ de compréhension, et comme en complément à cette approche de laboratoire, à l’environnement virtuel parfaitement maîtrisé, la robotique développementale avance elle aussi ses pions. Là où les experts des IA travaillent sur la montée en puissance des capacités innées des machines, les roboticiens veulent, eux, nourrir la richesse de leurs interactions réelles avec le monde. Ils misent sur « l’apprentissage développemental » pour accélérer l’acquisition de connaissances par les machines, et rendre leur comportement plus pertinent, grâce à l’instanciation physique des IA sous la forme de robots évoluant dans le monde réel, en interaction avec les humains. « En mettant l’accent sur l’interaction avec le monde physique, l’idée est d’exploiter une forme d’apprentissage plus efficace et rapide, plutôt que d’apprendre sur la base de milliers ou millions d’exemples, en photos ou vidéos. Cela peut aussi faciliter la transposabilité des tâches accomplies par les machines : pour un bras robot, la manipulation d’un verre doit être très vite équivalente à la manipulation d’une tasse », explique Amélie Cordier, directrice scientifique d’Hoomanoo, entreprise développant des robots sociaux.

La belle affaire, que de savoir se saisir d’une tasse quand on sait se saisir d’un verre ? Pour un adulte, assurément. Mais observez un enfant entre 1 an et 2 ans s’essayer à ce petit exploit domestique. Et songez à ce que pourrait accomplir une machine aussi douée qu’un enfant de trois ans. L’IA entre dans l’enfance. Il sera bientôt temps de décider de quelle éducation nous voulons lui donner.

Références

  • J. Tanenbaum et al., Building Machines That Learn and Think Like People, AAMAS ’18 Proceedings of the 17th International Conference on Autonomous Agents and MultiAgent Systems , 2018
  • T. Miconi et al., Differentiable plasticity: training plastic neural networks with backpropagation, Proceedings of the35thInternational Conference on Machine Learning, Stockholm, 2018
  • Stanislas Dehaene, « Apprendre ! Les talents du cerveau, le défi des machines », Odile Jacob, 2018
  • A. Lerer et al., Learning physical intuition of block towers by example, arxiv.org, 2016

La vérité, c’est compliqué

La vérité, c’est compliqué

Faire confiance à ce qu’on lit. Croire ses pairs. S’en remettre à ceux qui savent – ou qui disent des choses si compliquées que ce serait bien le diable qu’ils ne soient pas des puits de science. Ne pas se fier à d’autres sources que celles qui ne nous ont jamais trahis jusqu’ici.

Et sentir cependant les doutes s’accumuler, les convictions se fissurer, la claire vision que l’on croyait avoir du monde et de l’avenir se brouiller.

Au moment où la production industrielle des fake news se déverse à haut débit sur les réseaux, à peine déviée par la pourtant florissante filière du debunking; au moment où les crises écologiques et sociales et l’accélération technologique remettent en question bien des schémas, le statut de la vérité – des vérités – tremble sur ses bases. Que croire ? Qui croire ? Comment ?

Actualité brûlante, questions anciennes

Ces questions nous semblent briller de l’éclat du neuf, flamboyer sous les feux de l’urgence. Elles sont en réalité fort anciennes. Et nombreuses sont les sources susceptibles d’y apporter réponse.

C’est l’histoire et la profondeur de ce questionnement qu’explore en détail le dossier du dernier numéro des Cahiers de Science & Vie, dont j’ai eu le privilège d’assurer la rédaction en chef. Il est à découvrir ici https://www.kiosquemag.com/abonnement/les-cahiers-de-science-vie.

Cahiers de Science & Vie n°183

Et pour vous en donner le ton, en voici l’édito:

Il y a ceux qui ne croient que ce qu’ils voient. Ceux qui ne jurent que par les preuves chiffrées. Ceux qui disent qu’ils l’ont lu sur Internet. Ceux qui l’ont lu dans le journal. Vu à la télévision. Ceux qui n’écoutent personne puisque tout le monde ment. Ceux qui s’en remettent à leur femme, leur voisin, la franchise des enfants, la colère des autres ou leur maître de yoga. Les humains ne sont pas d’accord sur la méthode pour trouver la vérité, mais ils cherchent tous, un jour ou l’autre, à mettre la main dessus.

Sauf que la vérité a tout d’une anguille insaisissable.

Le jeu en vaut néanmoins la chandelle : est-il vrai que ce fruit peut nourrir la tribu ? Voilà une question cruciale pour l’éclaireur du Néolithique à qui le membre d’un clan inconnu offre une grappe de baies encore jamais rencontrées. Comment savoir ?

Au fil du développement humain, la capacité de l’homme à discerner le vrai du faux, à mettre à l’épreuve ses convictions, à s’assurer de sa capacité à engager sa parole, s’est structurée, raffinée. Philosophies, religions, sciences ont, chacune, creusé leur sillon. Des critères pour s’accorder sur ce qui peut être reconnu comme vrai se sont répandus, diffusés, à des échelles toujours plus grandes, contribuant à fédérer les hommes et les femmes.

Mais le langage est truffé de pièges, les religions se prêtent à des interprétations insondables, et la science bute, plus souvent qu’on veut bien le croire, sur des mystères ou des contradictions insolubles. Si bien que l’anguille glissante semble, parfois, rester éternellement hors d’atteinte. La quête – l’enquête, devrait-on dire – est difficile et le découragement rapide.

Voilà un terrain fertile pour ceux que la vérité indiffère, ceux qui lui tournent le dos. Les producteurs de « fake news » – aux intérêts aussi variés que contradictoires – en font partie. La fascinante adéquation entre la dynamique des réseaux numériques et le privilège accordé par nos facultés mentales, héritage de notre évolution, à tout énoncé venant d’un groupe familier, leur confère une puissance redoutable. Et peut-être même la capacité de défaire la trame de la confiance, indispensable aux affaires humaines, que d’inlassables chasseurs d’anguilles ont patiemment tissée au fil des siècles.


[Chronique] – E-santé: prendre soin ou prendre garde ?

[Chronique] – E-santé: prendre soin ou prendre garde ?

Les yeux qui piquent ? Marre des écrans ? Vous pouvez écouter cette chronique.

Sinon, bonne lecture !

**

Connectés. Nous sommes tous connectés. A nos amis, à nos collègues, à nos familles, au grand déversoir des réseaux, fake et true news.
Face à nos écrans et les doigts sur nos claviers mobiles, nous ne perdons pas une miette du monde que nous habitons.

Nous savons tout de ce que la vie moderne nous fait. Mais la puissance numérique nous étourdit. L’accès permanent au plus proche autant qu’au plus lointain, cet ouvroir incessant des possibles, nous impose une radicale discipline de soi. Qu’ai-je vraiment besoin de savoir ? Qu’est-ce qui est bon pour moi ? Qu’est-ce qui est bon pour tous ? J’ai allumé mon smartphone, mais au fait, quelle question étais-je en train de me poser ?

Recentrage cognitif

Sans surprise, de très vieilles techniques de recentrage cognitif se sont faites à nouveau indispensables ,pour nous permettre de ne pas nous faire emporter par la grande trépidation numérique. La méditation de pleine conscience, les mille et une variantes du yoga, s’installent sur les tapis de nos salons, gagnent les moquettes de nos bureaux climatisés.

Mais c’est oublier que la grande trépidation numérique (aussi connue sous le nom de transformation digitale), elle aussi, se sent à l’aise dans ces espaces de repli intime.

J’en veux pour preuve suffisante que déjà fleurissent les casques de neurofeedback, dont les électrodes et les algorithmes, nous promettent de sympathiques startupers, vont nous aider à mieux méditer, mieux nous recentrer. En un mot : mieux réussir cette entreprise redoutable qu’est la discipline de soi. Alors même que celle-ci a pour premier critère de réussite, justement, l’autonomie, l’abstraction au moins temporaire aux injonctions du quotidien.

Réflexions oiseuses, me direz-vous. Critique en chambre, luddisme à bas bruit, de qui n’a pas assimilé le mariage heureux de la bonne vie et de l’orthèse numérique.

Parole de cobaye

Eh bien non. Regard critique, oui, sans doute. Mais de celui qui a offert 15 jours à l’hypothèse que la technologie numérique puisse l’aider à mieux se sentir, à prendre soin – non pas de son esprit, ce sera peut-être pour plus tard – mais au moins de son corps.

Tout a commencé quand, un beau jour de printemps, j’ai dit oui à une équipe de recherche parisienneJe m’étais signalé comme volontaire,  quelques semaines auparavant, pour une expérience sur les objets connectés. Nous avons rapidement convenu d’un rendez-vous. Lors de ce rendez-vous, une très dynamique chercheuse m’a indiqué comment porter, pendant deux semaines, donc, une ceinture connectée, une montre connectée, et un tensiomètre électronique.

Ceinture connectée, gyromètre/accéléromètre/magnétomètre connecté, tensiomètre connecté

Dûment équipé, j’ai alors passé deux tests. J’ai d’abord joué à plusieurs jeux informatiques, mêlant dextérité et concentration, dont les scores étaient d’autant plus élevés que j’étais précis et rapide. Un test de réaction physiologique au stress, donc. Je me suis ensuite presque endormi, lors d’une séance de méditation. Ce test ci permettait de connaître mes paramètres cardiovasculaires au repos et détendu. J’ai, aussi, rempli des questionnaires détaillés sur mes habitudes sportives, sociales, alimentaires…

L’équipe de chercheurs pour qui j’ai ainsi joué les cobayes espère découvrir les indicateurs susceptibles d’aider les bien-portants à mieux se protéger de pathologies cardiovasculaires, et les malades chroniques à mieux éviter complications et autres crises.

Elle compte pour cela sur l’analyse en temps réel des 45 paramètres envoyés à chaque instant par les capteurs connectés. L’idée étant de pouvoir suggérer à tout instant aux porteurs des capteurs de poursuivre ou modérer un effort. L’idée étant aussi de rendre leurs médecins plus pertinents.

Un goût de trépidation numérique

Voilà de bien louables intentions. Mais, pour en avoir fait la tout à fait concrète expérience, je leur trouve un petit goût de…trépidation numérique.

Car, cobaye que j’étais, je n’ai pu m’empêcher de prêter davantage attention à mon rythme cardiaque, à ma tension, que je ne le fais d’ordinaire (c’est à dire : pas du tout). Ce qui, du point de vue des chercheurs, est chose excellente : faire attention à soi est la première des médecines.

Oui, mais … Faire attention à ce qu’on ignorait jusqu’ici, c’est ajouter une ligne au tableau toujours plus long des choses que l’on s’impose de vouloir contrôler. C’est s’inquiéter d’indices auxquels on restait sourds, peut-être pour d’excellentes raisons. C’est se fixer par jeu, par curiosité, des objectifs : vais-je réussir à atténuer mon rythme cardiaque ? Ma tension sera-t-elle plus basse si je change ma routine de réveil ou de coucher ? Et, surtout, c’est confier le royaume intime de sa propre discipline à une technologie complexe, administrée par d’autres.

Besoin du numérique pour se sentir vivre ?

Bien sûr, les chercheurs sont conscients de cela. Lorsque j’ai rendu les différents capteurs, le stress qu’ils sont susceptibles d’induire faisait partie du dernier questionnaire qu’il m’a alors été demandé de remplir.

Je n’ai cependant pas pu m’empêcher de demander à la chercheuse à qui j’ai remis ce questionnaire si, finalement, l’idéal n’était pas de porter un temps ses précieux capteurs, pour prendre l’habitude d’écouter son corps, et pouvoir ensuite le faire sans équipement high tech. Elle a semblé trouver l’idée intéressante.

J’ai quitté les lieux et, en marchant, j’ai finalement trouvé cette idée assez peu pertinente. A-t-on vraiment besoin du numérique pour se sentir vivre ?

Choses vues – Vivatech 2018: IA partout, IA nulle part ?

Choses vues – Vivatech 2018: IA partout, IA nulle part ?

Le « CES a la Française » fermera ses portes ce soir.

La 3e edition de Vivatech, grand barnum de l’innovation, buffet à volonté de buzz et de tech, organisé par Publicis et Les Echos, était hier et avant hier réservée aux professionnels. Les portes sont ouvertes aujourd’hui au grand public. Soit, deux tiers de business confidentiel, pour un tiers d’éducation des masses aux merveilles de la technologie ?

Mythologie technologique

Plus ou moins. En réalité la mythologie technologique et les effets de mode planent autant sur les costumes-cravates que sur les geeks en goguette.

Vivatech 24 mai 2018

Ainsi les robots sont-ils de la partie, du jour 1 au jour 3. Mais les plus visibles sont les plus « bêtes » : des androïdes aux coques de plastique peu flatteuses, peu mobiles, aux fonctions limitées, et qui ne font plus illusion dans ce genre de salon: le fantasme C-3PO persiste mais le réel n’atteint pas même ce vieux compagnon Hollywood. Ce sont pourtant des entreprises sérieuses qui les construisent ou, surtout, les utilisent pour communiquer sur ce genre de salons.

Les drones qui volent, pour leur part, sont des cousins fort proches de ceux que votre petit neveu aura pour cadeau à Noël. Ils sont là, ils sont sérieux, ils ont un modèle économique, ils font déjà partie du paysage industriel. Ceux qui ne volent pas sont, eux, des paris parfaitement incertains sur les réels besoins des « urbanites »: des voitures volantes, version autonome et quadrirotors. On en rêve tous, c’est évident. Non ? Mais une place de choix leur est faite, et des entreprises réputées sérieuses s’obstinent à en faire des hits de leur booth.

Voiture volante, version 2018.

Et puis il y a l’intelligence artificielle.

C’est simple: elle est partout. Tout projet, tout pitch de startup, toute démo ou « case » se doit d’être smart, au minimum,  ou fondé sur le meilleur des algorithmes de deep learning, pour les plus pointus.

Sauf que quand la SNCF, par exemple, s’enorgueillit d’être entrée dans l’ère des gares intelligentes parce qu’elle équipe les escalators de capteurs qui se limitent à envoyer l’information « marche » ou « arrêt  » à un système cartographique, on ne voit pas bien pourquoi cette intelligence n’est pas d’actualité depuis 1972. Et l’on a bien souvent l’impression que l’IA n’est guere plus qu’une incantation.

Et surtout, pour celles des des startups et multinationales qui développent véritablement des systèmes informatiques méritant le nom d’IA (donc capables d’évoluer au fur et à mesure qu’ils extraient des modèles inédits de grands jeu de données et que ces modèles apportent une information utilisable et répondant à un problème que l’humain ne pouvait résoudre en un temps raisonnable), pour celles des entreprises qui font vraiment de l’IA, donc… les visées sont à des années lumières des grands espoirs qu’Hollywood dès les années 1960 et les chercheurs qui inventèrent le champ dans les années 1950 associèrent à l’IA.

Ce que les entreprises demandent à l’IA ? Ne pas rendre l’homme plus curieux, plus prudent, plus intelligent. Ne pas lui donner les moyens de s’élever. Mais, d’abord, accélérer les échanges, simplifier les tâches, réduire le nombre d’humains pour accomplir une tâche donnée.  L’IA qui intéresse le business, c’est l’IA qui rend plus riche, au seul sens économique du terme. Voilà qui pourrait ne pas faire rêver tout le monde. Et qui affuble d’intelligence la moindre martingale commerciale faisant plus de 10 lignes de code.

En pratique, le meilleur de l’IA aujourd’hui (et c’est authentiquement remarquable) bat l’homme à des jeux difficiles (échec, go), perçoit parfois mieux que lui (images, son, texte), mais reste très limité dans sa capacité à prédire et planifier. Et ne comprend goutte.

Prédire ce qui va suivre dans une vidéo. Les IA doivent encore s’entraîner…

Les chercheurs de Facebook (programme FAIR) et de l’ENS Paris, par exemple, tentent laborieusement de faire découvrir à leurs systèmes ce que des enfants de quelques mois reconnaissent naturellement (le fait notamment qu’un objet dissimulé par un autre continue d’exister). C’est un des thésards de FAIR qui l’a très intelligemment dit. En rappelant qu’il se contentait de faire de la recherche fondamentale, comme conscient de l’incongruité de cette démarche en ces lieux. Et c’était à Vivatech aussi.

Green content: pour une écologie de l’attention

Green content: pour une écologie de l’attention

Chaque seconde, quand nous sommes face à un écran, la question se pose: comment utiliser notre attention ? Où la diriger ?

Dois-je lire ce titre, ce résumé, ce commentaire ? Dois-je ouvrir cet onglet pour le consulter un peu plus tard ? Sauvegarder ce lien, pour y revenir dans quelques jours ?

Nous ne sommes pas tous des maîtres Zen

Les professionnels de l’information et de la communication, d’expérience ou parce qu’ils y ont été formés, savent comment faire bon usage de leur attention. C’est-à-dire, à la fois trouver rapidement l’information dont ils ont besoin, identifier des informations qui pourraient leur être utiles ultérieurement, et en apprécier la pertinence et la qualité. Et, pour les plus aguerris, ménager encore une petite place à la sérendipité — de quoi s’émerveiller, rêver, nourrir leur imagination.

Difficile de méditer entre deux notifications

Difficile de méditer entre deux notifications

Mais les professionnels eux-mêmes le reconnaissent. Sources toujours plus nombreuses, notifications toujours plus élaborées… La discipline de l’attention s’apparente de plus en plus à l’art cultivé par les maîtres Zen dans le domaine de la méditation. Celui qui repose sur l’aptitude à porter attention à sa propre attention en train de fluctuer. Exercice ô combien délicat.

Sauf que les individus aux prises avec leurs écrans ne sont pas, sauf exception, des maîtres Zen. Leur aptitude tout ordinaire à dompter leur attention les expose donc à ce que celle-ci se laisse diriger par des dispositifs qui visent, d’abord, à captiver.

Captiver ? Telle serait la mission première des contenus d’aujourd’hui, avant celles d’informer ou d’être le substrat d’une communication efficace. Des contenus hyper-appétitifs, s’adressant davantage à l’émotion qu’à la raison, jouant l’outrance contre l’explication … et des algorithmes qui en programment l’affichage — contexte, tempo — de manière à donner envie, dans un délai court, d’accorder à nouveau son attention à d’autres contenus pareillement attractifs: nos écrans se résument souvent à des dispositifs non seulement de captivation mais, osons le mot, d’addiction.

Sommes nous faits pour ce monde ?

Et pour cause: envisager l’attention comme une ressource à canaliser à la manière dont un revendeur de drogue canalise les revenus de consommateurs dépendants, c’est-à-dire en lui offrant les contenus les plus immédiatement satisfaisants, est une stratégie particulièrement efficace. En témoigne la bonne santé des plateformes produisant les contenus les plus addictifs — Buzzfeed en étant l’étalon.

Comme l’écrit le neuroscientifique P.-Y. Oudeyer dans une étude récente sur les liens entre motivation, curiosité et apprentissage, “le cerveau répond à la nouveauté d’une manière ressemblant fortement à celle avec laquelle il répond à la drogue”.

Buzzfeed, ou l’information vue comme une drogue — DR

Un héritage de l’évolution, qui a fait du cerveau humain une machine à détecter la nouveauté. Un bienfait quand, il y a 40 000 ans, Sapiens devait réagir promptement à tout signe de changement dans son environnement, pour échapper à ses prédateurs.

Mais à présent que nous ne craignons plus ni griffes ni crocs, notre hyper sensibilité à l’information semble nous handicaper. Entre infobesity et fear of missing out, deux destinées réservées à notre attention par des dealers de contenus addictifs, … sommes nous encore faits pour notre monde ?

Certains entendent cette question au premier degré.

Soit qu’il s’agisse de rapprocher les aptitudes de l’humain des exigences de son environnement informationnel. Le mouvement transhumaniste prend ainsi très au sérieux la possibilité d’augmenter artificiellement les capacités cognitives humaines.

Soit, au contraire, qu’il s’agisse de retourner, fût-ce temporairement, à un environnement débarrassé des sollicitations médiatiques, comme en témoigne la vogue “Digital Detox”.

Entre ces deux options radicales, reste l’adaptation. C’est-à-dire, pour ceux qui veulent s’adresser à l’intelligence de leurs audiences et se refusent à transformer leurs messages en mèmes aussi creux que contagieux, la recherche de relations nouvelles, entre notre cerveau hyper-attentif et un environnement hyper-saillant.

Parasitisme, commensalisme, symbiose

Parmi les adaptations possibles à un environnement saturé d’information, le parasitisme a vite imposé son efficacité. Une caractéristique des algorithmes des réseaux sociaux, ceux-là même qui véhiculent les contenus les plus appétitifs, consiste à accorder un privilège aux contenus qui auront, déjà, conquis l’attention.

Exemple: un utilisateur de Facebook accorde un “like”à un quizz publié par Buzzfeed, et la probabilité qu’apparaissent prochainement sur son compte des quizz publiés par Buzzfeed augmente.

Si bien que pour un producteur de contenus désireux que ses messages — peut-être authentiquement passionnants, mais moins appétitifs — s’affichent sur le profil d’un utilisateur de réseaux sociaux, il peut être utile de parasiter le flux produit par une plateforme de contenus addictifs.

Difficile d’accéder à la lumière ? Le gui s’en remet au chêne. Les médias sérieux aux flux à forte audience, où leurs contenus sont “sponsorisés”

Un parasite (le producteur de contenu) paie un organisme plus adapté que lui (la plateforme de contenus addictifs) pour avoir le droit de le parasiter et accéder ainsi à une ressource autrement inaccessible.

La mécanique est la même, quoique plus directe, avec les moteurs de recherche: les contenus parasites s’invitent, en payant le moteur de recherche, dans les résultats du moteur de recherche. Voilà les contenus sponsorisés.

Autre adaptation courante des producteurs de contenus à l’environnement saturé que sont les écrans: le commensalisme. Là où le parasitisme prend le risque de nuire à son hôte (trop de contenus sponsorisés, et voici que l’audience se désintéresse du flux à l’évidence… parasité) pour accéder à une ressource limitée (l’attention), le commensalisme joue la carte de la convergence d’intérêt: chaque organisme profite de l’aide de l’autre pour accéder à la même ressource.

La relation entre les contenus optimisés pour la découverte par les moteurs de recherche (SEO) et les moteurs de recherche eux-mêmes est une relation de commensaux. A l’exception de quelques URLs parfaitement connues des utilisateurs qui les consultent régulièrement, ou d’une poignée de bookmarks soigneusement rangés, pas de salut pour les contenus qu’un moteur de recherche ne permettrait pas de découvrir. Pas de salut non plus pour un moteur qui n’aurait pas de contenus à proposer aux utilisateurs qui font appel à lui pour orienter leur attention. Si bien qu’au-delà même du commensalisme, c’est parfois une symbiose qui lie contenus et moteurs, dès lors que la survie de l’un conditionne celle de l’autre.

Ce sont nos curiosités, nos intuitions, nos sélections avisées, nos savoirs particuliers, nos expériences réfléchies qui nourrissent d’une puissance d’intellection commune ce condensateur vide par lui-même qu’est l’algorithme PageRank — Yves Citton, “Pour une écologie de l’attention”

Parasitisme, commensalisme,symbiose… Si ces analogies empruntées à l’écologie éclairent la manière dont les contenus réussissent à se frayer un chemin jusqu’à leur niche écologique — le cerveau humain — , elles n’en reflètent jamais qu’une solution très primitivement darwinienne de l’accès à l’attention. Ces modes d’adaptation ne consistent jamais qu’à accéder par des moyens sans cesse renouvelés à la même ressource: l’attention.

Voilà qui n’est pas sans poser problème. Car, convergence évolutive oblige, quel producteur de contenus (de ceux du moins qui ne sont pas particulièrement addictifs) n’évoluerait pas vers le parasitisme des plateformes à forte audience ou le commensalisme avec les moteurs ? De fait, l’écosystème médiatique est aujourd’hui, en grande partie, animé par ces deux solutions adaptatives. Et la course aux armements fait rage.

Gagne la bataille de l’attention celui qui a la meilleure technique de parasitisme, les meilleurs intérêts partagés avec les moteurs. Les espèces luttant pour la même ressource accumulent les mutations (le code source et les API des plateformes dominantes évoluent, de nouvelles plateformes apparaissent) pour mieux l’atteindre. Mais l’écosystème bute sur la même limite: cette ressource est finie. Le temps d’éveil quotidien de Sapiens, partout dans le monde, tourne autour d’une quinzaine d’heure.

L’attention comme bien commun

L’écologie offre heureusement, à côté de la compétition pour la survie, de belles leçons de coopération. Surtout, la compétition entre espèces n’implique pas nécessairement d’accaparer une ressource. Une adaptation évolutive gagnante peut, aussi, consister pour une espèce à préserver ses ressources vitales .

Biens communs: l’attention comme les bancs de poisson

L’attention pourrait-elle être envisagée, alors, moins comme une ressource motivant une compétition féroce que comme un bien commun à préserver ?Telle est la conviction du philosophe américain Matthew B. Crawford, qui la défend brillamment dans son dernier livre, Contact — Pourquoi nous avons perdu le monde, et comment le retrouver. L’enjeu, pour ce penseur contemporain, enseignant-chercheur à l’université de Virginie et mécanicien professionnel, est bel et bien écologique, puisqu’à ses yeux envisager l’attention comme un bien commun est une condition nécessaire pour garantir une authentique capacité à vivre ensemble.

Il me semble qu’on peut concevoir [l’attention] comme un principe purement négatif, par analogie avec le “principe de précaution” invoqué par les écologistes. Se préoccuper de l’attention comme ressource collective, ce n’est pas tant chercher à la promouvoir qu’essayer d’éviter son épuisement: être conscient du caractère précieux de cette absence qui dégage simultanément un espace pour la rêverie individuelle et pour le surgissement spontané au sein de l’environnement urbain de ces épisodes d’attention conjointe qui sont autant de promesses de véritable contact humain.

En conséquence, Matthew B. Craword appelle les producteurs de contenus à prendre des mesures simples. “S’il vous-plaît, évitez de mettre des hauts-parleurs dans tous les recoins des centres commerciaux. Eteignez les écrans à l’arrière des sièges de taxis”, demande-t-il par exemple.

Un message que les architectes de l’information commencent -enfin ?- à mettre en pratique. Fer de lance de cette invitation à préserver la ressource attentionnelle, le mouvement “Time well spent”. Son co-fondateur, Tristan Harris — ancien “philosophe produit” chez Google — en résume la philosophie d’un souhait:

Il faudrait que les développeurs d’applications aient l’équivalent d’un serment d’Hippocrate, pour qu’ils cessent d’exploiter les faiblesses psychologiques des gens.

En pratique, “Time well spent” propose des recommandations aux utilisateurs, des conseils aux développeurs, et envisage rien moins qu’une refondation complète des médias. Laquelle n’en est, reconnaissons-le, qu’au stade du questionnement: “si un lecteur vidéo devait proposer autre chose que de regarder passivement, que serait-il ?”; “Faut-il instaurer des standards de qualité et d’exigence pour la façon dont sont rédigés les articles et les titres des journaux ?”; “Quel modèle économique pourrait récompenser les producteurs d’informations fiables et vraies ?”

La promesse de Time Well Spent — DR

Pareilles questions, certes essentielles pour qui cherche à ne mobiliser l’attention qu’avec parcimonie, et même si elles imposent leur urgence à l’ère de la sur-sollicitation attentionnelle, n’en sont-elle pas moins de vieilles questions ? Celles que se posent depuis des décennies les professionnels de l’information et de la communication ?

Reconnaissons-le aussi : elle est aussi vieille que l’écriture, cette lutte contre le penchant qu’ont l’information et la communication à dévorer l’attention qui les fait vivre. Seulement, son issue n’a jamais été aussi déterminante pour la capacité des hommes à comprendre leur monde et à se comprendre.

Mais peut-on, encore, espérer mieux que l’équivalent de la désertification de l’île de Pâques pour l’écologie de l’attention ?

N’est-il pas trop tard, à l’heure où les programmes (les “bots”) sont plus nombreux que les humains à échanger de l’information sur Internet ?

N’est-il pas trop tard, alors que le temps d’attention moyen, lorsque quelqu’un “surfe” sur Internet, n’atteint même pas 10 secondes ?

Heureusement, non, il n’est pas trop tard. Car l’attention comme bien commun a une particularité: il suffit de l’épargner pour qu’elle se régénère, quasiment instantanément. L’inertie attentionnelle — cette difficulté à porter son attention sur autre chose que ce à quoi on vient de l’accorder — existe, assurément. Mais, au contraire d’un sol définitivement épuisé, lessivé, une pénurie d’attention n’est jamais que transitoire.

L’enjeu de l’attention comme bien commun se résume donc, en fait, à une seule question : comment solliciter l’attention raisonnablement ?

Une définition de la pertinence pour la vie de tous les jours

Qu’est-ce qu’un usage durable de l’attention ? La vraie réponse est dans l’oeil de celui qui offre son attention.

Je peux estimer faire bon usage de mon attention en la consacrant à de très nombreux fragments d’information, aux sujets variés, me rendant compte de la marche du monde. Je peux tout aussi bien juger que mon investissement attentionnel est raisonnable s’il se concentre exclusivement, des jours durant, sur la lecture de la correspondance d’un philosophe méconnu. Cela dépend de qui répond. Et pour un même individu cela peut varier d’un jour à l’autre, d’une heure à l’autre.

Serait-il possible, malgré l’infinie variété des usages raisonnables de l’attention, de définir ce qui aurait toute chance de faire bon usage de l’attention de la plupart des individus ?

Le chercheur en sciences cognitives Jean-Louis Dessalles, professeur à Télécom ParisTech, spécialiste de l’intelligence artificielle, a, au fil de ses recherches, apporté une réponse scientifique à cette question. Sa théorie de la simplicité, en effet, donne les outils conceptuels et formels — mathématiques, même- pour modéliser l’intérêt narratif. Dit autrement, cette théorie propose un cadre analytique permettant de définir et mesurer la pertinence pour la vie de tous les jours.

 

Que nous dit cette théorie ?

Elle pose, d’abord, que l’information est un sentiment subjectif d’improbabilité, et que ce sentiment signe la pertinence. Une situation informative, explique J.-L. Dessalles, est une situation difficile à engendrer — il est a priori peu probable qu’elle se présente — , mais simple à décrire — au sens où, une fois qu’elle a eu lieu, elle peut être rapportée très facilement.

Or, comme la complexité peut s’entendre comme la plus petite description possible d’une situation, est pertinent ce qui contribue à réduire la complexité du monde.

Cette conception de la pertinence intéresse le monde de la recherche en sciences cognitives, et plus particulièrement le champ de l’intelligence artificielle, car elle offre des outils formels pour prédire le degré de pertinence d’une information. Gageons que les algorithmes des IA sauront en faire bon usage. En attendant notons, pour preuve de sa solidité, qu’elle rend rigoureusement compte des règles empiriques guidant le choix des sujets pertinents chez les professionnels des médias: relèvent de l’information les faits comportant des structures statistiques rares, bénéficiant d’une proximité géographique ou affective, atypiques, indiquant un écart à la norme, faisant référence à des lieux ou des personnes célèbres… Les plus attentifs auront reconnu ici les ingrédients principaux composants les titres des contenus addictifs produits par les plateformes “à la Buzzfeed”.

La théorie de la simplicité, voie royale vers l’automatisation du clickbait ? Et donc contemptrice au carré de l’écologie de l’attention qu’elle semblait, pourtant, pouvoir défendre ?

Oui, si l’objet se limite à appâter (bait) l’attention.

Absolument pas, si l’ambition est de conserver cette attention et, même, de se la voir accorder à nouveau. Car alors la promesse de pertinence doit dépasser le titre, s’étendre au contenu lui-même. Et l’exercice est autrement plus délicat.

La pertinence ne peut en effet se passer d’une authentique intelligence de celui qui produit l’information. Faire simple, réduire la complexité du monde, au-delà d’un titre appétitif, c’est mobiliser ce que l’esprit humain a de plus précieux: l’alliance des pensées analogique et analytique. La créativité — verbale et visuelle — , l’expertise (couvrant un ou plusieurs champs) et la logique. Cela nécessite temps et talent : il faut lire beaucoup pour comprendre peu.

Mais n’est-ce pas là une contrainte heureuse ? Voilà qu’au final, se soucier de l’attention d’autrui, la considérer comme une ressource à préserver, tend à ne pouvoir lui proposer — qualité oblige — qu’une quantité limité d’information.

Eloge de la parcimonie: retrouver le réel

L’écologie de l’attention est ainsi, d’abord, une écologie de la retenue. Elle est aussi une marque de respect de l’intelligence d’autrui. Elle est enfin une ouverture à la conversation.

Car, ainsi que le souligne Matthew B. Crawford dans Contact — Pourquoi nous avons perdu le monde, et comment le retrouver, la meilleure garantie de ne pas être victime d’un procédé de captation de l’attention, le moyen le plus sûr d’échapper à toute forme de clickbait que la sphère informationnelle peut inventer et, en même temps, d’interagir intelligemment avec monde, est le fait de se trouver en situation d’attention conjointe. Autrement dit: assister avec d’autres individus, physiquement, en même temps, au même événement. Une conférence, un concert. Mais tout aussi bien quoique fugacement, le fait de croiser quelqu’un dans la rue en partageant un regard. A condition de ne pas être en train de regarder l’écran de son smartphone.

Ce retour au réel comme chemin vers le respect d’une véritable écologie de l’attention est en cours. Le succès des conférences TED en témoigne, assurément. Les débuts prometteurs de journaux livrés en direct sur les planches d’une scène de théâtre semblent aller dans la même direction. Et parions que l’art du conte comme le talent pour la conversation ont de bonnes chances de traverser les écrans pour prendre une place de chair et d’os dans l’écosystème médiatique.

Être intéressant ou se taire, ou aller partager, à voix haute, l’expérience du monde: telle pourrait être l’ambition à avoir en tête pour produire un “green content”, soucieux de mettre en pratique l’écologie de l’attention.