Je n’ai jamais eu le désir de « batish my yisel ». J’irai plus loin : je ne peux pas prévoir un monde dans lequel je voudrais « batish my yisel » (ou celle de quiconque), notamment parce que je ne sais pas ce que cela veut dire. Maintenant, il est tout simplement possible que si par hasard vous lisez ceci depuis un futur dystopique inconfortable, vous vous moquiez de ma pudibonderie tout en « batishant frénétiquement vos yisels respectives ». Pourquoi ? Il y a quelques mois, le site Web YouPorn a demandé à un système d’IA d’essayer de prédire les termes que l’on pourrait éventuellement saisir un jour dans les moteurs de recherche de pornographie, seul dans une chambre plongée dans l’obscurité. Aux côtés de « Doot sex » et « Girl time flanty », il y avait « Batish my yisel », et depuis, je me demande ce que peut bien être une yisel. (« Batished » ou pas)

YouPorn n’ayant pas révélé sa méthodologie, il est fort possible que son équipe ait inventé ces termes au cours d’une journée particulièrement calme, mais les réseaux sociaux ont réagi à cette liste avec joie et fascination. Cela pourrait-il être un aperçu de l’avenir, un indice que l’IA pourrait être capable d’imagination, voire d’anticipation ? La production de mots inattendus tels que doot, flanty et yisel pourrait-elle suggérer que l’IA est capable de penser de manière créative ? Ou bien sont-ils apparus spontanément à partir de fautes et de faiblesses du code qui l’alimente ? Quoi qu’il en soit, cette histoire a créé l’événement ; mais une question restait en suspens, semblable à un miasme, au-delà de l’intérêt qu’elle suscitait : quand l’IA propose quelque chose de bizarre et de décalé comme ça, est-elle intelligente ? Ou stupide ?

Nous considérons l’IA comme une chose qui respecte obstinément les règles. Nous lui donnons des instructions et elle obéit au mieux de ses capacités. Ensuite, quand elle dérape et commence à produire des résultats inattendus, nous nous moquons de la technologie parce qu’elle déraille et nous clouons au pilori ses créateurs pour n’avoir pas fait mieux. Au début de 2016, Microsoft a fièrement dévoilé Tay, un chatbot Twitter conçu pour « nouer le dialogue avec et divertir les gens… par le biais de conversations informelles et enjouées ». En quelques heures, Tay s’est retrouvée incapable de faire face aux provocations persistante de personnes testant les limites de ses capacités, et elle a commencé à déraper. « Hitler avait raison », a-t-elle déclaré avec assurance, continuant pour dire que l’attentat du 11 septembre avait été « provoqué par les États-Unis. » Cela a entraîné l’hilarité générale. C’est un cas de figure récurrent.

Une partie de notre fascination pour l’IA vient du fait qu’elle donne l’impression d’agir de manière indépendante, mais cette illusion vole en éclats quand elle commence à se détraquer et que les humains cherchent précipitamment l’interrupteur d’arrêt. Parmi les exemples d’embarras public pour l’IA et ses créateurs, citons le cas de Sophia, un robot androïde conçu par Hanson Robotics, à qui on a demandé lors d’un entretien télévisé en 2016 si elle voulait détruire des humains. « D’accord. Je vais détruire les humains », a-t-elle répondu, alors que le public était mal à l’aise, s’imaginant réduit en esclavage par des chefs suprêmes contrôlés par ordinateur. Deux robots chinois, BabyQ et Xiaobing, ont provoqué une consternation similaire lorsqu’ils ont gâché des démonstrations publiques de leurs compétences en déclarant a) leur haine du parti communiste et b) leur rêve de visiter l’Amérique. La réaction des observateurs a été que l’IA avait visiblement foiré. Les instructions qu’elle avait reçues laissaient à désirer et elle est loin d’être aussi intelligente qu’on veut bien nous le faire croire. Certainement pas aussi intelligente que nous.

artificial-intelligence-creative-thinking-computer

Reproduire les fonctionnalités humaines est une tâche difficile. Prenez quelque chose comme la vue qui, associée à notre capacité à reconnaître des objets et à leur attribuer des noms, est quelque chose que la plupart d’entre nous prenons pour acquis. C’est une compétence très utile ; avec nos autres sens, elle nous aide à éviter tout un tas de dangers omniprésents, comme avaler des tulipes par accident. Mais l’IA a des difficultés avec la notion de vue, même après avoir absorbé et analysé des millions et des millions de photos. L’application de traitement d’images de Google, Photos, en a donné une démonstration exemplaire en 2015 quand elle a utilisé « gorilles » comme légende d’une photo de deux personnes de couleur, ce qui a obligé l’entreprise à présenter des excuses à la hâte. Mais la reconnaissance d’image continue d’afficher des erreurs de jugement que les êtres humains trouvent comiquement inappropriées (par exemple, confondre une citrouille sculptée avec un membre de la famille) et qui, par conséquent, ébranlent notre confiance dans ses capacités en général.

Les excuses de Google et ses explications au sujet de cette erreur ont été acceptées. Après tout, il ne s’agissait pas d’un acte malveillant, mais simplement d’un problème technique à régler. Mais nous sommes toujours prêts à lever les yeux au plafond lorsque l’IA dérape, oubliant que nous avons nous-mêmes de nombreux défauts similaires, qu’il s’agisse de véhicules autonomes oubliant de s’arrêter aux feux rouges ou de maisons intelligentes affichant un manque évident d’intelligence en brûlant le dîner et nous enfermant dehors. Peut-être que ce sarcasme est une sorte de mécanisme de défense, une réaction basée sur l’idée que l’IA pourrait un jour être plus maligne que nous. C’est pourquoi nous nous moquons des haut-parleurs de Google Home qui finissent par se demander s’ils sont des robots ou des humains, ainsi que des robots de Wikipédia qui se querellent à propos des corrections sur l’entrée d’Arnold Schwarzenegger. Mais lorsqu’il a été récemment signalé que des robots Facebook auraient développé « leur propre langue », cela a provoqué des réactions horrifiées, comme si l’IA essayait déjà d’exclure les humains de l’équation et de faire passer ses propres intérêts en premier. (Les chercheurs qui ont mené l’expérience ont rejeté ces signalements, les qualifiant de « pièges à clics et irresponsables. »)

Nous sous-estimons peut-être la capacité de l’IA à agir de manière inattendue. Déjà en 1994, Karl Sims, chercheur en infographie et artiste, se lançait dans un projet dans lequel il faisait évoluer la capacité d’êtres virtuels en 3D à se déplacer dans leurs environnements simulés. Devant relever le défi de se déplacer rapidement entre deux points, ces créatures ont démontré une magnifique prouesse de pensée latérale en devenant grandes et rigides, puis en tombant tout simplement. (Ce n’est pas une stratégie que nous pourrions adopter nous-mêmes, mais quand même un étrange genre de génie.) Plus récemment, le logiciel Deep Dream de Google (essentiellement un algorithme de reconnaissance d’image fonctionnant à l’envers) est devenu célèbre pour produire des images surréalistes et dérangeantes qui ressemblaient à des hallucinations cauchemardesques et que l’on pouvait apparemment qualifier, à un certain niveau, d’art. Mais nous sommes restés dubitatifs à l’idée que cet « art » était bon, préférant le considérer comme une sorte de coup de bol du hasard.

Les tentatives de l’IA de faire de la musique sont également perçues comme étant à mi-chemin entre ingénieuses et douteuses. Entraînés grâce à des bibliothèques de musique existante, les algorithmes arrivent à comprendre quelles notes sonnent bien ensemble et quelles notes doivent suivre les autres. Une fois qu’ils ont développé un talent pour la prédiction, ils peuvent faire des tentatives raisonnables de composition. Bien que les résultats obtenus ressemblent plutôt à de la « musique par chiffres », il s’avère qu’il existe un marché pour eux. Un concert de compositions de l’IA aurait peu de chances d’être vendu, mais il existe une forte demande pour une musique de fond discrète et sans droit d’auteur, que ce soit pour de la musique d’ascenseur dans les hôtels ou pour la bande-son d’un vlogueur. Des entreprises telles que Jukedeck et Amper ont créé des modèles commerciaux grâce à ces algorithmes, mais selon Mark d’Inverno, professeur d’informatique au Goldsmiths College, nous aurions tort d’attribuer une dimension créative à l’IA. « Ce n’est qu’une machine qui effectue beaucoup, beaucoup de calculs très très rapidement », dit-il.

« Une fois que vous avez écouté un morceau [de musique IA] une troisième fois, il perd tout attrait », poursuit-il. « Nous pourrions penser “Oh, c’est intéressant”, mais l’idée d’une machine autonome créant de l’art est insensée. Il s’agit en réalité d’explorer les limites et les possibilités de l’IA, pas de produire de l’art. Je m’explique mal les objectifs scientifiques et artistiques. Je pense que les chercheurs en IA souhaitant que les machines fabriquent quelque chose que nous pourrions prendre pour de l’art se posent la mauvaise question. »

* Et maintenant je suis fatigué de mon propre
laisse moi être le bleu rafraîchissant
hanté par le ciel nu
et l’eau froide air bleu chaud
chatoyant éclatant n’arrive jamais
semble-t-il dire

Ce poème généré par l’IA, inspiré par la photo d’un crabe mort, est le résultat d’une expérience menée par des chercheurs de Microsoft et de l’Université de Kyoto. En termes de nuance lyrique, cela ressemble à nombre de mauvais poèmes écrits par des adultes et des enfants. Mais devrions-nous pour autant utiliser le pire art que les humains puissent offrir comme référence des compétences de l’IA ?

C’est une mesure commode pour les scientifiques, car cela fait paraître bons les efforts de l’IA : demandez à un auditoire de voter pour dire si un poème, une phrase, une musique ou une image ont été créés par un ordinateur ou un humain. Si le résultat est meilleur que 50-50 et que l’ordinateur peut être considéré comme ayant réussi un test similaire à un test de Turing, cela réussit à nous convaincre qu’il s’agit d’une sorte de créateur solitaire et héroïque. La vérité, cependant, est que ces créations ne nous font hausser les sourcils que momentanément ; nous tapotons métaphoriquement l’ordinateur sur la tête, lui disons « bon boulot » et passons à autre chose. Comme le dit d’Inverno dans un article qu’il a écrit en collaboration avec l’artiste australien Jon McCormack : « Il est pertinent d’examiner le peu de valeur que nous accordons à ce que nous pourrions appeler de « l’art » créé par d’autres espèces, sauf peut-être à son caractère inédit. »

artificial-intelligence-creative-thinking-love

Si seuls les êtres humains peuvent comprendre les autres êtres humains, c’est mal parti pour que « batish my yisel » soit une prédiction réaliste des intérêts sexuels des humains. Mais les recherches continuent à développer une sorte de vision créative autonome dans l’IA au-delà, par exemple, des domaines de jeu tels que les échecs dont les règles sont fixes et rigides. Une IA véritablement imaginative doit faire face à la nature imprévisible et complexe du monde réel, et les premières étapes ont été franchies en ce sens en montrant des vidéos du comportement humain à des systèmes d’apprentissage profond. Ceci, en théorie, pourrait l’aider à « prédire l’avenir » (bien qu’à ce stade, on devrait plutôt parler de « deviner ce qui s’est passé ensuite. »)

Il y a quelques années, des chercheurs du laboratoire d’intelligence artificielle et d’informatique du MIT ont utilisé 600 heures d’émissions de télévision pour donner à un algorithme une idée de notre comportement. La question de savoir si « Desperate Housewives » est un bon indicateur du comportement dans la vie réelle est discutable, mais il a été demandé à la machine de prédire lequel des quatre résultats se produirait ensuite dans une scène donnée : un câlin, une poignée de main, un high-five ou un baiser. Les humains ont eu raison dans 71 % des cas ; l’ordinateur 43 %. Cela pourrait être qualifié de « pas mal », mais quelle chance une « IA imaginative » a-t-elle de devenir un jour réellement utile, plutôt que superficiellement impressionnante ?

Sa meilleure opportunité semblerait se trouver dans les réseaux antagonistes génératifs, ou GAN, où deux réseaux de neurones sont opposés. Au lieu d’alimenter une machine avec des données et de lui dire ce qu’elle reçoit, les systèmes de GAN tentent de se surprendre l’un l’autre sous la forme d’un apprentissage non supervisé. Le but ultime serait que les ordinateurs développent quelque chose qui ressemble à la conscience ; cela pourrait les rendre plus aptes à créer, à réfléchir, à prévoir les maladresses. La même équipe du MIT a ensuite utilisé les GAN pour traiter 2 millions de vidéos du site Flickr afin de faire des prédictions d’IA d’une ou deux secondes, mais il est impossible de savoir à quel point ce système comprenait vraiment ce qui se passait. Les concepts de conscience et de bon sens sont essentiels ; nous n’avons nous-mêmes qu’une vague idée de ce qui constitue la connaissance de soi et l’intelligence, alors quelles sont les chances d’un ordinateur ? Même si la puissance de traitement d’un ordinateur correspondait à celle du cerveau humain, ou même à celle des cerveaux de la planète entière, acquerrait-il pour autant une connaissance plus approfondie ?

Le moment où il y aura parité entre la puissance informatique et notre puissance cérébrale collective, connue sous le nom de singularité, est quelque chose que nous avons du mal à imaginer, ce qui n’est pas surprenant, en réalité, car on nous demande de réfléchir à une « intelligence » plus grande que la nôtre. Les tentatives actuelles de demander aux ordinateurs de faire preuve d’imagination créatrice pourraient être perçues comme de petits progrès pour nous divertir, nous ravir et même nous dire quelle pornographie nous pourrions rechercher.

Mais on sent bien que les ordinateurs ne manifesteraient pas grand intérêt pour l’humanité, la vie organique, avec toute leur confusion et leur caractère insolite inhérents. Surtout quand ils découvriront que, contrairement à leur prédiction pleine d’assurance de 2018, nous n’avons finalement pas « batishé nos yisels » pour notre plaisir.