Le passé, le présent et l’avenir de l’IA

9 min read
Artwork by Adamastor

L’autre jour, je suis tombé sur un article de la MIT Technology Review dans lequel, après avoir analysé 16 625 articles sur l’avenir de l’intelligence artificielle, les auteurs prédisaient la fin de l’ère de l’apprentissage profond. L’IA fait partie de mon quotidien (une partie de la description de mon poste), mais après avoir lu cela, j’ai vraiment pris le temps de réfléchir au sujet. Lorsque l’ère de l’apprentissage profond arrivera à sa fin, ce dont je ne doute pas une seconde, qu’est-ce qui viendra ensuite ?

Au cours des dernières années, nous avons assisté à d’énormes progrès technologiques dans le domaine de l’IA, en particulier dans les domaines du traitement du langage naturel, de la vision par ordinateur et de la robotique. Cela est dû principalement au succès de l’apprentissage automatique, la technologie qui permet aux machines d’apprendre à partir de données et d’améliorer leurs performances grâce à l’expérience.

Mais ces avancées nous rapprochent-elles de la reproduction de l’intelligence humaine ? Que nous apporteront les années à venir ? Et quels défis allons-nous relever ensuite ?

De Dartmouth à HAL 9000

L’ ordinateur HAL 9000 de « 2001 : l’odyssée de l’espace » d’Arthur C. Clarke et Stanley Kubrick est l’archétype de l’intelligence artificielle. Il est doté de compétences presque humaines, telles que la compréhension du langage, l’élaboration de stratégies pour atteindre un objectif, la collecte de données à partir de son environnement et la prise de décisions selon ces données. HAL 9000 a été conçu dans les années 1960 dans un climat d’optimisme suite à la conférence de Dartmouth sur l’intelligence artificielle. La conférence de 1956 a réuni Allen Newell, Herbert Simon, John McCarthy, Marvin Minsky et Ray Solomonoff, parmi beaucoup d’autres, marquant le début de l’IA en tant que domaine de recherche scientifique.

Malgré l’optimisme initial, l’IA a connu des difficultés. Il était communément admis qu’il suffirait de quelques années pour développer des technologies capables de reconnaître les gens, de comprendre le langage humain et de traduire dans toutes les langues. Mais ces attentes ont finalement conduit à une période appelée « hiver de l’IA », au cours de laquelle la recherche a subi d’importantes restrictions budgétaires.

Quelques décennies plus tard, l’hiver de l’IA prenait fin et l’optimisme renaissait.

Intelligence artificielle : « la ruée vers l’or »

Aujourd’hui, nous utilisons de façon quotidienne des algorithmes d’intelligence artificielle. Par exemple, chaque fois que nous utilisons Internet pour effectuer des recherches, lorsque nous avons recours à un traducteur en ligne ou lorsque nous obtenons une recommandation de livre du site Web où nous avons l’habitude d’acheter des livres. Les opérations boursières sont effectuées par des algorithmes en quelques millisecondes. Les algorithmes de reconnaissance de formes sont de plus en plus populaires en analyse d’imagerie médicale. De grandes entreprises telles que Google, Facebook, Microsoft, Amazon et Uber développent des véhicules autonomes, des assistants numériques personnels, des systèmes de dialogue et des traducteurs automatiques, stockant d’énormes quantités de données et ayant recours à des techniques d’apprentissage automatiques. Nous assistons à une véritable « ruée vers l’or », avec notamment les États-Unis, la Chine, le Canada, la France et l’Europe qui ont réalisé d’importants investissements stratégiques dans l’IA pour accélérer les progrès.

L’une des caractéristiques les plus attractives de l’IA est la capacité de prendre des décisions complexes. Ce fut précisément l’objet d’étude des premiers travaux de Herbert Simon (prix Nobel d’économie en 1978), à qui nous devons le concept de rationalité limitée, dans lequel un processus de décision doit prendre en considération la limitation des informations disponibles, la limitation cognitive pour traiter lesdites informations et le délai pour la prise de décision. Nous observons actuellement des succès dans ce domaine dans des environnements contrôlés, tels que les jeux avec des règles strictement définies. Le système AlphaGo, grâce aux techniques d’apprentissage par renforcement, bat les meilleurs joueurs humains de go ; un repère historique que nous ne prévoyions pas d’atteindre avant des décennies.

Un défi plus important consiste à quitter ces environnements simulés et à construire des machines capables de prendre des décisions « à l’état sauvage », sur la base d’observations qu’elles font du monde réel. Lorsque cela sera possible, au-delà de la robotique industrielle que nous connaissons déjà, nous disposerons d’un large éventail de professions pouvant être affectées à des machines : médecins, ingénieurs, juges et analystes financiers. On peut s’attendre à ce que cela se produise au cours des prochaines décennies.

Des assistants personnels omniscients

L’une des plus anciennes idées utopiques liées à l’IA est la traduction automatique : la capacité d’une machine à traduire entre n’importe quelle paire de langues, abattant toutes les barrières linguistiques et facilitant la communication entre humains. Ce domaine a connu une évolution notable au cours des dernières années, grâce aux techniques d’apprentissage profond telles que les réseaux de neurones artificiels. Même s’il n’est toujours pas possible de traduire automatiquement un livre avec le même niveau de compétence qu’un traducteur humain, de nombreux contenus traduits par des machines, comme des actualités ou des e-mails, présentent une qualité bien supérieure à celle d’il y a cinq ans.

Dans un avenir proche, nous pouvons nous attendre à des avancées dans le traitement du langage naturel (notamment la reconnaissance et la synthèse de la parole, les systèmes d’extraction d’informations sémantiques et de dialogue) : des gadgets capables de communiquer avec nous, de gérer nos plannings journaliers et de rechercher des informations en ligne. Ces gadgets sauront tout ce qu’il y a à savoir sur nos goûts et nos préférences et deviendront bientôt indispensables.

Des formes d’intelligence

Pour faire des pronostics sur un avenir plus lointain, nous devons penser à une vision plus large et moins anthropomorphique de « l’intelligence ». L’inspiration biologique est-elle la condition nécessaire pour créer une intelligence artificielle ? Globalement, nous avons tendance à envisager l’avenir de l’IA à la lumière de ce que nous savons de l’intelligence humaine, mais est-ce la seule forme possible d’« intelligence » ?

Jetons un coup d’œil sur l’aérodynamique : même si le vol des oiseaux a été la source d’inspiration pour créer des appareils volants, les avions ne battent pas des ailes comme les oiseaux. En suivant le même raisonnement, il pourrait être possible de construire des machines « intelligentes » sans essayer de reproduire les mécanismes du cerveau. Des types de « comportement intelligent » peuvent apparaître dans des systèmes multi-agents : confrontés à la nécessité de coopérer pour résoudre un problème, ces agents développent automatiquement des protocoles de communication pour échanger entre eux. Quelle langue parlent ces machines ? Qu’y a-t-il de commun entre ce langage artificiel et le langage humain ? Lequel émergera comme le plus favorable pour obtenir un comportement intelligent, un langage symbolique comme le nôtre ou des « représentations continues », inintelligibles à l’oreille humaine ? Est-il possible de servir d’intermédiaire entre ces représentations internes et le langage humain dans le but d’atteindre l’interprétabilité ?

Malheureusement, nous n’avons toujours pas de manuel qui pourrait nous aider à démêler les possibilités et les limites de l’IA, tout en nous fournissant des outils pour réaliser des progrès révolutionnaires.

En d’autres termes, l’IA vient de quitter sa période pré-historique pour entrer dans son « Antiquité » : une période marquée par des initiatives collectives extraordinaires, comme les grandes pyramides de Gizeh (vers 2500 av. J.C.),mais aussi par des techniques relativement rudimentaires. Les historiens estiment que les grandes pyramides ont été construites (frénétiquement) par environ 10 000 travailleurs répartis par rotations de trois mois sur une période de 30 ans. Le nombre de scientifiques et d’ingénieurs qui travaillent aujourd’hui dans l’IA dépasse très certainement ce nombre. L’effort de calcul, mesuré en téraflops, et l’énergie dissipée dans de gigantesques centres de traitement de données, rivalisent certainement avec l’énergie humaine fournie pour empiler les blocs de pierre des pyramides. Cependant, les techniques que nous utilisons aujourd’hui en IA semblent tout aussi rudimentaires.

Homme contre machine

L’IA impacte de plus en plus notre quotidien et ses bénéfices sont indéniables. Néanmoins, il reste des compétences clés que nous devons maîtriser pour débloquer certaines limitations des systèmes d’IA actuels. L’apprentissage non supervisé en fait partie, car c’est la seule façon pour un système d’apprendre sans supervision humaine. Non seulement cela, mais il est très difficile d’établir des pronostics dans un domaine où la technologie des temps anciens est encore en voie d’atteindre son plein potentiel. Il y a de fortes chances que se produise quelque chose de révolutionnaire qui nous oriente dans une toute nouvelle direction.

C’est la raison pour laquelle je ne crois pas que les machines vont devenir de sitôt « plus intelligentes que nous » ou que nous soyons même proches d’une communication aussi fluide que celle montrée par HAL 9000. Malgré les discours alarmistes de Stephen Hawking et Elon Musk, qui voient dans l’IA « la plus grave menace à la survie de l’espèce humaine », il ne semble pas plausible que les dangers les plus imminents de l’IA proviendront d’une super-intelligence. Au contraire, ils découleront de notre manque de préparation et de l’utilisation abusive que nous ferons de ces technologies si nous surestimons leurs capacités et si nous ne comprenons pas leurs défauts et leur subjectivité.

ArtboardFacebook iconInstagram iconLinkedIn iconUnbabel BlogTwitter iconYouTube icon