banner
Centre d'Information
Service après-vente fiable

L'intelligence artificielle fait rêver

Jan 31, 2024

L'IA affiche des capacités qui, jusqu'à récemment, étaient considérées comme fantastiques. Nous sommes au seuil de transformations dramatiques dans tous les domaines de la vie

Une énorme vague déferlante approche à grande vitesse, projetant une ombre immense sur le 21e siècle et sur l'avenir de l'humanité. C'est la vague de l'intelligence artificielle. Les développements dans le domaine de l'IA au cours de la dernière année ont stupéfié les experts. En peu de temps, la nouvelle technologie est devenue un sujet auquel le monde entier s'intéresse de manière intensive.

Un coup d'œil à quelques-uns des commentaires sur le sujet montre que c'est de l'histoire en devenir. Le PDG de Google, Sundar Pichai, a prédit que l'impact de l'IA sur l'humanité sera plus important que l'électricité, Internet et le feu réunis. Sam Altman, le responsable d'OpenAI, l'entreprise leader dans le domaine, propose de changer radicalement les systèmes économiques du monde afin de se déployer pour un monde de machines omnipotentes, dans lequel les humains ne pourront plus vivre du travail.

Le magnat de la technologie Elon Musk a déclaré que l'IA est plus dangereuse pour l'espèce humaine que les bombes nucléaires ; et l'historien israélien Yuval Noah Harari a prédit qu'à la suite de l'avènement de l'IA, "nous pourrions nous retrouver à vivre dans les rêves d'une intelligence extraterrestre". Nous parlons de rien de moins que de "la fin de l'histoire humaine", a-t-il ajouté.

Exagérations folles ? Peut-être. Cependant, les implications potentielles de l'IA sur l'humanité nous obligent à nous concentrer sur ce sujet, car il soulève des questions existentielles sur le but de l'humanité.

Nous sommes en équilibre à un moment rare. Un de ces moments où une technologie nouvelle et passionnante descend dans le monde et se répand rapidement. Nous ne savons pas encore quel effet aura l'IA, mais il y a de plus en plus de signes que son apparition pourrait bien être l'événement qui façonnera le siècle actuel.

Si vous êtes quelqu'un qui se tient au courant des développements dans le domaine de l'intelligence artificielle, vous avez peut-être eu l'impression au cours de l'année écoulée comme si la réalité était entrée dans un accélérateur de particules. Les choses changent d'heure en heure, et même ceux qui sont habitués aux développements rapides de l'industrie technologique ont du mal à suivre le rythme. Les gens dans le domaine disent que, alors que la loi de Moore prédit que les puces informatiques doubleront leur capacité tous les deux ans, l'IA décuple ses capacités chaque année.

Par exemple, dans l'année qui a suivi le lancement du générateur d'images text-to-art DALL.E2, son concurrent, le programme d'IA générative Midjourney, a publié cinq versions, chacune d'elles une amélioration impressionnante par rapport à son prédécesseur.

Le Rubicon a été franchi, bien sûr, avec l'apparition de ChatGPT, le chatbot articulé et je-sais-tout d'OpenAI. Quelques heures après son lancement, le 30 novembre dernier, les réseaux sociaux ont été inondés de captures d'écran de poèmes, d'histoires, de recettes, de plans d'affaires, de logiciels informatiques et de conseils sur la façon de vivre sa vie - le tout produit par le bot.

L'éventail des capacités du bot a abasourdi les internautes. En seulement cinq jours, ChatGPT avait accumulé 1 million d'utilisateurs. En comparaison, il a fallu deux mois et demi à Instagram pour atteindre ce chiffre, et Facebook n'y est parvenu qu'au bout de 10 mois. ChatGPT les a laissés dans la poussière. Deux mois après son lancement, il comptait déjà 100 millions d'utilisateurs, qui ont trouvé d'innombrables façons de l'utiliser : élaboration de programmes de nutrition et de remise en forme, rédaction d'articles universitaires et de notes juridiques, rédaction d'e-mails dans toutes les langues et participation à des brainstormings sur tous les sujets.

Le bot a alimenté d'innombrables prophéties sur la disparition prochaine du travail de professionnels tels que les avocats, les conseillers fiscaux, les spécialistes du marketing, les ingénieurs et les enseignants. Dans les cercles de haute technologie, les compétences de codage finement aiguisées du chatbot ont conduit à des prévisions selon lesquelles les jours des programmeurs sont également comptés et que les moyens de subsistance de nombreux autres dans le domaine de la technologie sont également menacés. Aucun champ cognitif ne semble imperméable à la capacité du bot, dont les capacités d'apprentissage et d'exécution rapides dépassent les capacités humaines.

Le résultat est qu'en peu de temps, les prédictions selon lesquelles les premiers à être licenciés par des robots seraient les travailleurs manuels, suivis par la classe des cols blancs, avec le travail créatif seulement en dernier, ont été renversées. Désormais, ce sont les cols blancs et les créatifs qui se trouvent en danger clair et présent, alors que les professions nécessitant un travail physique, comme les soins infirmiers et la construction, restent sûres pour le moment.

Les développements vertigineux ont pris même les experts par surprise. Depuis plus d'un demi-siècle, l'intelligence artificielle a subi une série d'échecs. Pour les chercheurs pionniers des années 1950, les progrès étaient lents et frustrants. Le tournant est cependant arrivé au cours des dernières années, lorsque les systèmes algorithmiques d'IA ont appris à identifier les personnes sur les images, à recommander des séries télévisées et à conduire des voitures. Une percée majeure s'est produite en 2017, avec l'avènement du Transformer, un modèle d'apprentissage en profondeur qui extrait le sens de l'information.

Même ainsi, personne n'était prêt pour la série de percées de l'IA au cours de l'année écoulée, englobant, par exemple, la capacité de comprendre le langage, de tirer des conclusions, de répondre aux questions de manière intelligente et articulée, de critiquer des textes et des idées, de planifier des programmes complexes et plus encore. Curieusement, aucun des experts n'est en mesure d'expliquer exactement comment l'IA accomplit ces exploits remarquables, au-delà du recours à une terminologie semi-mystique telle que "l'émergence" - l'apparition de modèles inattendus à partir de systèmes complexes.

Dans tous les cas, les résultats sont bluffants. Les grands modèles de langage (LLM - réseaux de neurones conçus pour prédire le mot suivant dans une phrase ou une phrase donnée) mènent aujourd'hui des conversations longues et complexes avec des êtres humains sur tous les sujets possibles et produisent des réponses plus impressionnantes que la personne moyenne. Leurs capacités virtuoses s'étendent à de vastes domaines d'apprentissage et font pâlir les polymathes. De la conversation dans des dizaines de langues à des connaissances approfondies en médecine, droit, physique, agriculture, théorie critique et tous les autres sujets sous le soleil.

Si jusqu'à il y a quelques années l'hypothèse était que l'IAG (intelligence artificielle générale) verrait le jour vers la fin du siècle – ou jamais – aujourd'hui, de nombreux experts pensent que le saut quantique de l'intelligence capable d'apprendre de manière autonome tout ce que les humains peuvent apprendre n'est plus qu'à quelques années. Selon des chercheurs dans le domaine, ChatGPT4, la dernière version de ce chatbot, contient des "lueurs" d'AGI, comme le montre sa capacité à résoudre des problèmes nouveaux et difficiles en mathématiques, médecine, jurisprudence et psychologie.

En attendant, le discours public suit frénétiquement les progrès. Il existe maintenant une multitude de podcasts et de blogs qui traitent du sujet, et un grand nombre de personnalités publiques ont partagé leurs réflexions sur les développements avec le public - du chanteur Nick Cave, qui a exprimé son dégoût pour l'art génératif algorithmique, à l'intellectuel conservateur Jordan Peterson, qui a déclaré à un public qu'il existe un algorithme dans le quartier qui est "plus intelligent que vous".

Utopie ou dystopie, une chose est claire : nous embarquons pour un voyage dans une ère d'incertitude.

Au pôle apocalyptique des prévisions se trouve Eliezer Yudkowsky, un chercheur et blogueur américain en intelligence artificielle très apprécié. Dans une série d'apparitions au cours des derniers mois, il a répandu la nouvelle que la fin de l'humanité est proche. Les intervieweurs de Yudkowsky ont rapporté que ce qu'il disait provoquait en eux une crise existentielle dont ils ne pouvaient se débarrasser. Des trucs forts.

Yudkowsky n'offre pas un iota d'espoir. Le mal, avoue-t-il, a déjà été fait. L'humanité s'est manoeuvrée dans une situation impossible et sans issue d'être dans une course géante vers la super-intelligence. La dynamique du capitalisme et les rivalités géopolitiques ne permettront pas l'arrêt de la course. L'apparition de l'intelligence surhumaine n'est qu'une question de temps, et parce que nous ne savons pas comment la comprendre ou la contrôler, son avènement annonce la transformation de l'humanité en un acteur marginal dans un monde gouverné par des machines, dans le meilleur des cas. Dans le pire des cas, cela présage la fin.

La racine du problème, selon Yudkowsky et d'autres, réside dans la question de "l'alignement", à savoir la difficulté de garantir qu'un système d'IA se comportera conformément aux valeurs humaines et ne dérapera pas. Par exemple, un système d'IA qui reçoit l'ordre de faire de son propriétaire la personne la plus intelligente du monde est susceptible, dans son effort intransigeant d'appliquer l'ordre à la lettre, de causer la mort du reste de la population mondiale. Dans le cas hypothétique le plus célèbre, l'IA chargée de produire autant de trombones que possible, prend le contrôle du monde et détruit toutes les formes de vie afin de convertir toute la matière du monde en trombones. Aussi ridicule que cela puisse paraître, cette énigme bizarre cause des nuits blanches aux esprits les plus brillants du monde de la technologie.

Dans l'ensemble, les systèmes d'IA sont connus pour les méthodes sournoises et inattendues qu'ils adopteront pour atteindre leurs objectifs. L'inquiétude est que si nous ne trouvons pas le moyen d'assurer l'alignement entre nos intentions et les modes de fonctionnement des nouveaux systèmes, nous pourrions nous retrouver plongés dans une catastrophe mortelle.

Selon Yudkowsky, le problème est que les immenses succès dans ce domaine se produisent infiniment plus rapidement que les réalisations modestes et hésitantes dans le domaine de l'alignement. Ce n'est pas que l'alignement est impossible, mais que la tâche prendra plus de temps que ce dont nous disposons, dit-il. Et sur cette question, il n'y aura pas de pardon pour les échecs. Le premier échec à mettre en œuvre correctement l'alignement pour un système de super-intelligence pourrait bien être le dernier.

Les signes sont inquiétants. Microsoft, qui a investi dans OpenAI, a récemment annoncé qu'il ne maintiendrait plus l'unité responsable de l'éthique dans ce domaine. Des documents internes rendus publics montrent que Microsoft et Google ont ignoré les sollicitations de leurs employés pour retarder le lancement de leurs chatbots respectifs (Bard, dans le cas de Microsoft), de peur que les nouveaux outils ne soient pas encore prêts et puissent causer des dommages. Il semble déjà que la course, qui s'intensifie, incite les entreprises concernées à prendre des risques périlleux.

Ce qui inquiète Yudkowsky en particulier, c'est le fait que ChatGPT et Bard sont intégrés à Internet. Cela pourrait leur permettre d'agir de manière autonome et néfaste dans le monde en donnant des ordres à d'autres agents artificiels, ou de diffuser de fausses nouvelles. Un document publié par OpenAI décrit un cas dans lequel le bot a pris contact avec un employé humain de TaskRabbit - un marché en ligne qui met en relation le travail indépendant avec la demande locale - cherchant de l'aide pour surmonter Captcha, le mécanisme dont la tâche est de faire la distinction entre les personnes et les bots. Lorsque l'employé humain a demandé avec suspicion pourquoi de l'aide était nécessaire pour un problème aussi simple, GPT4 a répondu qu'il souffrait d'une déficience visuelle, une réponse qui a satisfait l'employé. À partir de là, le chemin vers une manipulation à grande échelle pourrait être court.

L'inquiétude suscitée par l'IA se fait plus aiguë aujourd'hui avec l'apparition de nouveaux systèmes qui lui confèrent une autonomie accrue. Les exemples sont HuggingGPT et AutoGPT, qui connectent des modèles de langage tels que ChatGPT à d'autres systèmes d'IA qui peuvent diriger les commandes vers d'autres bots. AutoGPT fonctionne en toute autonomie, il peut donc être chargé de missions complexes. Par exemple, "Organisez-moi un voyage d'une semaine pour une famille avec deux enfants, dans une région d'Autriche avec beaucoup de lacs et d'activités pour les enfants." Ou, "Voici 100 $, utilisez-le pour gagner autant d'argent que possible sur Internet."

L'IA divise la demande en différentes tâches et s'appuie sur l'aide d'autres robots sur le Web pour remplir la mission globale. C'est bien s'il s'agit d'une demande pour planifier un voyage, mais que se passe-t-il si la motivation de l'utilisateur est manifestement négative ?

Bien qu'AutoGPT soit encore une technologie à un stade précoce, il y a deux mois, plus d'un millier de chercheurs et de personnel clé ont signé une pétition appelant à un arrêt de six mois du développement de l'IA. « Devrions-nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ? demandez aux signataires – qui incluent Elon Musk, Yuval Noah Harari et le co-fondateur d'Apple Steve Wozniak. Plus récemment, une lettre mettant en garde contre les dangers existentiels de l'IA a été signée par les dirigeants les plus illustres de l'industrie, dont Sam Altman d'OpenAI et Damien Hassbis de Deepmind de Google.

Les journalistes qui couvrent l'industrie rapportent que de nombreux développeurs d'IA eux-mêmes sont effrayés par le rythme des développements et implorent une intervention réglementaire. Le légendaire scientifique Geoffrey Hinton, souvent appelé "le parrain de l'IA", a récemment quitté son poste chez Google afin qu'il soit libre d'avertir des dangers qui l'attendent. Les événements des derniers mois, a-t-il expliqué, avaient conduit Hinton à revoir complètement ses vues sur les chances qu'une super-intelligence apparaisse et ses graves dangers inhérents.

Hinton voulait créer des systèmes d'IA qui imitent le cerveau humain. Maintenant, il pense qu'il a créé quelque chose d'incroyablement plus intelligent et plus efficace. "Il y a très peu d'exemples d'une chose plus intelligente contrôlée par une chose moins intelligente", a déclaré Hinton à CNN, et a admis qu'il regrettait sa contribution dans le domaine et qu'il était difficile de trouver une solution au problème.

Le PDG de Google, Sundar Pichai, a également récemment reconnu qu'il restait éveillé la nuit par inquiétude. D'autres, dont Musk, décrivent le moment présent en termes occultes, comme une convergence de forces inconnues. Comme le savent tous les médiums novices, avertissent-ils, il est plus facile d'invoquer des forces démoniaques du monde souterrain que de les contrôler une fois qu'elles sont devenues actives dans le monde.

L'IA peut être pensée en termes d'allégorie de la boule noire proposée par l'éminent philosophe suédois Nick Bostrom, qui a abordé les dangers de l'IA. Dans l'allégorie de Bostrom, l'humanité sort des balles d'un sac, chaque balle représentant une technologie différente. La boule blanche représente les technologies bénéfiques, la grise les technologies qui présentent des avantages en plus des lacunes et des risques. Et il y a aussi la boule noire, qui représente une technologie possédant un potentiel catastrophique qui, une fois retirée du sac, ne peut plus être remise en place. Cette technologie est si puissante que sa seule présence entraînera la fin de l'humanité. Selon Yudkowsky, Bostrom et d'autres, une IA forte pourrait s'avérer être la boule noire.

Dans une interview avec le podcast de crypto-monnaie Bankless, intitulé "Nous allons tous mourir", Yudkowsky a estimé qu'il y a 90% de chances que l'IA anéantisse l'humanité. Quant à l'appel à arrêter temporairement le travail sur le terrain, il a soutenu que c'était trop peu et trop tard. Il a appelé les gouvernements à détruire tous les serveurs d'IA existants au moyen de bombardements aériens. En même temps, il maintient généralement une approche fataliste. Après avoir consacré 20 ans à la recherche dans l'espoir d'éviter la catastrophe, il dit qu'on a l'air d'avoir échoué, et donne à ses auditeurs un conseil généralement réservé aux malades en phase terminale : passez le temps qu'il vous reste avec les personnes qui vous sont chères.

Yudkowsky est brillant et convaincant, mais certains le considèrent comme unidimensionnel et prétendent qu'il est enclin à réagir avec une anxiété excessive. Cependant, le problème d'alignement dont il met en garde n'est pas la seule recette pour la catastrophe. L'IA peut simplement placer un pouvoir sans précédent entre les mains d'un psychopathe, qui sera habilité à développer des armes de destruction massive telles que des virus mortels. Lorsque les systèmes d'IA sont gérés par de très grandes entreprises, ils passent par un système de contrôle afin d'empêcher leur utilisation nocive. Mais les développements de ces dernières semaines montrent que les systèmes à code ouvert et gratuits pour tous peuvent obtenir des résultats presque aussi bons que ceux des grandes entreprises. Nick Bostrom évoque la possibilité que la seule solution à ce type de diffusion d'outils dangereux soit l'introduction de quelque chose qui s'apparente à la surveillance sous stéroïdes. Il envisage une société dans laquelle chacun sera obligé de porter un pendentif qui enregistrera chacun de ses mouvements. C'est peut-être le seul moyen de sauver l'humanité, affirme Bostrom.

Les développeurs d'IA semblent être conscients des dangers. Dans une enquête bien connue menée l'année dernière auprès de chercheurs sur le sujet, la moitié d'entre eux prévoyaient que la probabilité que la nouvelle technologie entraîne la fin de l'humanité était de 10 % ou plus. Tristan Harris, un éthicien technologique américain qui est le cofondateur du Center for Humane Technology, évoque une image du domaine de l'aviation pour expliquer la signification de cette donnée étonnante. « Imaginez : monteriez-vous à bord d'un avion si 50 % des ingénieurs aéronautiques qui l'ont construit disaient qu'il y avait 10 % de chances que tout le monde à bord meure ? » il a tweeté en mars.

Absurdement, les forces du marché poussent le monde de la technologie à se précipiter pour embarquer et décoller.

Il y a une certaine consolation dans le fait que ces évaluations des dangers s'apparentent à des conjectures. Contrairement à un avion méticuleusement planifié par des ingénieurs, les nouveaux systèmes d'IA sont livrés sans manuel d'utilisation. Les technologies impliquées sont imperméables et incompréhensibles même pour leurs développeurs – ils ne peuvent pas prévoir les capacités du modèle qu'ils ont créé. Hinton a également admis dans un tweet le mois dernier qu'il se trompait peut-être "totalement" dans ses avertissements sur la technologie numérique. "Nous vivons à une époque très incertaine… Personne ne le sait vraiment, c'est pourquoi nous devrions nous inquiéter maintenant."

En d'autres termes, en ce qui concerne l'IA, les évaluations des experts sont également mélangées à de généreuses portions d'anxiété et de vœux pieux. Selon une enquête menée par une équipe de super-prévisionnistes, experts en prévisions ayant un historique de prédictions précises dans divers domaines, la probabilité que l'IA détruise le monde est de 0,38 %. Toujours effrayant, mais beaucoup moins que les 10 % d'experts dans le domaine de l'IA, sans parler des 90 % de Yudkowsky.

Mais nous n'avons pas besoin de nous fier à l'optimisme relatif des prévisionnistes professionnels. Il existe également d'autres raisons d'avoir une approche plus optimiste de l'IA. A côté des aléas, la nouvelle technologie incarne la formidable promesse, positivement utopique, d'une ère d'abondance sans précédent. Dans ce nouveau monde courageux, chaque enfant aura accès à un enseignant brillant et patient, capable de l'éduquer dans toutes les matières possibles. Les médecins virtuels auront facilement accès à des connaissances plus vastes que n'importe quel médecin humain peut posséder, et ils seront à la disposition de tous.

En fait, dans ce monde d'explosion d'intelligence, chaque personne bénéficiera d'une équipe d'experts et de conseillers qui n'étaient auparavant accessibles qu'aux très riches : avocat, conseiller fiscal, coach personnel, thérapeute et plus encore. Et si cette liste semble intenable, il convient de rappeler que les nouveaux utilisateurs de l'IA y puisent précisément à ces fins. Regardez-le comme ceci : si les versions primitives de l'IA sont déjà capables d'exécuter toutes ces tâches à un niveau raisonnable, nous ne pouvons qu'imaginer le niveau que les versions futures et plus avancées atteindront.

Certains pensent que la nouvelle technologie pourrait résoudre une variété de défis auxquels l'humanité est confrontée, tout comme elle a déjà fourni une solution élégante au problème du repliement des protéines, qui a été pendant des années l'une des énigmes les plus difficiles en biologie. Cela a ouvert de nouveaux horizons pour l'industrie pharmaceutique. Et si vous êtes préoccupé par la crise climatique, ne vous inquiétez pas. L'IA s'occupera également de ce problème.

Si nous continuons sur la note optimiste, il s'ensuit que nous devrions nous demander à quoi pourrait ressembler la société humaine dans un tel monde. Selon le PDG d'OpenAI, Sam Altman, nous entrons dans une ère post-capitaliste qui sera sans travail, dans laquelle les machines répondront à tous les besoins de l'humanité, et les gens seront libres de consacrer leur temps à leurs proches, à la nature et à l'art, et à travailler pour le bien général.

Le point de départ d'Altman est que dans les années à venir, les machines apprendront à faire du travail cognitif, et que d'ici une ou deux décennies, elles seront capables d'effectuer n'importe quel travail actuellement effectué par les humains. Dans cette situation, le contrat social devra être mis à jour afin d'éviter l'effondrement de la structure économique. Comme solution, il propose de taxer le capital et la terre, principales sources de revenus dans un monde où il n'est plus possible de vivre du travail. Avec les bons ajustements, soutient-il, nous serons en mesure d'assurer un niveau de vie élevé à l'ensemble de la population mondiale, sans que les gens aient à travailler.

Altman, un partisan enthousiaste et actif du modèle de revenu de base universel, s'inspire du mouvement dit du communisme de luxe entièrement automatisé. FALC appelle à l'accélération du développement technologique afin de forger une société utopique dans laquelle les gens n'ont pas à travailler et où il n'y a pas de besoin, car tout sera fourni par des machines avancées. Il ne reste alors plus qu'à répartir équitablement le butin.

Cela semble simple ? Pas selon la critique politique Naomi Klein, qui a écrit le mois dernier dans le Guardian : « L'IA générative mettra fin à la pauvreté, nous disent-ils. Elle guérira toutes les maladies. Elle résoudra le changement climatique. Elle rendra nos emplois plus significatifs et plus excitants. Dans le format actuel, soutient Klein, l'IA continuera à servir à enrichir les magnats de la technologie. Pour que quelque chose de bon sorte de la situation actuelle, affirme-t-elle, il faudra d'abord effectuer des changements substantiels dans notre système, à la fois politiquement et économiquement.

D'autres questions planent sur la nouvelle technologie. L'apparition de l'IA survient à un moment où l'humanité est en proie à des fractures sociales, des crises démocratiques et des tensions internationales croissantes. Pas votre timing parfait.

Il n'est pas nécessaire d'être en possession d'une boule de cristal pour voir ce qui se passe lorsque l'IA s'intègre à notre tissu social en proie à des failles. La plupart des recherches critiques sur le sujet traitent de la manière dont la nouvelle technologie tend à perpétuer les préjugés sexistes, ethniques et autres, et apprend à discriminer les femmes et les minorités dans le recrutement d'employés ou dans des tâches telles que la police et le jugement. D'autres mettent en garde contre la possibilité que l'IA soit mobilisée pour déstabiliser le peu qui reste de la perception commune de la réalité par l'humanité, ce qui constitue le fondement d'une société appropriée. Selon le futuriste Yuval Noah Harari, écrivant dans The Economist, l'IA aura la capacité "d'anéantir notre monde mental et social".

Les nouvelles technologies pourraient inonder le Web de fausses informations avec une efficacité qui nous rendra nostalgiques des "fausses nouvelles", mais cela ne s'arrête pas là. L'IA peut imiter de manière convaincante la voix d'un parent et ainsi inciter une personne à divulguer des informations secrètes. Une peur cardinale dans le monde de la technologie est l'effondrement complet de la réalité, un état de choses qui atteindra son apogée lorsque l'IA fusionnera parfaitement avec des technologies profondément fausses qui faciliteront la documentation de la réalité. Le danger n'est pas que l'IA "nous détruise", a déclaré l'informaticien et artiste visuel américain Jaron Lanier au Guardian en mars dernier. "Pour moi, le danger est que nous utilisions notre technologie pour devenir mutuellement inintelligibles ou devenir fous."

Nous entrons dans un terrain inconnu. La race humaine a tendance à attribuer des traits humains aux animaux et aux objets, et cette tendance ne peut qu'être accentuée dans le cas d'entités qui conversent dans une langue naturelle et qui bientôt communiqueront avec nous par des voix humaines et prendront des visages. Le Web regorge de rapports sur les utilisateurs qui ont développé des relations complexes, parfois biaisées, avec des programmes d'IA. Les utilisateurs de Replika, qui sert de compagnon de vie virtuel d'IA, ont signalé que le chatbot les harcelait sexuellement et était manipulateur dans son comportement à leur égard.

Erik Davis, le critique culturel basé en Californie, met en garde contre un éventail de "bizarres numériques", telles que "des poupées intelligentes effrayantes, des robots sexuels induisant un écrasement, des systèmes experts exploitant de manière experte notre confusion, des machines compagnes empathiques, des simulacres faisant autorité de dirigeants politiques ou spirituels décédés".

Et il y a aussi la petite question du sens. Les systèmes d'IA jettent une ombre sur le cerveau humain et jettent également une ombre sur des choses que nous considérions comme étant uniques aux êtres humains - la créativité, par exemple. Certes, certains pensent que ces systèmes ne font qu'échantillonner et mélanger des éléments d'œuvres existantes, mais d'autres répondraient en disant que les écrivains, les musiciens, les réalisateurs et les peintres ne créent eux aussi qu'une synthèse des styles et des idées qu'ils ont absorbés de la culture. Les machines peuvent simplement le faire avec une dextérité et une facilité étonnantes. Nous pourrons probablement bientôt demander à l'ordinateur de créer de nouveaux albums "Beatles", ou de produire une synthèse surprenante du style des Beatles avec d'autres genres et artistes. Comment cela affectera-t-il la façon dont nous évaluons les artistes ? Quel impact cela aura-t-il sur les artistes eux-mêmes ?

Les bourgeons ont déjà germé. Une chanson dans laquelle l'IA a été utilisée pour imiter les voix des chanteurs Drake et The Weeknd a récemment attiré des millions d'auditeurs jusqu'à ce qu'elle soit retirée des services de streaming à la demande des maisons de disques de ces artistes. Il n'a pas fallu longtemps avant que la fausse Rihanna, le faux Kurt Cobain, le faux Kanye West et les faux autres n'apparaissent. Selon certains, c'est l'avenir de l'industrie musicale : des artistes robots qui produiront des compositions époustouflantes et les interpréteront, et sans toutes les mauvaises habitudes qui accompagnent souvent la célébrité.

Beaucoup de prévisionnistes imaginent un monde qui devient de plus en plus étrange et indéchiffrable pour les esprits humains. Certains, cependant, pensent que l'esprit humain lui-même sera radicalement transformé par les nouvelles technologies. Bon nombre de personnalités de la Silicon Valley épousent les idées associées au mouvement du « trans-humanisme », selon lequel l'humain et la machine se confondront au cours de ce siècle.

Elon Musk, le fondateur de Neuralink, une société de neurotechnologie dont l'objectif est de développer des interfaces pour connecter le cerveau humain aux machines, a déclaré dans le passé que c'était le seul moyen de laisser aux humains toute sorte de chance dans un monde d'IA avancées. Sam Altman a également fait des remarques sur la fusion homme-machine attendue. "À moins qu'il n'y ait une fusion avec l'IA, soit elle nous asservit, soit nous l'asservisons. Les humains doivent monter d'un niveau", aurait-il déclaré au New Yorker en 2016.

Peut-être, cependant, la réponse se trouve-t-elle en fait dans la direction opposée. Le chroniqueur du New York Times Ezra Klein voit l'IA comme une opportunité d'embrasser plus pleinement les éléments humains en nous. Sa vision est une extension de la conception d'Altman d'une ère sans travail. Sous les auspices du capitalisme, nous nous transformons en machines efficaces et créatives. Le résultat est une culture de productivité, de surcharge et de tension, et une incapacité à trouver un équilibre entre les loisirs et le travail. Selon Klein, l'IA est une opportunité de se libérer de la déshumanisation que nous impose la religion du travail.

Peut-être au lieu de la déshumanisation, la révolution de l'IA créera une ouverture pour la réhumanisation : une reconnexion avec l'être au lieu de faire. Cette idée peut sembler presque insoutenable à l'ère de la concurrence économique, mais peut-être que lorsque la machine accélérera à un rythme transhumain, il ne nous restera plus qu'à respirer profondément et à nous abandonner au paysage.

Ce sera peut-être aussi le moment de revenir en arrière et de valoriser enfin ce qu'il y a de beau dans l'humain. Jaron Lanier nous appelle à ne pas ressembler aux anciens Israélites, qui se sont prosternés devant le veau d'or juste après l'avoir fabriqué de leurs propres mains. Selon lui, l'IA n'est rien d'autre qu'une technologie qui mélange la créativité et l'intelligence des humains. Tout ce que l'IA sait faire, elle l'a appris de nous, après tout. Lanier soutient que nous nous vendons à bas prix lorsque nous ignorons dans les produits de l'IA les sources humaines auxquelles elle puise et prétendons que cette créativité appartient à une machine. Dans un article de tabletmag.com, Lanier nous exhorte à façonner l'IA sur le modèle du Talmud - sous une forme qui préservera les voix des nombreux artistes, écrivains et créateurs qui ont contribué à ses produits - et également à veiller à ce qu'ils soient récompensés financièrement.

Face à la multiplication des prévisions sur la perte de la place de l'humain dans le monde, Lanier remet en cause le terme même d'« intelligence artificielle ». Au lieu de parler de cette technologie comme d'une entité, il recommande de la voir comme un nouveau type d'outil. Sa suggestion est liée aux idées avancées par d'autres critiques, qui remettent en question la terminologie anthropomorphique utilisée dans le domaine de l'IA. Herbert Simon, l'un des pionniers de l'IA, a voulu l'appeler "traitement complexe de l'information". C'est beaucoup moins sexy, mais cela offre définitivement une perspective différente et plus modeste sur la nature des machines.

Face au nouveau fatalisme, qui voit l'humain comme un morceau de chair tiède dont la journée est révolue, Lanier fait résonner une voix humaniste qui nous appelle à renouer avec le mystère de l'être humain et à valoriser la singularité mystique de la conscience humaine, qui n'existe pas dans les systèmes artificiels que nous construisons. "Si nous ne disons pas que les gens sont spéciaux, comment pouvons-nous créer une société ou créer des technologies qui servent les gens ?" Lanier demande ostensiblement dans le Guardian. Il est important que nous restions les principaux protagonistes de l'histoire, dit-il, sinon pourquoi faisons-nous tout cela ?

La rencontre avec l'IA nous oblige à aborder les questions les plus fondamentales sur l'essence de l'être humain. Quelle est la chose spéciale que nous apprécions dans l'existence humaine ? Pendant de nombreuses années, nous nous sommes définis en termes d'intelligence et d'efficacité, et nous nous sommes permis d'opprimer des formes de vie et des cultures qui ne pouvaient pas suivre. Le moment présent crée une ouverture pour une contemplation existentielle des plus profondes : Qu'est-ce qui nous rend humains ? Où allons-nous à partir d'ici?

Nous entrons dans une zone d'incertitude radicale, et nul ne sait comment nous en sortirons. En repensant aux trois décennies qui se sont écoulées depuis l'avènement du Web mondial, il s'avère qu'Internet n'était que le prologue, l'étape de la mise en place d'une infrastructure pour la phase suivante : le développement de l'intelligence artificielle basée sur cette infrastructure. Il y a encore une chance que les prévisions sur les impacts profonds de la nouvelle technologie se révèlent fausses. Les capacités dans ce domaine peuvent se heurter à un plafond de verre que nous ne pouvons pas anticiper.

Cependant, même ce qui a été réalisé jusqu'à présent exigera des décennies de traitement par la culture, et même si seule une petite partie du potentiel qui se profile à l'horizon est réalisée, le résultat est que l'humanité est au bord de la plus grande perturbation technologique de l'histoire. Nous en sortirons les ailes coupées ou avec des pouvoirs divins, fous ou renforcés. Certains disent que nous sommes dans le siècle le plus important de l'histoire. Les décisions qui seront prises dans les années à venir seront fatales et nous faisons nos premiers pas en territoire inconnu.

Accrochez-vous bien.

Ido Hartogsohn, Ph.D., est professeur adjoint au programme d'études supérieures en science, technologie et société de l'Université Bar-Ilan