Louis de Diesbach, éthicien, auteur de « Bonjour ChatGPT »
Vous avez écrit le livre « Bonjour, ChatGPT ». Contrairement à ce que l’on pourrait penser en lisant le titre, ce n’est pas un manuel d’utilisation de ChatGPT. Dans ce livre, vous avertissez : nous considérons l’IA comme une sorte d’alter ego, comme un interlocuteur, et nous risquons de perdre le sens de la véritable altérité avec les vrais humains. Est-ce bien cela, si je résume très brièvement ?
Louis de Diesbach
En effet, c’est bien cela. Permettez-moi de reprendre depuis le début. J’ai écrit ce livre parce qu’au lendemain du 30 novembre 2022, quand ChatGPT est sorti, tout le monde a commencé à partager des captures d’écran en disant : « Regardez ce que j’ai fait avec ChatGPT ! » Et j’ai remarqué que beaucoup de ces messages commençaient par « Bonjour ». Je me suis alors demandé pourquoi nous disons « Bonjour » à une machine, alors que personne ne dit « Bonjour » à sa machine à café. J’ai creusé la question et, en résumé, je me suis demandé : à force de dire « Bonjour » à une machine comme on le fait avec des humains, ne risquons-nous pas de traiter les humains comme on traite aujourd’hui les machines ? C’est justement ce rapport à l’altérité, à autrui, et ce que cela signifie de faire société à l’ère de l’IA, que j’ai exploré dans ce livre.
Mais justement, que peut faire un humain lorsqu’il est confronté pour la première fois à l’IA et qu’il a l’impression de parler à un interlocuteur réel ? Je le vois parfois avec des personnes de mon entourage : lors de la première rencontre avec l’IA, on dit « excusez-moi » ou « je ne suis pas d’accord avec vous », et on oublie rapidement que c’est une machine.
Tout à fait. Et je tiens à rassurer tout le monde : même après avoir écrit un livre de 150 pages sur le sujet, je dis toujours « Bonjour » à ChatGPT. Il n’y a aucun souci là-dessus. Ce que j’explore dans le livre, c’est que dire « Bonjour » à ChatGPT est presque normal. L’humain a tendance à anthropomorphiser, c’est-à-dire à attribuer des caractéristiques humaines à quelque chose de non humain. Nous faisons cela depuis des milliers d’années, par exemple avec les dieux de l’Olympe comme Zeus, qui était décrit avec des traits très humains, parfois imparfaits. Cependant, la question est de savoir comment se rappeler que nous parlons à une machine. Ce n’est pas grave de parler avec ChatGPT, mais si cela remplace les interactions humaines, il faut s’interroger. Si vous trouvez que parler avec ChatGPT est plus confortable que de parler avec vos amis, qui peuvent être en désaccord, indisponibles ou fatigués, alors cela devient un problème. ChatGPT est toujours d’accord, jamais malade, toujours disponible. Si vous en arrivez à vous dire que vous n’avez pas vraiment besoin d’amis parce que vous avez ChatGPT, c’est un signal d’alerte qu’il faut prendre au sérieux.
D’autant plus qu’il existe des IA spécialement conçues pour être des compagnons virtuels. Il y a des sites et des plateformes qui proposent des IA avec lesquelles on peut personnaliser une sorte de relation, parfois même amoureuse à distance. On perd complètement de vue le fait que nous parlons à des machines, car le but est de les faire ressembler le plus possible à des humains.
Exactement, et vous avez tout à fait raison. Le but est vraiment de tomber amoureux. Je ne sais pas si vous avez vu le film Her, sorti en 2013 avec Joaquin Phoenix et réalisé par Spike Jonze. C’est un film magnifique, très bien réalisé, qui raconte l’histoire d’un homme qui tombe amoureux d’une intelligence artificielle. Ce qui est frappant, c’est qu’en 2013, les spectateurs voyaient ce film comme une dystopie, un cauchemar. Dix ans plus tard, nous y sommes. Comment avons-nous pu passer en dix ans d’une dystopie à une réalité que certains trouvent géniale ? Cela pose beaucoup de questions sur la société que nous construisons. Des applications comme AI Girlfriend ou Replika, par exemple, permettent de recréer des personnes virtuelles. Ce n’est pas noir ou blanc, car la créatrice de Replika explique qu’elle a créé cette IA pour aider les personnes seules, en essayant de les inciter à retourner dans le monde réel. Cependant, je reste sceptique sur la sincérité de cette démarche. Il faut se méfier des discours manichéens qui disent que telle technologie est bonne ou mauvaise. Il y a des aspects positifs dans la tech, mais pour moi, il n’y a rien de plus précieux qu’une conversation en face à face avec quelqu’un, avec toutes les petites frictions du réel. C’est cela que nous devons essayer de préserver.
Mais les petites frictions du réel sont de plus en plus évitées, même avant l’apparition de l’IA générative. Les réseaux sociaux, par exemple, offrent déjà une manière d’éviter le réel. On y suit des modèles de vie qui n’ont rien à voir avec notre quotidien et que certains trouvent préférables à leur propre vie.
Oui, tout à fait. Les réseaux sociaux sont un excellent exemple de cette tendance à éviter la vulnérabilité. La vulnérabilité, c’est le fait de se confronter à quelqu’un qui peut ne pas être d’accord avec nous, qui peut penser que nous avons tort, ce qui peut blesser notre ego. Il y a de nombreux ouvrages sur la « tyrannie de l’ego » au XXIe siècle. Les réseaux sociaux, malheureusement, ne nous aident pas à affronter cette vulnérabilité. Sur Instagram, par exemple, nous voyons des images qui ne reflètent pas la réalité. De plus, les « chambres d’écho » des réseaux sociaux font que nous ne suivons que des gens avec lesquels nous sommes déjà d’accord, ce qui nous empêche d’avoir une vision du monde diversifiée. Cela est problématique, tout comme la limitation à 140 caractères de Twitter, qui ne permet pas d’exprimer une opinion nuancée. Cela mène soit à des confrontations, soit à des échanges superficiels ou clichés. J’aimerais que l’on se reconfronte à l’altérité et que l’on y trouve un certain plaisir. Cela ne signifie pas qu’il faut renoncer à l’IA ou aux réseaux sociaux, mais il faut comprendre comment les utiliser et se rappeler que la réponse à un problème n’est pas toujours plus de technologie. Parfois, il s’agit de résoudre des problèmes plus profonds que la technologie ne peut pas résoudre. Par exemple, remplacer le manque de personnel soignant dans les EHPAD par des robots ne résout pas les crises de valeurs et de société sous-jacentes. Nous devons parfois nous poser les vraies questions plutôt que de chercher des solutions technologiques à tout.
Quand vous conseillez des entreprises en tant qu’éthicien, avez-vous l’impression que les dirigeants sont réceptifs à ce genre de raisonnement, cette attention aux valeurs et à l’éthique ?
Oui, les gens sont très réceptifs. Cependant, ils sont souvent pris dans un étau entre leurs valeurs et les exigences du marché, des actionnaires, des résultats à atteindre. Ils veulent être éthiques, mais ils ne peuvent pas risquer de perdre leur emploi pour cela. Il est donc difficile de concilier éthique et réalités économiques. Les entreprises se demandent souvent comment opérationnaliser ces valeurs. Par exemple, comment coder la liberté d’expression ou la dignité humaine ? C’est là que nous intervenons pour aider à intégrer ces valeurs dans les pratiques de l’entreprise. Je pense qu’il est possible d’être à la fois pro-tech et pro-régulation. La régulation est nécessaire pour établir un terrain de jeu équitable, où le respect des droits fondamentaux est une règle de base. Cela permettrait aux entreprises de s’aligner sur des valeurs éthiques tout en restant compétitives.
Votre livre Bonjour, ChatGPT est sous-titré Comment l’intelligence artificielle change notre rapport aux autres. Si vous avez écrit ce livre, et si nous organisons cette Semaine Numérique, c’est que nous restons optimistes quant à la possibilité de maintenir de bonnes relations humaines. Quels conseils pourriez-vous donner à ceux qui nous regardent pour garder un rapport sain avec les autres, alors que nous travaillons de plus en plus avec l’intelligence artificielle et que nous évoluons dans un monde de plus en plus virtuel ?
Je pense que pour maintenir un rapport sain avec les autres, il faut d’abord avoir un rapport sain avec la technique. Cela peut sembler cliché, mais il est essentiel de comprendre comment fonctionne la technologie. Je ne dis pas que tout le monde doit devenir ingénieur, mais il faut comprendre les bases. Par exemple, ChatGPT est un modèle probabilistique qui génère du contenu en fonction de probabilités, sans connaissance du vrai ou du faux. Il est important de savoir à quoi ces outils sont bons, et à quoi ils ne le sont pas. Utiliser ChatGPT pour résumer un texte, c’est très bien. L’utiliser pour écrire une lettre d’amour, c’est à côté de la plaque, car cela enlève tout l’effort et la sincérité que l’on attend d’une lettre d’amour. Il faut donc bien comprendre les limites de la technologie et savoir quand il vaut mieux utiliser la tech et quand il vaut mieux s’en passer. Un bon exemple est le télétravail. Pendant la crise du Covid, le télétravail nous a beaucoup aidés, mais nous avons vite réalisé que pour certaines discussions, il est indispensable d’être en présence physique, dans une même pièce, sans ordinateur, sans PowerPoint, juste en s’écoutant. Ce n’est pas une question de technologie, c’est une question de relations humaines.
Dernière question : peut-on être influencé par l’intelligence artificielle ? On connaît ce cas tragique d’un Belge qui s’est suicidé après une longue conversation avec une IA. Sans aller à ces extrêmes, sommes-nous influencés par l’IA lorsqu’on y est constamment exposé ?
Je pense que oui. J’ai récemment écrit un petit texte sur ce sujet. J’ai demandé à ChatGPT si, lorsqu’on lui pose la même question 15 fois, il répondra 15 fois la même chose. La réponse est oui, car il se base sur un corpus d’entraînement unique, donc il produit généralement la même réponse. Cela peut entraîner une uniformisation de la pensée, car vous obtenez toujours la réponse la plus couramment acceptée, la plus politiquement correcte. Cependant, pour progresser, nous avons parfois besoin de l’improbable, de sortir des sentiers battus. Par exemple, si ChatGPT avait existé au XVIIIe siècle, il n’aurait jamais imaginé d’ajouter des chœurs dans la 9e symphonie de Beethoven, car cela ne faisait pas partie des règles de l’époque. Beethoven, en faisant cela, a innové et créé quelque chose de magnifique. ChatGPT ne peut pas sortir de ce cadre préétabli.
En même temps, l’IA permet, par exemple, de jouer le rôle de contradicteur. On peut lui demander de prendre une position opposée, de jouer le rôle de quelqu’un avec une autre philosophie de vie, de quelqu’un venant d’une autre région du monde. Cela peut être très puissant.
Cela peut être extrêmement puissant, mais comme vous le disiez, peu de gens utilisent l’IA de cette manière. Cependant, même si 15 personnes demandent à ChatGPT de jouer le rôle d’une jeune femme vivant dans un quartier pauvre du Caire, il répondra à toutes la même chose. Toutes les femmes d’Égypte ne réagiraient pas de la même façon, ce qui montre le risque d’uniformisation. Le danger n’est pas tant la manipulation que la simplification, qui nous fait oublier la nuance. Hier, j’assistais à une conférence de Jean Birnbaum sur Le courage de la nuance. En 2024, il est parfois difficile de nuancer ses propos, et c’est précisément ce que ChatGPT ne fait pas. Il manque de nuance, ce qui est essentiel pour comprendre la complexité du monde. J’aimerais que l’on développe des modèles, qu’ils soient informatiques ou sociétaux, qui permettent d’approcher cette nuance et de voir la beauté de la contradiction et de la diversité des opinions.