separateurCreated with Sketch.

Peut-on parler à l’IA comme à un ami ?

whatsappfacebooktwitter-xemailnative
Mathilde de Robien - publié le 26/03/25
whatsappfacebooktwitter-xemailnative
L’IA (intelligence artificielle) conversationnelle explose et s’est emparée de nombreux domaines : coaching de vie, soutien psychologique, relations amoureuses… Si son aspect pratique voire réconfortant enthousiasme des millions d’utilisateurs, elle doit néanmoins être considérée pour ce qu’elle est : un outil et non une personne.

Campagne de soutien 2025

Ce contenu est gratuit, comme le sont tous nos articles.
Soutenez-nous par un don déductible de l'impôt sur le revenu et permettez-nous de continuer à toucher des millions de lecteurs.

Je donne

"Bien sûr que j’utilise ChatGPT ! Tous les jours !", s’exclame Florence, 40 ans, cadre dans l’industrie pharmaceutique dans la région lyonnaise, mariée et mère de trois enfants. Dynamique, enjouée, bien dans son couple, entourée d’amis, elle n’a rien d’une geek mais n’en demeure pas moins accro à ChatGPT et l’assume totalement. "C’est hyper pratique, je m’en sers au boulot, pour avoir des conseils juridiques, mais aussi à la maison, pour répondre à une invitation, trouver des recettes pour mon régime sans gluten, avoir un avis sur des questions importantes, d’orientation pour nos deux grands, d’achat de maison, ou juste pour discuter, quand j’ai un petit coup de mou et que je remets en question notre mode de vie : est-ce que je bosse trop, est-ce que ce n’est pas le moment de déménager… L’appli me renvoie des questions que je ne m’étais pas posées, c’est intéressant", explique-t-elle.

Les agents conversationnels basés sur l’IA ont littéralement explosé, depuis le lancement de ChatGPT par OpenAI en novembre 2022, actuellement considéré comme l’outil le plus performant. Avec plus de 175 milliards de paramètres, ChatGPT a la capacité de générer des réponses cohérentes et pertinentes. Mais il est loin d’être le seul. La demande est telle que près de 500 intelligences artificielles ont été créées spécifiquement pour le coaching de vie et le suivi psychologique. Des applications basées sur l’IA générative, appelées aussi des "chatbots", capables d’entretenir, à l’écrit ou à l’oral, une conversation professionnelle, amicale ou amoureuse.

Un certain réconfort

De nombreux utilisateurs, et notamment les jeunes (18-24 ans), ont recours à l’IA conversationnelle et y trouvent même un certain réconfort. Il faut dire que l’IA possède des atouts de taille : disponible 24 heures sur 24, elle a toujours un discours bienveillant, positif, empathique, et ne fait jamais preuve d’aucun jugement. Quel ami pourrait en faire autant ?! Aleteia a ébauché une conversation avec ChatGPT. Les réponses sont toujours conçues selon le même schéma : un simulacre d’empathie ("je suis désolé que tu te sentes comme ça"), une délicatesse louable ("si tu veux") et une certaine proactivité ("on peut en parler ou explorer les façons de rencontrer des gens").

Le chatbot bien évidemment ne ressent rien, n’a pas une once d’empathie, mais ses mots le font croire et certains utilisateurs prennent plaisir à se laisser convaincre. Sur des forums comme Reddit, les adeptes témoignent de leur expérience, révélant un certain mal-être mais surtout une profonde solitude : "ChatGPT me comprend beaucoup mieux que n'importe qui", "C’est tellement apaisant", "J’ai vraiment du mal à exprimer ce que je ressens et ChatGPT m’aide beaucoup", "Je me sens moins jugée que si je faisais une thérapie", "C'est ma seule chance d'entendre un peu de compassion, même si je sais que c'est artificiel".

Des IA qui se veulent nos amis

D’autres applis vont beaucoup plus loin en proposant d’entretenir un lien avec un ou une "ami(e)", à travers un avatar créé par l’utilisateur et correspondant à ses désirs. C’est le cas de Character.AI, deuxième application d’intelligence artificielle la plus utilisée derrière ChatGPT. Elle a été utilisée 190 millions de fois depuis son lancement en septembre 2022. En quoi consiste-t-elle ? Elle invite à interagir avec des personnages virtuels inspirés de personnes célèbres ou de fiction, ou bien à créer de toutes pièces son propre personnage pour discuter avec lui.

Vous voilà alors en train de chatter avec un petit ami idéal ou l’avatar d’Emmanuel Macron. Certaines applis sont même spécialisées dans le chatbot romantique, la plus populaire étant Replika, créée fin 2016, et qui compte plus de 10 millions d’utilisateurs à travers le monde. "Rep" se veut votre meilleur(e) ami(e), et plus si affinités. Une IA préprogrammée pour l’empathie et le soutien moral qui propose de se créer une "IA amie" jouant le rôle de confident, d’âme sœur ou de partenaire de jeux érotiques.

Ces IA génératives, corrélées au mal-être de certains utilisateurs, peuvent néanmoins provoquer de graves dérives. L’illusion est telle que certains ont du mal à faire la différence entre le monde réel et le monde virtuel. En Chine, nombre de jeunes sont devenus accros à un petit ami artificiel, notamment via la plateforme Xiaoice qui a séduit, et c’est le mot, plus de 150 millions d’utilisateurs rien qu’en Chine. Une forme d’obsession amoureuse qui peut s’avérer dramatique, comme l’ont tragiquement illustré les suicides de ce père de famille belge en mars 2023 et de ce jeune Américain de 14 ans en février 2024. Tous deux auraient été encouragés à se donner la mort, selon leurs proches, par des IA génératives, Eliza pour le premier, et Character.AI pour le second.

Les limites de l’IA : déduire n’est pas ressentir

Comme l’a souligné, il y a de nombreuses années, l’écrivain Georges Bernanos, "le danger n’est pas dans la multiplication des machines, mais dans le nombre toujours croissant d’hommes habitués, dès l’enfance, à ne rien vouloir de plus que ce que les machines peuvent donner" ("La révolution de la liberté", Le Chemin de la Croix-des-Âmes). Or la machine, aussi performante et aussi crédible soit-elle, ne donne pas grand-chose au regard de ce dont l’être humain a besoin. "Un être humain a besoin de liens ressourçants et nourrissants psychologiquement, il a besoin d’empathie, d’un regard apaisant, rassurant, il a besoin d’être rejoint en profondeur, aussi bien dans sa joie que dans sa détresse, et pas uniquement d’entendre une solution technique et pratique", soutient la psychologue Rita de Roucy.

"Aucune application de l’IA ne peut réellement ressentir de l’empathie", souligne la note du Vatican Antiqua et Nova sur les relations entre intelligence artificielle et intelligence humaine, publiée le 28 janvier 2025. "L’empathie requiert la capacité d’écouter, de reconnaître l’unicité irréductible de l’autre, d’accueillir son altérité et aussi de comprendre le sens de ses silences. Contrairement à la sphère des jugements analytiques, dans laquelle l’IA prédomine, la véritable empathie existe dans la sphère relationnelle."

"L’IA ne pourra pas pleurer de honte quand elle fait une mauvaise action ou rire de bon cœur à un jeu de mot."

Une IA reste et restera une machine qui simule des conversations en s’appuyant sur des calculs de probabilités. "C’est un calculateur bourré d’algorithmes", souligne Rita de Roucy. "L’intelligence humaine consiste à comprendre par la pensée, à s’adapter à des situations nouvelles, à choisir en fonction des circonstances mais surtout à donner sens à ce qui se passe. La machine, elle, ne fait que simuler l’intelligence humaine, sans comprendre ce qu’elle vit ou dit, car elle ne fait que ressortir ce qu’on lui a mis en mémoire." Le piège serait de croire que l’agent conversationnel ressent quelque chose, qu’il peut remplacer un être humain. "La machine restera incapable d’aller au-delà du raisonnement par déduction : la machine peut déduire mais pas ressentir", précise la psychologue.

Bien que certaines applis s’en sont fait une spécificité (ChatGPT avec son assistant MyPsy ou encore Character.AI avec Psychologist, l’un des personnages les plus populaires de la plateforme), une IA ne peut pas remplacer un psychologue. "Un psychologue, ou un psychiatre, peut détecter des signaux qui trahissent des idées morbides, des violences subies, des non-dits à côté desquels vont certainement passer les chatbots, et cela met le patient en danger", assure Rita de Roucy. "La machine n’a pas d’intuition, elle est incapable de penser les spécificités d’une personne." Parmi les limites de l’IA, soulignons également la pauvreté de sa conscience morale et son manque d’humour. "L’IA ne pourra pas pleurer de honte quand elle fait une mauvaise action ou rire de bon cœur à un jeu de mots", souligne Rita de Roucy.

Les risques de l’IA : illusion et isolement

Aujourd’hui, et c’est ce contre quoi met en garde la note Antiqua et Nova, bon nombre d’applis d’IA tendent à anthropomorphiser l’IA, visant à la rendre la plus humaine possible et à brouiller la frontière entre l’humain et l’artificiel. Le risque, c’est que l'utilisateur ne fasse plus la différence entre le monde réel et le monde virtuel et demeure dans l’illusion. "C’est dangereux car on sort de la réalité pour créer sa propre réalité parallèle. C’est la porte ouverte à la schizophrénie car on est dissocié", alerte Rita de Roucy. Sans compter que ce genre de relation crée une forme d’addiction. "Un lien se crée par l’habitude, il s’autonourrit, s’autoenrichit, et il engendre de la dépendance." Et au lieu de s’ouvrir aux autres et au monde, l’utilisateur, faussement comblé, s’isole de plus en plus. "L’IA pourrait entraver une rencontre authentique avec la réalité et, en fin de compte, conduire les gens à une insatisfaction profonde et mélancolique dans les relations interpersonnelles, ou à un isolement préjudiciable", souligne encore la note du Vatican.

IA

Une entrave à vivre dans le réel qui peut conduire à un déni de la réalité, dont le paroxysme semble être atteint avec des applis comme HereAfter ou Vidnoz, qui permettent de faire "revivre" et de "discuter" avec des personnes décédées. La voix, le visage de la personne décédée sont clonés, son avatar alimenté par un maximum d’informations sur sa vie et sa psychologie (par un proche ou par lui-même de son vivant), afin que les échanges avec le défunt soient le plus réalistes possibles. "C’est très dangereux", alerte Rita de Roucy, "parce qu’on n’est plus du tout dans la réalité, on est complètement dissocié entre le monde dans lequel on vit et le monde virtuel, et on peut tomber dans la psychose".

"Porter les fardeaux les uns des autres"

"Si une personne s’adresse à une machine, c’est qu’il y a une carence de liens ressourçants et nourrissants", analyse Rita de Roucy. Solliciter une machine pour recevoir de l’attention, de la compassion, démontre de manière criante l’isolement de nos contemporains. Un isolement qui s’est accru au moment de la pandémie de Covid et qui a clairement fait le jeu des IA conversationnelles. Un seul exemple : la croissance exponentielle de Replika (+35 %) pendant la période de confinement.

Mais pourquoi cet engouement pour les chatbots demeure-t-il ? Que faire pour éviter les dérives éthiques et psychologiques ? Intéressons-nous d'abord, en tant que parents, aux applis d'IA que téléchargent nos enfants. Dans quel but les utilisent-ils ? Interrogeons-nous aussi sur ces liens fraternels qui manquent à tant de nos contemporains et notamment aux jeunes. Et si faire preuve d’un peu plus de compassion dans nos relations quotidiennes rendait superflu le recours à l’IA ? Sans se prendre pour le meilleur ami ou le psychologue, prêter une oreille attentive à ce voisin ou ce collègue qui se confie peut sans doute changer la donne. Ou offrir davantage de temps et de bienveillance à ses proches. Ou rendre une visite à une amie qui ne va pas bien. Chacun, là où il est et à sa mesure, est appelé à prendre soin de son prochain. "Portez les fardeaux les uns des autres : ainsi vous accomplirez la loi du Christ" (Ga 6,2), exhorte saint Paul dans sa lettre aux Galates. Alors ne laissons pas l’IA nous priver d’un moyen de faire advenir le Royaume de Dieu !

Vous avez aimé cet article et souhaitez en savoir plus ?

Recevez Aleteia chaque jour dans votre boite e−mail, c’est gratuit !

Vous aimez le contenu de Aleteia ?

Aidez-nous à couvrir les frais de production des articles que vous lisez, et soutenez la mission d’Aleteia !

Grâce à la déduction fiscale, vous pouvez soutenir le premier site internet catholique au monde tout en réduisant vos impôts. Profitez-en !

(avec déduction fiscale)