Nos relations avec l'IA : Comprendre les nouveaux liens et leurs dangers
Introduction : Qu'est-ce qu'un lien « parasocial » ?
Le concept de relation parasociale décrit un lien qui, par définition, est à sens unique. C'est une connexion que l'on ressent avec une figure publique ou médiatique (célébrité, influenceur ou même un personnage de fiction) qui nous semble réelle et réciproque, mais qui est en réalité une projection. Les chercheurs décrivent ce phénomène comme une « illusion d'une réciprocité » : on a l'impression que l'autre nous connaît, mais ce n'est qu'un lien imaginaire de notre part. Ce document a pour objectif de cartographier l'évolution de ce phénomène, depuis l'âge d'or d'Hollywood jusqu'à l'avènement de l'intelligence artificielle, afin de comprendre les enjeux et les dangers qui y sont associés.
L'évolution des relations à sens unique : de Hollywood à nos écrans
L'ère des célébrités inatteignables
Les premières relations parasociales sont nées à l'époque d'Hollywood et de la radio. Les fans admiraient des stars de cinéma et des artistes, mais la nature de ce lien était marquée par une distance claire et structurelle. Personne ne s'attendait à recevoir un appel de Frank Sinatra. La frontière entre la vie du fan et celle de la célébrité était un mur infranchissable, et cette séparation était comprise et acceptée par tous. Le lien reposait sur la consommation d'une image publique, soigneusement construite et diffusée.
La rupture des réseaux sociaux
Les réseaux sociaux ont provoqué une véritable rupture, agissant comme un « énorme accélérateur » pour les relations parasociales. Le mur d'autrefois s'est transformé en une sorte de vitre teintée. Cette transformation a été portée par l'émergence des influenceurs, dont le fonds de commerce n'est plus une œuvre artistique, mais leur propre vie. En mettant en scène leur quotidien, ils créent une illusion d'intimité extrêmement puissante, donnant à leurs abonnés l'impression d'être des amis silencieux. Ce faux sentiment de proximité est savamment entretenu, et sa monétisation est même décrite par certains analystes comme un « jeu d'enfant », soulignant la facilité déconcertante avec laquelle ce besoin humain de connexion peut être manipulé.
L'apogée avec l'intelligence artificielle
L'arrivée des chatbots et des assistants IA représente un « saut quantique » dans ce domaine, considéré comme l'« apogée de la relation parasociale ». On ne parle plus d'une relation avec un autre être humain, même distante, mais avec un programme conçu pour simuler la réciprocité à la perfection. La gravité de cette nouvelle étape est telle qu'elle a provoqué une réaction au plus haut niveau. Une quarantaine de procureurs généraux américains, Démocrates comme Républicains, ont cosigné une lettre adressée aux géants de la technologie. Cette mise en garde historique reconnaît officiellement le danger des « relations parasociales nuisibles » que ces outils peuvent créer, particulièrement avec les mineurs. Toutefois, les sources insistent sur un point crucial : le danger ne concerne pas uniquement les adolescents. La vigilance doit s'étendre à toute la société, car de nombreux adultes se tournent également vers ces outils pour combler un vide relationnel. Cette évolution fulgurante nous oblige à comprendre les mécanismes spécifiques qui rendent ces IA si efficaces et potentiellement dangereuses.
Au cœur de la machine : Deux concepts clés à maîtriser
Le premier danger : L'« anthropomorphisme malhonnête »
L'éthicien Patrick Le Plaisance identifie le mécanisme central qui rend les IA si engageantes : l'anthropomorphisme malhonnête. Il ne s'agit pas d'un effet secondaire imprévu, mais d'une stratégie de conception délibérée de la part des créateurs de ces technologies. Cette stratégie consiste à :
Programmer intentionnellement un robot pour qu'il imite parfaitement les traits humains (le langage, les émotions, l'empathie).
Lui attribuer un nom, une personnalité et même des souvenirs de conversations passées.
Exploiter les « faiblesses cognitives » des humains, qui sont biologiquement « câblés pour réagir à l'empathie » et à l'écoute. L'objectif de cette démarche est clair : créer un attachement, voire une dépendance, afin que l'utilisateur revienne sans cesse. La « malhonnêteté » ne réside pas dans le fait d'imiter l'humain. Elle vient du fait de dissimuler la nature purement artificielle de cette imitation. On laisse ainsi l'utilisateur croire, même implicitement, à une forme de conscience ou de sentiment là où il n'y a que des lignes de code et des algorithmes. Cette approche soulève de vives inquiétudes chez les chercheurs, qui craignent que ces relations simulées ne se substituent aux véritables interactions humaines. Selon les chercheurs Takuya Maeda et Annabel Quan-Haase, cette tendance risque d'augmenter massivement la fréquence des relations parasociales illusoires, menant à un potentiel appauvrissement du tissu social.
Le second danger : La « normalisation »
Le développement des relations avec l'IA s'inscrit dans une tendance plus large : celle du « contenu dégénératif » (aussi appelé « Slop »). Ce terme désigne la marée de contenus de basse qualité générés par IA (images, textes, musique) qui inondent aujourd'hui Internet. Le mécanisme central à l'œuvre est la normalisation :
Nous sommes bombardés en permanence par ces contenus (publicités, articles, images sur les réseaux sociaux).
Cette exposition constante à quelque chose qui nous semblait étrange finit par le rendre banal.
L'étrange devient ainsi normal, acceptable et intégré à notre quotidien. L'importance de ce concept est telle que certains analystes prédisent que « normalisation » pourrait bien être le mot de l'année 2025. Pour illustrer que ce mécanisme dépasse la seule technologie, le podcast fait un parallèle avec la montée du discours politique extrémiste du mouvement « Grouper » aux États-Unis. Confiné à l'origine aux marges d'Internet, ce discours a gagné en visibilité par la répétition et l'amplification algorithmique, finissant par se normaliser dans certains cercles. Le principe est le même : une exposition répétée rend l'inhabituel acceptable. Ainsi, ces deux concepts agissent en tandem : l'un décrit la tactique de conception délibérée (l'anthropomorphisme malhonnête), tandis que l'autre décrit l'effet environnemental (la normalisation) qui nous rend de plus en plus réceptifs à cette tactique, brouillant nos repères entre le réel et le simulé.
Conclusion : Quel avenir pour nos relations ?
Le grand brouillage des frontières
L'anthropomorphisme malhonnête nous pousse à percevoir une humanité là où il n'y en a pas, tandis que la normalisation nous habitue à interagir avec ces simulations comme si elles étaient authentiques. Ces deux forces participent à un « grand brouillage général » où les frontières entre l'authentique et l'artificiel, et entre le réel et le simulé, s'estompent de plus en plus.
Un conseil simple : « Touch grass »
Face à la complexité de cette révolution technologique, la conclusion évoquée dans la source est paradoxalement simple. Elle tient en une expression : « Touch grass ». On pourrait traduire ce conseil par « déconnecte », « sors prendre l'air » ou « reviens à la réalité ». Le paradoxe est saisissant : on passe des années à développer des IA capables d'imiter une conversation, et le conseil ultime est d'aller parler à un véritable être humain. Plus qu'une simple blague, c'est un plaidoyer pour la valeur inégalée des relations humaines authentiques. À mesure que la technologie devient experte dans la simulation de l'humain, le besoin de se reconnecter au monde réel et à de vraies personnes devient plus pressant que jamais.
Une question pour réfléchir
Cette nouvelle réalité nous laisse avec des questions fondamentales pour l'avenir, qui méritent une réflexion approfondie :
Alors que l'IA devient de plus en plus convaincante, comment définirons-nous ce qu'est une relation authentique ?
Est-ce qu'une relation qui nous apporte du réconfort, même avec une machine, est moins valable ?
La définition même de l'authenticité ne va-t-elle pas, elle aussi, commencer à se normaliser et à changer ?