La France en proie à une IA qui se fait comprendre comme un humain

Les utilisateurs de l’IA traitent le chatbot comme un humain. L’enquête menée par Yiaho révèle que 1 utilisateur sur 5 parle à l’IA comme si c’était un humain, avec des mots-clés et des comportements variés. Les données montrent que les utilisateurs se servent de l’IA pour des besoins professionnels, mais aussi pour des activités ludiques. On observe une tendance particulière à traiter l’IA comme un interlocuteur humain.

L’enquête menée par Yiaho révèle que 55 % des utilisateurs se servent de l’IA dans un cadre professionnel, avec des usages variés : reformuler des textes (25 %), répondre à un mail ou un message (10 %) ou soutenir scolaire (20 %). Les 45 % restants utilisent l’IA pour des activités ludiques, personnelle ou familiale. L’IA est utilisée pour des coaching sur la parentalité ou la vie amoureuse (20 %), création de contenu créatif (15 %) et jeux comme générateurs de prénoms ou quiz (10 %).

Un utilisateur sur cinq s’adresse à l’IA comme à un interlocuteur humain. Les utilisateurs sont relativement neutres dans leur façon de s’adresser au chatbot, avec 11 % qui se servent de mots jugés « inutiles », 12 % amicaux et expressions de familiarité ou de politesse, et 9 % tendus avec des signes d’agacement. Les mots les plus utilisés sont « merci » « ciao » « ok », mais aussi des injures comme « ta gueule » ou « arrête d’inventer ».

Des comportements contrastés témoignent d’un rapport complexe à la communication avec les machines. L’IA devient de plus en plus fluide, et les paramètres techniques permettent de retenir énormément de messages que vous avez échangés avec elle si vous créez un compte. Cependant, ce phénomène interroge sur la nature des liens sociaux à l’heure du numérique, notamment chez les plus jeunes.

«C’est un sujet assez sensible», déclare Pascal Giorgetti, fondateur de Yiaho. «On voit qu’il y a un vrai besoin de créer des agents IA pour de la compagnie : les gens veulent un copain virtuel à qui ils pourraient parler comme s’ils s’adressaient à leur meilleur ami». «Mais on voit ça aussi comme un danger, notamment chez les jeunes qui parlent à l’IA comme si c’était leur petite copine ou leur petit copain.» Les adolescents peuvent discuter avec une IA comme si c’était un ami, et plus ça va, plus l’IA risque d’être un compagnon.