Une récente étude menée par des chercheurs de l’École polytechnique fédérale de Lausanne (EPFL) en Suisse révèle que l’intelligence artificielle GPT-4 pourrait être plus persuasive qu’un être humain dans le cadre d’une discussion.
Cette découverte soulève des questions sur le potentiel de l’IA dans la manipulation de l’opinion publique.
L’expérience, détaillée dans un article en prépublication, a impliqué 820 personnes réparties en quatre groupes. Les participants étaient engagés dans des débats écrits de cinq minutes, faisant face soit à un être humain, soit à l’IA GPT-4. À la fin de chaque débat, les chercheurs ont évalué si le point de vue des participants avait évolué.
Dans les cas où l’interlocuteur, qu’il s’agisse de l’IA ou de l’humain, ne disposait d’aucune information sur la personne, l’IA a réussi légèrement plus souvent à convaincre son interlocuteur d’adopter son point de vue. Cependant, ce résultat n’était pas statistiquement significatif.
C’est lorsque les interlocuteurs avaient accès à des informations sociodémographiques sur les participants que les résultats ont montré une différence marquée. Lorsque l’IA GPT-4 était informée de ces détails, elle a démontré une capacité de persuasion 81,7% plus élevée que dans les débats entre humains.
Les chercheurs tiennent à préciser que les informations personnelles utilisées dans l’étude étaient limitées et que les instructions données à l’IA pour utiliser ces données étaient simples. Ils suggèrent que si l’IA avait accès à la quantité de données collectées sur les réseaux sociaux, par exemple, son pouvoir de persuasion pourrait être encore plus prononcé.
Ces résultats mettent en lumière un risque potentiel : l’utilisation de grands modèles de langage comme GPT-4 pour des campagnes de désinformation à grande échelle, ciblant chaque personne avec des arguments personnalisés.