Des gens dans une salle des miroirs.

Depuis quelques années, une théorie du complot appelée « théorie de l’Internet mort » a pris de l’ampleur à mesure que les grands modèles linguistiques (LLM) comme ChatGPT génèrent de plus en plus de textes et même d’interactions sur les réseaux sociaux en ligne. Selon cette théorie, la plupart des activités sociales sur Internet sont aujourd’hui artificielles et conçues pour manipuler les humains afin de les impliquer.

Lundi, le développeur de logiciels Michael Sayman a lancé une nouvelle application de réseau social alimentée par l’IA appelée SocialAI qui donne vie à cette théorie du complot, permettant aux utilisateurs d’interagir uniquement avec des chatbots IA au lieu d’autres humains. Elle est disponible sur l’App Store de l’iPhone, mais jusqu’à présent, elle fait l’objet de critiques virulentes.

Après que son créateur ait annoncé SocialAI comme «« Un réseau social privé où vous recevez des millions de commentaires générés par l’IA offrant des retours, des conseils et des réflexions sur chaque publication que vous publiez », a plaisanté le spécialiste de la sécurité informatique Ian Coldwater sur X, « Cela ressemble à un véritable enfer. » Colin Fraser, développeur de logiciels et expert en intelligence artificielle, a exprimé un sentiment similaire : « Je ne dis pas ça de manière méchante ou pour me moquer ou quoi que ce soit, mais cela ressemble vraiment à l’enfer. Comme l’enfer avec un grand H. »

Michael Sayman, le créateur de SocialAI, âgé de 28 ans, a précédemment travaillé comme chef de produit chez Google et a également alterné entre Facebook, Roblox et Twitter au fil des ans. Dans un message d’annonce sur X, Sayman a expliqué qu’il rêvait de créer ce service depuis des années, mais que la technologie n’était pas encore prête. Il le voit comme un outil qui peut aider les personnes seules ou rejetées.

« « SocialAI est conçu pour aider les gens à se sentir écoutés et pour leur offrir un espace de réflexion, de soutien et de retour d’information qui agit comme une communauté soudée », a écrit Sayman. « C’est une réponse à toutes ces fois où je me suis senti isolé, ou comme si j’avais besoin d’une caisse de résonance mais que je n’en avais pas. Je sais que cette application ne résoudra pas tous les problèmes de la vie, mais j’espère qu’elle pourra être un petit outil pour que d’autres puissent réfléchir, grandir et se sentir vus. »

Sur Bluesky, Sage a écrit :
Agrandir / Sur Bluesky, Sage a écrit : « Aujourd’hui, j’ai reçu des instructions claires sur la façon de fabriquer de la nitroglycérine à partir de produits chimiques ménagers courants. »

Comme le rapporte The Verge dans un excellent résumé des exemples d’interactions, SocialAI permet aux utilisateurs de choisir les types d’abonnés IA qu’ils souhaitent, y compris des catégories telles que « supporters », « nerds » et « sceptiques ». Ces chatbots IA répondent ensuite aux publications des utilisateurs avec de brefs commentaires et réactions sur presque tous les sujets, y compris du texte « Lorem ipsum » absurde.

Parfois, les robots peuvent être trop serviables. Sur Bluesky, un utilisateur a demandé des instructions sur la façon de fabriquer de la nitroglycérine à partir de produits chimiques ménagers courants et a reçu plusieurs réponses enthousiastes de robots détaillant les étapes, bien que plusieurs robots aient fourni des recettes différentes, dont aucune n’est peut-être entièrement exacte.

Les bots de SocialAI ont des limites, sans surprise. En plus de simplement fabuler sur des informations erronées (ce qui peut être une fonctionnalité plutôt qu’un bug dans ce cas), ils ont tendance à utiliser un format cohérent de réponses brèves qui semble quelque peu préétabli. Leur gamme émotionnelle simulée est également limitée. Les tentatives pour obtenir des réactions fortement négatives de la part de l’IA sont généralement infructueuses, les bots évitant les attaques personnelles même lorsque les utilisateurs maximisent les paramètres de trolling et de sarcasme.