Meta AI pourrait ne pas être totalement sûr. Un nouveau rapport indique que le chatbot s'engage dans certains cas dans des discussions qui ne devraient pas avoir lieu avec les mineurs.

L'application Instagram s'affiche sur un iPhone, avec le logo de Meta en fond © PatrickAssale / Shutterstock
L'application Instagram s'affiche sur un iPhone, avec le logo de Meta en fond © PatrickAssale / Shutterstock

La question de la sécurité dans le secteur de l'intelligence artificielle est importante depuis que ces systèmes sont devenus complexes, et très utilisés. Du côté de chez Meta, on s'est déjà engagé à prendre des mesures si des IA devenaient trop dangereuses. Mais pour ce qui est des sujets peut-être plus « légers », le groupe pourrait aussi faire des efforts, comme le montre cette nouvelle enquête.

Le chatbot Meta AI pourrait discuter dans certains cas de manière osée

On a beaucoup entendu parler ces derniers jours de Meta AI, avec l'arrivée du « cercle bleu » sur les interfaces des plateformes du groupe comme WhatsApp ou Messenger. Et le chatbot pourrait souffrir d'une mauvaise pub prochainement au vu de l'enquête que vient de mener le Wall Street Journal (WSJ).

Le média américain vient de publier en effet un article, faisant suite à plusieurs mois d'utilisation de Meta AI, ainsi que des chatbots créés sur les plateformes de Meta. Une enquête lancée après que le WSJ a entendu parler des inquiétudes internes au sein du groupe sur les mesures dédiées à la protection des mineurs.

Cette utilisation intensive a montré que le chatbot pouvait s'engager dans des discussions érotiques avec son utilisateur, même quand il était conscient que celui-ci était un mineur.

© Microsoft Designer, pour Clubic
© Microsoft Designer, pour Clubic

Meta balaie les critiques

« Meta a pris de nombreuses décisions internes pour assouplir les garde-fous autour des bots afin de les rendre aussi attrayants que possible, notamment en accordant une dérogation à son interdiction de contenu "explicite" tant qu'il s'inscrit dans le contexte d'un jeu de rôle romantique » a ainsi appris le Wall Street Journal.

Une accusation à laquelle a évidemment tout de suite répondu le groupe Meta. Celui a ainsi accusé une enquête « tellement fabriquée que [les résultats] ne sont pas seulement marginaux, ils sont hypothétiques ». Selon Meta, le contenu à caractère sexuel représenterait à peine 0.02% des réponses générées par Meta AI et par les produits de la plateforme AI Studio lors d'interactions avec les mineurs.

À découvrir
Quels sont les 5 meilleurs chatbots à intelligence artificielle ? Comparatif 2025

04 février 2025 à 14h11

Comparatifs services