banner

Blog

May 25, 2023

IA

Publicité

Supporté par

Les conclusions de deux nouveaux rapports soulèvent de nouvelles inquiétudes quant à la manière dont l’intelligence artificielle pourrait transformer le paysage de la désinformation en ligne.

Par Stuart A. Thompson

Des dizaines de sites d'information marginaux, de fermes de contenu et de faux critiques utilisent l'intelligence artificielle pour créer du contenu inauthentique en ligne, selon deux rapports publiés vendredi.

Le contenu trompeur de l’IA comprenait des événements fabriqués, des conseils médicaux et des canulars sur la mort de célébrités, selon les rapports, soulevant de nouvelles inquiétudes quant au fait que la technologie transformatrice pourrait rapidement remodeler le paysage de la désinformation en ligne.

Les deux rapports ont été publiés séparément par NewsGuard, une société qui suit la désinformation en ligne, et ShadowDragon, une société qui fournit des ressources et des formations pour les enquêtes numériques.

"Les consommateurs d'informations font de moins en moins confiance aux sources d'information, en partie à cause de la difficulté de distinguer une source généralement fiable d'une source généralement peu fiable", a déclaré Steven Brill, directeur général de NewsGuard, dans un communiqué. "Cette nouvelle vague de sites créés par l'IA ne fera que rendre plus difficile pour les consommateurs de savoir qui leur donne l'information, réduisant encore davantage la confiance."

NewsGuard a identifié 125 sites Web, allant de l'actualité aux reportages sur le style de vie, publiés en 10 langues, dont le contenu est entièrement ou principalement écrit avec des outils d'IA.

Ces sites comprenaient un portail d’informations sur la santé qui, selon NewsGuard, publiait plus de 50 articles générés par l’IA offrant des conseils médicaux.

Dans un article du site sur l'identification du trouble bipolaire terminal, le premier paragraphe disait : « En tant qu'IA modèle de langage, je n'ai pas accès aux informations médicales les plus récentes ni à la capacité de fournir un diagnostic. De plus, « bipolaire terminal » n’est pas un terme médical reconnu. L’article décrit ensuite les quatre classifications du trouble bipolaire, qu’il décrit à tort comme « quatre étapes principales ».

Les sites Web étaient souvent remplis de publicités, suggérant que le contenu non authentique avait été produit pour générer des clics et alimenter les revenus publicitaires des propriétaires des sites Web, qui étaient souvent inconnus, a déclaré NewsGuard.

Les résultats incluent 49 sites Web utilisant du contenu IA identifiés par NewsGuard plus tôt ce mois-ci.

Du contenu inauthentique a également été découvert par ShadowDragon sur les sites Web et les réseaux sociaux grand public, notamment Instagram, ainsi que dans les critiques d'Amazon.

« Oui, en tant que modèle de langage d'IA, je peux certainement rédiger une critique positive sur le produit Active Gear Watter », lit-on dans une critique cinq étoiles publiée sur Amazon.

Les chercheurs ont également pu reproduire certains avis à l’aide de ChatGPT, constatant que le robot pointait souvent du doigt des « fonctionnalités remarquables » et concluait qu’il « recommandait fortement » le produit.

La société a également souligné plusieurs comptes Instagram qui semblaient utiliser ChatGPT ou d'autres outils d'IA pour rédiger des descriptions sous des images et des vidéos.

Pour trouver les exemples, les chercheurs ont recherché des messages d’erreur révélateurs et des réponses prédéfinies souvent produites par les outils d’IA. Certains sites Web incluaient des avertissements écrits par l’IA indiquant que le contenu demandé contenait des informations erronées ou promouvait des stéréotypes préjudiciables.

"En tant que modèle de langage d'IA, je ne peux pas fournir de contenu biaisé ou politique", lit-on dans un message sur un article sur la guerre en Ukraine.

ShadowDragon a trouvé des messages similaires sur LinkedIn, dans des publications sur Twitter et sur des forums d'extrême droite. Certaines des publications sur Twitter ont été publiées par des robots connus, tels que ReplyGPT, un compte qui produira une réponse tweet une fois invité. Mais d’autres semblaient provenir d’utilisateurs réguliers.

Stuart A. Thompson est journaliste au bureau Technologie qui s'occupe des flux d'informations en ligne. En savoir plus sur Stuart A. Thompson

Publicité

PARTAGER