Comment une simple publicité a transformé ces individus en symboles de la tromperie et de la conspiration !

Les mannequins numériques piégés dans des vidéos problématiques

De plus en plus d’entreprises de génération de vidéos engagent des mannequins pour créer des doubles numériques. Certains se sont par la suite retrouvés dans des vidéos problématiques à leur insu, en train de promouvoir des arnaques ou des politiciens.

Les nouvelles technologies promettent mondes et merveilles, mais l’envers du décor peut s’avérer très sombre. Certains l’ont appris à leurs dépens après avoir signé un contrat avec des agences de marketing utilisant l’intelligence artificielle, selon l’Agence France Presse. Plutôt que de choisir les produits dont ils font la promotion, ils ont découvert leur image utilisée pour des arnaques ou de la propagande.

Et nous ne parlons pas de simples images statiques. Ces personnes ont tourné devant un écran vert pendant une demi-journée, pour quelques milliers d’euros maximum. Cela peut représenter une véritable manne pour quelqu’un à court d’argent, et une économie conséquente pour une agence comparé à de véritables tournages. Les images peuvent ensuite être utilisées par l’IA pour lui faire dire tout et n’importe quoi. De véritables deepfakes, et c’est bien plus réaliste que d’utiliser un avatar généré par IA. Ces mannequins numériques sont ensuite mis à disposition des clients, qui peuvent sélectionner la personne, entrer un script et générer une vidéo en quelques clics.

Des doubles numériques qui soutiennent des arnaques et des politiciens

Un acteur nommé Simon Lee s’est ainsi retrouvé en tant que chirurgien ou gynécologue sur TikTok et Instagram en train de promouvoir de produits de santé douteux. Adam Coy, un autre acteur, a signé avec l’entreprise MCM pour un an, et ses proches l’ont par la suite découvert dans une vidéo annonçant qu’il venait du futur et listant des catastrophes à venir… Conner Yeates, lui aussi acteur, a signé avec Synthesia, un des leaders dans ce type de génération de vidéos, en 2022. Il s’est retrouvé dans des vidéos à faire la promotion d’Ibrahim Traore, le président du Burkina Faso qui a pris le pouvoir grâce à un coup d’État.

Lire aussi :  Découvrez les réflexions étonnantes d'une intelligence artificielle grâce à des chercheurs

Synthesia a déclaré avoir supprimé les comptes liés à ces vidéos et que sa politique interdit désormais la création de contenus politiques avec les modèles proposés. Toutefois, il reste tout à fait possible de générer ce genre de vidéo en fournissant son propre mannequin numérique. Et de nombreuses autres entreprises de génération de vidéos, peu scrupuleuses, surveillent beaucoup moins ce que font leurs clients. Cela montre à quel point il faut faire attention aux vidéos sur les réseaux sociaux. Les personnes peuvent être bien réelles, alors que leurs paroles ne le sont pas. Et il devient de plus en plus difficile de repérer ce genre de deepfake.

Ne ratez plus aucune information en ajoutant L’Entente à vos favoris sur Google News. Ainsi, vous contribuez à notre développement et nous aidez à continuer de vous fournir des informations de qualité. Un grand merci pour votre confiance et votre soutien !

CES ARTICLES POURRAIENT VOUS INTÉRESSER