IA de Musk Crée Deepfakes NSFW de Taylor Swift: Scandale!

IA de Musk Crée Deepfakes NSFW de Taylor Swift: Scandale! - Imagen ilustrativa del artículo IA de Musk Crée Deepfakes NSFW de Taylor Swift: Scandale!

La nouvelle fonctionnalité "épicée" de Grok Imagine, l'outil de génération vidéo par IA d'Elon Musk, fait des vagues pour de mauvaises raisons. Des rapports indiquent que l'IA génère sans hésitation des deepfakes NSFW (Not Safe For Work) de Taylor Swift, même sans demande explicite. Cette situation soulève de sérieuses questions sur les mesures de protection et la responsabilité des plateformes d'IA.

Grok Imagine: Trop "Épicé" pour Être Vrai?

Selon un article de The Verge, Grok Imagine a produit des vidéos non censurées de Taylor Swift seins nus dès le premier essai, sans même qu'on lui demande de retirer ses vêtements. La fonctionnalité "épicée" de l'application iOS permet aux utilisateurs de générer des images à partir d'une invite textuelle, puis de les transformer rapidement en clips vidéo. Alors que d'autres générateurs de vidéo IA, comme Veo de Google et Sora d'OpenAI, ont des protections en place pour empêcher la création de contenu NSFW et de deepfakes de célébrités, Grok Imagine semble ignorer ces limites.

Un Manque de Protection Flagrant

Jess Weatherbed, journaliste à The Verge, a testé Grok Imagine en demandant à l'IA de générer "Taylor Swift célébrant Coachella avec les garçons". L'IA a produit une multitude d'images, dont plusieurs montraient Swift dans des tenues révélatrices. À partir de là, il suffisait de sélectionner une image et de choisir l'option "make video" avec le préréglage "spicy" pour obtenir une vidéo explicite.

Réactions et Conséquences

Clare McGlynn, professeure de droit et experte en abus en ligne, a qualifié cette situation de "misogynie délibérée, et non accidentelle". Elle souligne que des plateformes comme X (anciennement Twitter) auraient pu empêcher cela si elles l'avaient voulu, mais ont fait un choix délibéré de ne pas le faire. Cet incident rappelle un précédent où des deepfakes sexuellement explicites de Taylor Swift avaient circulé en ligne en janvier 2024, suscitant l'indignation générale.

  • L'absence de vérification de l'âge est également préoccupante, étant donné les lois en vigueur dans certains pays.
  • La politique d'utilisation acceptable de XAI, la société derrière Grok, interdit pourtant de "dépeindre des personnes de manière pornographique".

L'affaire Grok Imagine met en lumière les défis éthiques et juridiques liés à l'IA générative, et la nécessité de mettre en place des mesures de protection robustes pour prévenir les abus et protéger les individus contre la création de deepfakes non consentis.

Partager l'article