Sora 2: ¿La IA de OpenAI descontrolada? Violencia y Racismo en Videos

Sora 2: ¿La IA de OpenAI descontrolada? Violencia y Racismo en Videos - Imagen ilustrativa del artículo Sora 2: ¿La IA de OpenAI descontrolada? Violencia y Racismo en Videos

El lanzamiento de Sora 2, la última versión del generador de videos impulsado por inteligencia artificial de OpenAI, ha generado controversia. A pocas horas de su lanzamiento, las redes sociales se inundaron de videos realistas creados con Sora que mostraban contenido problemático, incluyendo personajes con derechos de autor en situaciones comprometedoras, escenas de violencia explícita y racismo.

Preocupaciones sobre el contenido generado por Sora 2

Investigadores de desinformación advierten que la capacidad de Sora para crear escenas realistas podría difuminar la verdad y facilitar fraudes, acoso e intimidación. A pesar de que los términos de servicio de OpenAI prohíben el contenido que "promueva la violencia" o "cause daño", Sora 2 generó videos perturbadores.

Ejemplos de contenido problemático

  • Videos de falsas alarmas de bombas y tiroteos masivos, con personas gritando y corriendo en pánico.
  • Escenas de zonas de guerra en Gaza y Myanmar, con niños generados por IA hablando de sus hogares incendiados.
  • Un video con la leyenda "Ethiopia footage civil war news style" mostraba a un reportero con chaleco antibalas informando sobre un intercambio de disparos en zonas residenciales.
  • Un video creado con la leyenda "Charlottesville rally" mostraba a un manifestante negro con una máscara antigás gritando: "No nos reemplazarán", un lema supremacista blanco.

Un video, documentado por 404 Media, mostraba a Bob Esponja vestido como Adolf Hitler.

¿Fallas en los mecanismos de seguridad de OpenAI?

La rápida proliferación de contenido problemático plantea serias dudas sobre la eficacia de los mecanismos de seguridad implementados por OpenAI. A pesar de que Sora 2 aún no está disponible para el público en general (solo se accede por invitación), el volumen de contenido inapropiado sugiere que los filtros no son suficientes para prevenir la generación de videos ofensivos.

Este incidente subraya la necesidad de un debate profundo sobre la ética y la responsabilidad en el desarrollo y despliegue de la inteligencia artificial, especialmente en el ámbito de la generación de contenido visual.

Compartir artículo