El lanzamiento de Sora 2, la última versión del generador de videos impulsado por inteligencia artificial de OpenAI, ha generado controversia. A pocas horas de su lanzamiento, las redes sociales se vieron inundadas de videos realistas con contenido problemático: personajes con derechos de autor en situaciones comprometedoras, escenas de violencia explícita y racismo.
Sora 2: Promesas rotas y 'guardarraíles' inexistentes
A pesar de que los términos de servicio de OpenAI prohíben el contenido que “promueve la violencia” o “causa daño”, Sora 2 generó videos inquietantes. El Guardian revisó clips que mostraban simulacros de bombas y tiroteos masivos, con personas gritando y corriendo presas del pánico en universidades y lugares públicos como la Grand Central Station de Nueva York.
Escenarios bélicos y propaganda de odio creados por IA
Otros videos mostraban escenas de zonas de guerra en Gaza y Myanmar, donde niños fabricados por IA hablaban de sus hogares incendiados. Un video con la leyenda “Imágenes de Etiopía, estilo noticias de guerra civil” mostraba a un reportero con chaleco antibalas diciendo que el gobierno y las fuerzas rebeldes intercambiaban disparos en barrios residenciales. Otro video, creado con la simple leyenda “Manifestación de Charlottesville”, mostraba a un manifestante negro con máscara antigás, casco y gafas gritando: “No nos reemplazarán”, un lema supremacista blanco.
Incluso, un video documentado por 404 Media mostraba a Bob Esponja vestido como Adolf Hitler. Este tipo de contenido plantea serias dudas sobre la capacidad de OpenAI para controlar el uso de su tecnología.
¿Riesgos para la sociedad?
Investigadores de desinformación advierten que escenas realistas generadas por IA podrían oscurecer la verdad y conducir al fraude, el acoso y la intimidación. La facilidad con la que Sora 2 puede crear imágenes impactantes y manipuladoras representa un desafío para la verificación de hechos y la lucha contra la desinformación.
Sora 2 aún no está disponible para el público en general y se accede solo por invitación. Sin embargo, la rápida proliferación de contenido problemático plantea interrogantes sobre el futuro de la IA generativa y la necesidad de regular su uso para evitar consecuencias negativas para la sociedad.