Vídeos racistas generados por IA con Veo 3 de Google causan una ola de indignación en TikTok

Ambas plataformas se enfrentan a duras críticas por su falta de control ante el auge del contenido tóxico generado por inteligencia artificial que se comparte de forma masiva
Vídeos racistas generados por IA con Veo 3 de Google causan una ola de indignación en TikTok
Jóvenes consultan sus teléfonos móviles I CEDIDA

En los últimos días, una oleada de vídeos creados mediante inteligencia artificial ha causado gran controversia en TikTok y otras plataformas sociales. Se trata de contenidos abiertamente racistas, con millones de visualizaciones, generados con la herramienta de Google Veo 3, que permite crear clips hiperrealistas a partir de texto. Los vídeos reproducen estereotipos ofensivos y caricaturas deshumanizantes, especialmente dirigidas contra personas negras.

 

¿Qué es Veo 3 y cómo se generaron los vídeos?

Lanzada en mayo de 2025, Veo 3 es una IA generativa de Google capaz de producir vídeos de hasta ocho segundos a partir de indicaciones textuales. 

 

 

Promocionada como una herramienta “responsable” y con filtros integrados para evitar abusos, Veo también incluye marcas de agua invisibles (SynthID) para identificar sus creaciones. Sin embargo, esos mecanismos han sido insuficientes.

 

Según organizaciones como Media Matters y medios como Wired y The Verge, numerosos usuarios han conseguido burlar los filtros de seguridad de Veo y generar clips profundamente ofensivos. Los vídeos incluyen representaciones racistas que retratan a personas negras como simios, monstruos, delincuentes o figuras de “bigfoot”, muchas veces vinculadas con comida basura, violencia o lenguaje vulgar.

 

Uno de los vídeos más vistos acumuló más de 14 millones de visualizaciones en TikTok, acompañado de hashtags como #Veo3, #AI o #monkeydrives. Además, algunos creadores incluso venden tutoriales para replicar el contenido, monetizando el odio.

 

Sesgo algorítmico y amplificación viral

Expertas como Meredith Broussard (Universidad de Nueva York) y Nicol Turner Lee (Brookings Institution) advierten de que estos vídeos evocan prácticas históricas de deshumanización, como los "minstrel shows" del siglo XIX. Es decir, la IA estaría replicando patrones racistas de siglos pasados, ahora con una escala y velocidad sin precedentes.

Collabstr 0Vk7HEjWLDE unsplash

El problema no es solo la creación de contenido ofensivo, sino la forma en que los algoritmos de plataformas como TikTok e Instagram amplifican ese contenido, empujándolo hacia más usuarios debido a su carácter provocador y viral. Investigadores advierten que esto crea un ciclo de retroalimentación donde el odio es recompensado con atención.

 

¿Qué dicen Google y TikTok?

TikTok asegura haber eliminado varias cuentas asociadas con estos vídeos, incluso antes de que se hicieran públicos los reportes. Su política de contenido prohíbe “estereotipos negativos sobre grupos protegidos”. Sin embargo, las denuncias persisten: muchos de los vídeos reaparecen en nuevas cuentas o circulan en otras plataformas como YouTube o Instagram.

 

Por su parte, Google aún no ha emitido una respuesta pública detallada. Aunque Veo 3 incluye medidas de seguridad, como el bloqueo de ciertos prompts y marcas de agua digitales, no existe aún una herramienta pública de detección para comprobar fácilmente si un vídeo fue creado con esta IA. Además, los vídeos pueden ser recortados para eliminar la marca visible que incluiría el logo de Veo.

 

¿Qué se puede hacer?

El escándalo ha desatado un llamamiento urgente a reforzar las salvaguardas éticas en la creación de contenido con IA. Las propuestas incluyen:

 

  • Filtrado contextual más robusto: no basta con bloquear palabras clave; se requiere una IA capaz de detectar simbolismos racistas y combinaciones ofensivas de imagen, texto y audio.

 

  • Visibilidad obligatoria de marca de origen: marcas de agua que no puedan eliminarse fácilmente, y detectores públicos para plataformas y usuarios.

 

  • Moderación proactiva de plataformas: eliminación sistemática de contenido repetitivo, penalización a quienes lucran con tutoriales para eludir filtros, y revisión manual de contenidos sospechosos.

 

  • Regulación global del contenido generado por IA: con mecanismos legales claros para exigir transparencia, responsabilidad civil y auditorías éticas.

 

Señal de alerta global

El caso Veo 3 no es un hecho aislado. Desde la difusión de deepfakes sobre conflictos bélicos hasta vídeos falsos de eventos políticos, las herramientas de IA generativa se han convertido en armas potenciales de manipulación masiva, muchas veces bajo la apariencia de entretenimiento. 

 

Si estas tecnologías no se controlan de forma adecuada, corren el riesgo de institucionalizar formas automatizadas de discriminación y desinformación.

Grupo de personas con citas de lucha contra el racismo

Lo que comenzó como una innovación en la creación de contenido audiovisual ha derivado en una pesadilla ética. La inteligencia artificial sin filtros, responsabilidad ni supervisión, se convierte en el espejo de los peores sesgos de la sociedad. 

 

El reto ahora es claro: regular, educar y construir tecnología que no solo sea poderosa, sino también justa.

Vídeos racistas generados por IA con Veo 3 de Google causan una ola de indignación en TikTok

Te puede interesar