En los últimos días, una oleada de vídeos creados mediante inteligencia artificial ha causado gran controversia en TikTok y otras plataformas sociales. Se trata de contenidos abiertamente racistas, con millones de visualizaciones, generados con la herramienta de Google Veo 3, que permite crear clips hiperrealistas a partir de texto. Los vídeos reproducen estereotipos ofensivos y caricaturas deshumanizantes, especialmente dirigidas contra personas negras.
Lanzada en mayo de 2025, Veo 3 es una IA generativa de Google capaz de producir vídeos de hasta ocho segundos a partir de indicaciones textuales.
Promocionada como una herramienta “responsable” y con filtros integrados para evitar abusos, Veo también incluye marcas de agua invisibles (SynthID) para identificar sus creaciones. Sin embargo, esos mecanismos han sido insuficientes.
Según organizaciones como Media Matters y medios como Wired y The Verge, numerosos usuarios han conseguido burlar los filtros de seguridad de Veo y generar clips profundamente ofensivos. Los vídeos incluyen representaciones racistas que retratan a personas negras como simios, monstruos, delincuentes o figuras de “bigfoot”, muchas veces vinculadas con comida basura, violencia o lenguaje vulgar.
Uno de los vídeos más vistos acumuló más de 14 millones de visualizaciones en TikTok, acompañado de hashtags como #Veo3, #AI o #monkeydrives. Además, algunos creadores incluso venden tutoriales para replicar el contenido, monetizando el odio.
Expertas como Meredith Broussard (Universidad de Nueva York) y Nicol Turner Lee (Brookings Institution) advierten de que estos vídeos evocan prácticas históricas de deshumanización, como los "minstrel shows" del siglo XIX. Es decir, la IA estaría replicando patrones racistas de siglos pasados, ahora con una escala y velocidad sin precedentes.
El problema no es solo la creación de contenido ofensivo, sino la forma en que los algoritmos de plataformas como TikTok e Instagram amplifican ese contenido, empujándolo hacia más usuarios debido a su carácter provocador y viral. Investigadores advierten que esto crea un ciclo de retroalimentación donde el odio es recompensado con atención.
TikTok asegura haber eliminado varias cuentas asociadas con estos vídeos, incluso antes de que se hicieran públicos los reportes. Su política de contenido prohíbe “estereotipos negativos sobre grupos protegidos”. Sin embargo, las denuncias persisten: muchos de los vídeos reaparecen en nuevas cuentas o circulan en otras plataformas como YouTube o Instagram.
Por su parte, Google aún no ha emitido una respuesta pública detallada. Aunque Veo 3 incluye medidas de seguridad, como el bloqueo de ciertos prompts y marcas de agua digitales, no existe aún una herramienta pública de detección para comprobar fácilmente si un vídeo fue creado con esta IA. Además, los vídeos pueden ser recortados para eliminar la marca visible que incluiría el logo de Veo.
El escándalo ha desatado un llamamiento urgente a reforzar las salvaguardas éticas en la creación de contenido con IA. Las propuestas incluyen:
El caso Veo 3 no es un hecho aislado. Desde la difusión de deepfakes sobre conflictos bélicos hasta vídeos falsos de eventos políticos, las herramientas de IA generativa se han convertido en armas potenciales de manipulación masiva, muchas veces bajo la apariencia de entretenimiento.
Si estas tecnologías no se controlan de forma adecuada, corren el riesgo de institucionalizar formas automatizadas de discriminación y desinformación.
Lo que comenzó como una innovación en la creación de contenido audiovisual ha derivado en una pesadilla ética. La inteligencia artificial sin filtros, responsabilidad ni supervisión, se convierte en el espejo de los peores sesgos de la sociedad.
El reto ahora es claro: regular, educar y construir tecnología que no solo sea poderosa, sino también justa.