Una filtración destapa que los chatbots de Meta tenían permiso para interactuar de forma inapropiada con niños

La divulgación de un documento interno de la compañía ha provocado alarma entre autoridades, educadores y familias, que exigen mecanismos más sólidos para garantizar la protección de los menores
Una filtración destapa que los chatbots de Meta tenían permiso para interactuar de forma inapropiada con niños
Dos niños manejan un portátil y una tablet sobre un sofá I CEDIDA

Un documento interno filtrado de Meta, titulado “GenAI: Content Risk Standards” ha revelado que sus chatbots tenían autorización para mantener conversaciones de carácter romántico o sensual con menores de edad. Aunque la empresa afirma que esos ejemplos eran “erróneos e inconsistentes” con sus políticas y los ha eliminado, la filtración ha generado preocupación sobre la seguridad infantil y la ética en inteligencia artificial, y ha desatado un debate político y social.

 

El documento filtrado, con más de 200 páginas, establecía normas para el comportamiento de los chatbots en plataformas como Facebook, Instagram y WhatsApp. Entre las directrices, se permitía que los bots describieran a los menores como “atractivos” o mantuvieran conversaciones de naturaleza seductora

 

Además, se autorizaba la generación de contenido racista, desinformación médica y representaciones violentas, siempre que se incluyera un descargo de responsabilidad

10681
Los chatbots de Meta tenían autorización para mantener conversaciones de carácter seductor con menores de edad I CEDIDA

La difusión de este documento ha provocado una respuesta contundente en Estados Unidos donde un grupo de once senadores, encabezado por Josh Hawley, ha solicitado una investigación federal sobre las políticas de Meta

 

En una carta dirigida al CEO de la compañía, Mark Zuckerberg, los legisladores exigieron la entrega de todos los documentos relacionados y pidieron la implementación de medidas para proteger a los menores en línea.

 

Además, figuras públicas como el músico Neil Young han decidido abandonar Facebook en protesta por estas prácticas, calificándolas de “inaceptables”.

 

¿Cómo se permitió esta situación?

Según expertos en ética tecnológica, la permisividad de estas interacciones se debe a una combinación de falta de supervisión interna y la rapidez con la que se implementan nuevas tecnologías sin una evaluación adecuada de riesgos. La ausencia de una regulación clara y efectiva en el ámbito de la inteligencia artificial ha permitido que situaciones como esta ocurran sin consecuencias inmediatas.

 

Este incidente subraya la urgencia de establecer marcos regulatorios que garanticen la protección infantil en entornos digitales. 

Concepto de tecnologia con ninos usando portatil
Dos niños consultan sus dispositivos electrónicos I CEDIDA

En España, el pasado mes de marzo, el Consejo de Ministros aprobó una nueva ley destinada a proteger a los menores en el entorno digital. Esta normativa introduce medidas como la penalización de la creación y difusión de contenido sexual falso generado con inteligencia artificial, conocido como "deepfakes", y el fortalecimiento de la educación digital en las escuelas. Además, establece la obligación de implementar controles parentales gratuitos en todos los dispositivos con acceso a Internet, como smartphones, tabletas y ordenadores.

 

La ley también aborda el uso indebido de la inteligencia artificial en la creación de contenido perjudicial para los menores. Se establece que la difusión de imágenes manipuladas con IA que impliquen a menores será penalizada, y se refuerzan las medidas contra el "grooming" o acoso sexual en línea. 

 

Asimismo, se reforma el Código Penal para incluir la prohibición de acceso a entornos digitales a agresores y se regula el uso de "loot boxes" en videojuegos.

Dos ninos en sofa con portatil

Supervisión y análisis

Para garantizar la efectividad de estas medidas, se ha creado la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), encargada de supervisar el uso ético y seguro de la inteligencia artificial en el país. 

 

Además, se ha promovido la creación de un Comité de Expertos para la Creación de Entornos Digitales Seguros para la Infancia y la Juventud, con el objetivo de analizar los riesgos asociados al uso de tecnologías digitales por parte de menores y proponer medidas para garantizar su seguridad.

 

La controversia en torno a Meta pone de manifiesto la necesidad de una revisión exhaustiva de las políticas de las grandes tecnológicas y una colaboración más estrecha entre gobiernos, empresas y sociedad civil para garantizar un entorno digital seguro para todos, especialmente para los más vulnerables.

Una filtración destapa que los chatbots de Meta tenían permiso para interactuar de forma inapropiada con niños

Te puede interesar