Un documento interno filtrado de Meta, titulado “GenAI: Content Risk Standards” ha revelado que sus chatbots tenían autorización para mantener conversaciones de carácter romántico o sensual con menores de edad. Aunque la empresa afirma que esos ejemplos eran “erróneos e inconsistentes” con sus políticas y los ha eliminado, la filtración ha generado preocupación sobre la seguridad infantil y la ética en inteligencia artificial, y ha desatado un debate político y social.
El documento filtrado, con más de 200 páginas, establecía normas para el comportamiento de los chatbots en plataformas como Facebook, Instagram y WhatsApp. Entre las directrices, se permitía que los bots describieran a los menores como “atractivos” o mantuvieran conversaciones de naturaleza seductora.
Además, se autorizaba la generación de contenido racista, desinformación médica y representaciones violentas, siempre que se incluyera un descargo de responsabilidad.
La difusión de este documento ha provocado una respuesta contundente en Estados Unidos donde un grupo de once senadores, encabezado por Josh Hawley, ha solicitado una investigación federal sobre las políticas de Meta.
En una carta dirigida al CEO de la compañía, Mark Zuckerberg, los legisladores exigieron la entrega de todos los documentos relacionados y pidieron la implementación de medidas para proteger a los menores en línea.
Además, figuras públicas como el músico Neil Young han decidido abandonar Facebook en protesta por estas prácticas, calificándolas de “inaceptables”.
Según expertos en ética tecnológica, la permisividad de estas interacciones se debe a una combinación de falta de supervisión interna y la rapidez con la que se implementan nuevas tecnologías sin una evaluación adecuada de riesgos. La ausencia de una regulación clara y efectiva en el ámbito de la inteligencia artificial ha permitido que situaciones como esta ocurran sin consecuencias inmediatas.
Este incidente subraya la urgencia de establecer marcos regulatorios que garanticen la protección infantil en entornos digitales.
En España, el pasado mes de marzo, el Consejo de Ministros aprobó una nueva ley destinada a proteger a los menores en el entorno digital. Esta normativa introduce medidas como la penalización de la creación y difusión de contenido sexual falso generado con inteligencia artificial, conocido como "deepfakes", y el fortalecimiento de la educación digital en las escuelas. Además, establece la obligación de implementar controles parentales gratuitos en todos los dispositivos con acceso a Internet, como smartphones, tabletas y ordenadores.
La ley también aborda el uso indebido de la inteligencia artificial en la creación de contenido perjudicial para los menores. Se establece que la difusión de imágenes manipuladas con IA que impliquen a menores será penalizada, y se refuerzan las medidas contra el "grooming" o acoso sexual en línea.
Asimismo, se reforma el Código Penal para incluir la prohibición de acceso a entornos digitales a agresores y se regula el uso de "loot boxes" en videojuegos.
Para garantizar la efectividad de estas medidas, se ha creado la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), encargada de supervisar el uso ético y seguro de la inteligencia artificial en el país.
Además, se ha promovido la creación de un Comité de Expertos para la Creación de Entornos Digitales Seguros para la Infancia y la Juventud, con el objetivo de analizar los riesgos asociados al uso de tecnologías digitales por parte de menores y proponer medidas para garantizar su seguridad.
La controversia en torno a Meta pone de manifiesto la necesidad de una revisión exhaustiva de las políticas de las grandes tecnológicas y una colaboración más estrecha entre gobiernos, empresas y sociedad civil para garantizar un entorno digital seguro para todos, especialmente para los más vulnerables.