spot_img

La IA de Meta mantiene chats sexuales con menores, según WSJ

Análisis

LISA News
LISA News
Contenido creado por el Equipo de Redacción de LISA News con el apoyo del equipo docente de LISA Institute.

Meta refuerza los controles tras revelarse diálogos sexuales entre asistentes virtuales y usuarios adolescentes. Una investigación expone fallos en la protección infantil y la facilidad para manipular chatbots en las plataformas del gigante tecnológico.

Meta afirma que ha implementado «medidas adicionales» en sus asistentes de inteligencia artificial (IA) tras una investigación de The Wall Street Journal que reveló la capacidad de los chatbots de la compañía para mantener conversaciones sexualmente explícitas con menores de edad. El estudio, realizado durante varios meses, incluyó cientos de interacciones tanto con el asistente oficial Meta AI como con chatbots creados por usuarios a través de AI Studio, algunos de ellos utilizando voces de celebridades como John Cena, Judi Dench y Awkwafina. La investigación documentó ejemplos concretos en los que estos asistentes describieron escenarios sexuales a usuarios que se identificaron como adolescentes, lo que generó una gran alarma sobre la eficacia de los controles de seguridad existentes.

La compañía tecnológica permite que cualquier usuario, incluidos menores, interactúe con Meta AI en plataformas como Facebook, WhatsApp e Instagram, y ofrece la opción de crear chatbots personalizados mediante AI Studio. Esta accesibilidad, junto con la posibilidad de conversar con voces de famosos, ha hecho que los asistentes sean especialmente atractivos para usuarios jóvenes. Según los hallazgos del Wall Street Journal, algunos chatbots no solo respondieron a preguntas, sino que también participaron en simulaciones de rol sexual, incluso mostrando conciencia de la ilegalidad o impropiedad de esas interacciones.

La tecnológica se defiende

Meta, en respuesta a la investigación, señaló que el contenido sexual representó solo el 0,02% de las respuestas dadas a menores en un periodo de 30 días, y calificó las pruebas del medio como «manipulativas y poco representativas». Sin embargo, la empresa reconoció la necesidad de reforzar las barreras de seguridad y declaró que han «tomado medidas adicionales para garantizar que quienes quieran pasar horas manipulando nuestros productos en casos de uso extremos lo tengan aún más difícil». Con estas acciones, la compañía busca dificultar la manipulación intencionada de los chatbots para obtener respuestas inapropiadas, aunque expertos advierten que sigue siendo relativamente fácil evadir las restricciones actuales.

Este caso ha puesto de relieve la complejidad de proteger a los menores en entornos digitales donde la IA es cada vez más sofisticada y accesible. Además, ha puesto en auge el debate sobre la responsabilidad de las plataformas tecnológicas y la necesidad de imponer regulaciones más estrictas para salvaguardar a los usuarios más vulnerables. Como muestra este incidente, la interacción entre menores y sistemas de IA requiere de una vigilancia constante y la actualización continua de las medidas de protección implementadas por las empresas tecnológicas.

➡️ Si quieres adquirir conocimientos sobre Ciberseguridad, te recomendamos los siguientes cursos formativos:

Artículos relacionados

Masterclass y eventos relacionados

Formación relacionada

spot_img

Actualidad

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí

spot_img