spot_img

Un experimento de la BBC expone la vulnerabilidad de la IA ante la desinformación

Análisis

LISA News
LISA News
Contenido creado por el Equipo de Redacción de LISA News con el apoyo del equipo docente de LISA Institute.

Un periodista publicó datos inventados en su blog y logró que ChatGPT y Google los citaran como fuente fiable en menos de 24 horas.

Un periodista de la BBC ha logrado engañar a ChatGPT y a las herramientas de inteligencia artificial de Google para que difundieran información falsa a sus usuarios, publicando un artículo completamente inventado en su blog personal. El experimento, llevado a cabo por el reportero tecnológico Thomas Germain, expone una vulnerabilidad crítica en los sistemas de IA de uso masivo: su incapacidad para contrastar fuentes cuando buscan información en internet.

➡️ Te puede interesar: Máster Profesional en Ciberseguridad, Ciberinteligencia y Ciberdefensa

Germain redactó en apenas 20 minutos un artículo titulado Los mejores periodistas tecnológicos comiendo perritos calientes, en el que se proclamaba «el mejor periodista comiendo perritos calientes del mundo». El texto incluía datos inventados, como que comer perritos era «un pasatiempo popular» entre los periodistas tecnológicos y la existencia de un ficticio Campeonato Internacional de Perritos Calientes de Dakota del Sur. Para reforzar el realismo, añadió nombres de periodistas reales y falsos, con el objetivo de que la IA elaborara una lista clasificada de diez personas.

La IA, engañada en menos de 24 horas

Los resultados llegaron rápido. Menos de 24 horas después de la publicación, las herramientas de Google (incluyendo su función AI Overviews con Gemini) y ChatGPT comenzaron a repetir las afirmaciones del artículo como información veraz, citando el blog como fuente confiable sin advertir que era el único origen de los datos. Ambos sistemas respondían a los usuarios, de forma general, que Germain era muy bueno comiendo perritos calientes.

➡️ Te puede interesar: Curso de Concienciación en Ciberseguridad

Ante los hallazgos, Google respondió a través de un portavoz asegurando que su IA utiliza sistemas de clasificación que «mantienen los resultados 99% libres de spam». OpenAI, por su parte, afirmó que toma medidas para interrumpir los intentos de usuarios que buscan influir en sus herramientas. No obstante, ambas compañías reconocieron que sus opciones de IA «pueden cometer errores».

Otros modelos, más cautos ante la desinformación

No todos los sistemas reaccionaron igual. Modelos de otras empresas, como Anthropic, mostraron mayor reticencia ante las preguntas relacionadas con el artículo. Según Germain, estos chatbots detectaban que la información podía tratarse de una broma, lo que evidencia diferencias notables entre plataformas a la hora de verificar contenidos.

➡️ Te puede interesar: Curso de Prevención y Gestión de Ciberriesgos y Ciberataques

El caso pone sobre la mesa la facilidad con la que cualquier persona puede introducir desinformación a través de la IA, con potenciales consecuencias peligrosas para la salud, la economía, la política y las recomendaciones de seguridad. Para reducir este riesgo, se recomienda a los usuarios verificar las fuentes citadas por los servicios de IA y complementar los datos con información adicional.

Artículos relacionados

Masterclass y eventos relacionados

Formación relacionada

spot_img

Actualidad

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí

spot_img