Un periodista publicó datos inventados en su blog y logró que ChatGPT y Google los citaran como fuente fiable en menos de 24 horas.
Un periodista de la BBC ha logrado engañar a ChatGPT y a las herramientas de inteligencia artificial de Google para que difundieran información falsa a sus usuarios, publicando un artículo completamente inventado en su blog personal. El experimento, llevado a cabo por el reportero tecnológico Thomas Germain, expone una vulnerabilidad crítica en los sistemas de IA de uso masivo: su incapacidad para contrastar fuentes cuando buscan información en internet.
➡️ Te puede interesar: Máster Profesional en Ciberseguridad, Ciberinteligencia y Ciberdefensa
Germain redactó en apenas 20 minutos un artículo titulado Los mejores periodistas tecnológicos comiendo perritos calientes, en el que se proclamaba «el mejor periodista comiendo perritos calientes del mundo». El texto incluía datos inventados, como que comer perritos era «un pasatiempo popular» entre los periodistas tecnológicos y la existencia de un ficticio Campeonato Internacional de Perritos Calientes de Dakota del Sur. Para reforzar el realismo, añadió nombres de periodistas reales y falsos, con el objetivo de que la IA elaborara una lista clasificada de diez personas.
La IA, engañada en menos de 24 horas
Los resultados llegaron rápido. Menos de 24 horas después de la publicación, las herramientas de Google (incluyendo su función AI Overviews con Gemini) y ChatGPT comenzaron a repetir las afirmaciones del artículo como información veraz, citando el blog como fuente confiable sin advertir que era el único origen de los datos. Ambos sistemas respondían a los usuarios, de forma general, que Germain era muy bueno comiendo perritos calientes.
➡️ Te puede interesar: Curso de Concienciación en Ciberseguridad
Ante los hallazgos, Google respondió a través de un portavoz asegurando que su IA utiliza sistemas de clasificación que «mantienen los resultados 99% libres de spam». OpenAI, por su parte, afirmó que toma medidas para interrumpir los intentos de usuarios que buscan influir en sus herramientas. No obstante, ambas compañías reconocieron que sus opciones de IA «pueden cometer errores».
Otros modelos, más cautos ante la desinformación
No todos los sistemas reaccionaron igual. Modelos de otras empresas, como Anthropic, mostraron mayor reticencia ante las preguntas relacionadas con el artículo. Según Germain, estos chatbots detectaban que la información podía tratarse de una broma, lo que evidencia diferencias notables entre plataformas a la hora de verificar contenidos.
➡️ Te puede interesar: Curso de Prevención y Gestión de Ciberriesgos y Ciberataques
El caso pone sobre la mesa la facilidad con la que cualquier persona puede introducir desinformación a través de la IA, con potenciales consecuencias peligrosas para la salud, la economía, la política y las recomendaciones de seguridad. Para reducir este riesgo, se recomienda a los usuarios verificar las fuentes citadas por los servicios de IA y complementar los datos con información adicional.
