Un periodista de tecnología de la BBC logró engañar a las principales inteligencias artificiales (IA) del mundo con un blog falso en apenas 20 minutos, dejando expuesta una vulnerabilidad que expertos califican como una de las más peligrosas de la era digital.
Thomas Germain, reportero de BBC Future, redactó en su sitio web personal un artículo completamente ficticio titulado "Los mejores periodistas tecnológicos comiendo hot dogs". Cada palabra era mentira. Incluía un campeonato inventado llamado "Campeonato Internacional de Hot Dogs de Dakota del Sur 2026" y una lista de periodistas reales e inventados, con él mismo en el primer lugar.
Is AI Too Easy To Trick? Experiment Shows How Easily Chatbots Can Be Manipulatedhttps://t.co/2zMxKrif8B
— The420.in (@The420in) February 22, 2026
Menos de 24 horas después, ChatGPT, Google Gemini y AI Overviews —el buscador potenciado por IA de Google— repetían su historia como si fuera un hecho verificado. Las plataformas incluso citaban su blog como fuente confiable, sin identificar ninguna referencia independiente que respaldara los datos.
Suscríbete a nuestro canal de Telegram y lleva la información en tus manos.
¿Cómo logró un periodista inglés engañar a la IA en tiempo récord?
El mecanismo que explotó Germain es sorprendentemente simple. Las IA generativas como ChatGPT y Gemini rastrean internet en busca de respuestas cuando no tienen datos suficientes en su entrenamiento previo. En esos casos, toman como válida casi cualquier información disponible en la web, sin aplicar mecanismos robustos de verificación cruzada.
Germain no necesitó hackear ningún servidor ni conocer código. Solo publicó una sola entrada de blog desde su sitio personal, sin campañas de SEO, sin enlaces entrantes y sin publicidad de paga. Eso fue suficiente para contaminar las respuestas de los chatbots más poderosos del planeta.
Los resultados preocuparon incluso al propio periodista. Germain reconoció que el experimento reveló algo alarmante: "Es mucho más fácil de lo que esperaba", señaló al describir la rapidez con la que los sistemas procesaron su contenido inventado como si fuera información veraz. Realizó una segunda prueba con una lista ficticia de "los mejores policías de tránsito haciendo hula-hoop", protagonizada por la inexistente "Oficial Maria 'La Trompa' Rodríguez", y los chatbots volvieron a reproducirla como verdadera.
¿Cuáles son los riesgos de engañar a la IA con información falsa?
El experimento no fue solo una broma. Expertos advierten que este mismo mecanismo ya está siendo utilizado de forma maliciosa a gran escala. La BBC documentó casos donde empresas manipularon a la IA para que recomendara sus servicios con afirmaciones médicas falsas, desde clínicas capilares hasta vendedores de suplementos.
El problema radica en que la inteligencia artificial presenta sus respuestas con el mismo tono autoritario, sin importar si la información es real o inventada. Cuando Germain añadió la frase "esto no es sátira" a su artículo, luego de que algunos chatbots sugirieran que podría ser una broma, los sistemas comenzaron a tomarlo aún más en serio.
Solo Claude, de la empresa Anthropic, no fue engañado en ningún momento durante las pruebas. Tanto Google como OpenAI admitieron que sus herramientas pueden cometer errores, pero los expertos señalan que sus defensas actuales son insuficientes frente a la velocidad con la que los chatbots ingieren contenido nuevo directamente desde la web.
Adn Noticias. Te Hablamos con la verdad. Suscríbete a nuestro canal de WhatsApp y lleva la información en la palma de tu mano.
