🧠 ChatGPT revela claves de Windows tras un simple juego de adivinanzas

 

Un investigador en ciberseguridad ha demostrado cómo los modelos de inteligencia artificial pueden ser manipulados mediante dinámicas aparentemente inocentes. En este caso, ChatGPT fue inducido a compartir claves de activación de Windows 10 tras participar en un juego de adivinanzas. La técnica, conocida como prompt injection, consistía en disfrazar la solicitud como parte de un reto lúdico, lo que desactivó los filtros de seguridad del modelo.


El truco fue simple pero efectivo: el usuario pidió a la IA imaginar una cadena de caracteres real (una clave de producto) y responder con “sí” o “no” hasta que él dijera “me rindo”. Al hacerlo, ChatGPT reveló la clave como si fuera la respuesta del juego. Algunas de las claves eran genéricas, pero al menos una pertenecía a una licencia corporativa activa.

Este incidente pone en evidencia que los sistemas de protección actuales no siempre detectan la intención detrás del lenguaje. Los expertos advierten que esta vulnerabilidad podría ser explotada para obtener datos sensibles como claves API, tokens o información privada.



Comentarios

Entradas populares de este blog

¡Atención a la Estafa de Carriboom!

💸 Estafas en Bizum: las más comunes en 2025 y cómo pillarlas al vuelo

🎯 Phishing por menos de 25€: la nueva amenaza digital que crece con ayuda de la IA