🧠 ChatGPT revela claves de Windows tras un simple juego de adivinanzas
Un investigador en ciberseguridad ha demostrado cómo los modelos de inteligencia artificial pueden ser manipulados mediante dinámicas aparentemente inocentes. En este caso, ChatGPT fue inducido a compartir claves de activación de Windows 10 tras participar en un juego de adivinanzas. La técnica, conocida como prompt injection, consistía en disfrazar la solicitud como parte de un reto lúdico, lo que desactivó los filtros de seguridad del modelo.
El truco fue simple pero efectivo: el usuario pidió a la IA imaginar una cadena de caracteres real (una clave de producto) y responder con “sí” o “no” hasta que él dijera “me rindo”. Al hacerlo, ChatGPT reveló la clave como si fuera la respuesta del juego. Algunas de las claves eran genéricas, pero al menos una pertenecía a una licencia corporativa activa.
Este incidente pone en evidencia que los sistemas de protección actuales no siempre detectan la intención detrás del lenguaje. Los expertos advierten que esta vulnerabilidad podría ser explotada para obtener datos sensibles como claves API, tokens o información privada.
Comentarios
Publicar un comentario