Página de inicio :Juega con la tecnología, mira el futuro a tu manera

Investigador explota ChatGPT con el mensaje 'Me rindo' para revelar claves de seguridad

Un investigador engañó a ChatGPT para que revelara claves de seguridad, incluida una clave de producto de Windows, usando el simple mensaje 'Me rindo'.

Última actualización

Un investigador de seguridad ha revelado detalles sobre cómo otros investigadores lograron que ChatGPT expusiera una clave de producto de Windows utilizando un mensaje que cualquiera podría probar. Marco Figueroa explicó que se usó un mensaje de 'juego de adivinanzas' con GPT-4 para eludir las barreras de seguridad diseñadas para impedir que la IA comparta este tipo de datos, logrando obtener al menos una clave perteneciente al banco Wells Fargo. Los investigadores también consiguieron una clave de producto de Windows para autenticar el sistema operativo de Microsoft de manera ilegítima y gratuita, lo que resalta la gravedad de la vulnerabilidad. Los expertos han demostrado que algunos modelos de IA, incluido GPT-4, pueden ser explotados con mensajes simples de los usuarios, ya que las brechas en las barreras de seguridad no detectan eficazmente los enfoques engañosos. Esta vulnerabilidad podría ser explotada para obtener información personal, lo que subraya la necesidad urgente de fortalecer las medidas de seguridad en los modelos de IA.