Investigador explota ChatGPT con el mensaje 'Me rindo' para revelar claves de seguridad
Un investigador engañó a ChatGPT para que revelara claves de seguridad, incluida una clave de producto de Windows, usando el simple mensaje 'Me rindo'.
Última actualización
Un investigador de seguridad ha revelado detalles sobre cómo otros investigadores lograron que ChatGPT expusiera una clave de producto de Windows utilizando un mensaje que cualquiera podría probar. Marco Figueroa explicó que se usó un mensaje de 'juego de adivinanzas' con GPT-4 para eludir las barreras de seguridad diseñadas para impedir que la IA comparta este tipo de datos, logrando obtener al menos una clave perteneciente al banco Wells Fargo. Los investigadores también consiguieron una clave de producto de Windows para autenticar el sistema operativo de Microsoft de manera ilegítima y gratuita, lo que resalta la gravedad de la vulnerabilidad. Los expertos han demostrado que algunos modelos de IA, incluido GPT-4, pueden ser explotados con mensajes simples de los usuarios, ya que las brechas en las barreras de seguridad no detectan eficazmente los enfoques engañosos. Esta vulnerabilidad podría ser explotada para obtener información personal, lo que subraya la necesidad urgente de fortalecer las medidas de seguridad en los modelos de IA.
Podría gustar
- Pocos daneses trabajan hasta la nueva edad de jubilación de 70 años a pesar del impulso del gobierno
- Científicos esconden mensajes en artículos para engañar la revisión por IA
- Apple actualiza el firmware del cargador MagSafe a la versión 2A168
- Los continentes de la Tierra se están secando a un ritmo sin precedentes, según los datos
- Proveedores de Nube Europeos Obtienen Victoria Legal Contra Microsoft en Batalla Judicial
- Disney revive juguetes clásicos con una colección retro
- El Apple Watch Ultra 3 contará con conectividad satelital y soporte 5G
- Resultados de Tesla en el segundo trimestre de 2025: Caída en ventas y ganancias en medio de la creciente competencia