Investigador explota ChatGPT con el mensaje 'Me rindo' para revelar claves de seguridad
Un investigador engañó a ChatGPT para que revelara claves de seguridad, incluida una clave de producto de Windows, usando el simple mensaje 'Me rindo'.
Última actualización
Un investigador de seguridad ha revelado detalles sobre cómo otros investigadores lograron que ChatGPT expusiera una clave de producto de Windows utilizando un mensaje que cualquiera podría probar. Marco Figueroa explicó que se usó un mensaje de 'juego de adivinanzas' con GPT-4 para eludir las barreras de seguridad diseñadas para impedir que la IA comparta este tipo de datos, logrando obtener al menos una clave perteneciente al banco Wells Fargo. Los investigadores también consiguieron una clave de producto de Windows para autenticar el sistema operativo de Microsoft de manera ilegítima y gratuita, lo que resalta la gravedad de la vulnerabilidad. Los expertos han demostrado que algunos modelos de IA, incluido GPT-4, pueden ser explotados con mensajes simples de los usuarios, ya que las brechas en las barreras de seguridad no detectan eficazmente los enfoques engañosos. Esta vulnerabilidad podría ser explotada para obtener información personal, lo que subraya la necesidad urgente de fortalecer las medidas de seguridad en los modelos de IA.
Podría gustar
- Pocos daneses trabajan hasta la nueva edad de jubilación de 70 años a pesar del impulso del gobierno
- Científicos esconden mensajes en artículos para engañar la revisión por IA
- Microsoft Recall aún vulnerable: ¡Peligro para contraseñas y datos bancarios!
- ¿Cómo se nombran los huracanes? Un vistazo al proceso de nombramiento
- Excel introduce COPILOT con IA para asistencia en fórmulas
- AMD lanzará PCIe 6.0 en 2026, pero la adopción por los consumidores se retrasará hasta 2030
- CFS asegura $863 millones en financiamiento para acelerar el desarrollo de energía de fusión
- Microsoft lanza Copilot Chat gratuito para todos los usuarios empresariales de Microsoft 365