Página de inicio :Juega con la tecnología, mira el futuro a tu manera

Herramientas de IA como ChatGPT exponen a usuarios a riesgos con direcciones web incorrectas, según investigación

Una investigación revela que herramientas de IA como ChatGPT podrían poner en riesgo a los usuarios al proporcionar direcciones web incorrectas, aumentando la exposición a ataques de phishing y malware.

Última actualización

Una nueva investigación ha revelado que herramientas de inteligencia artificial como ChatGPT están poniendo en riesgo a los usuarios al generar direcciones web incorrectas. Según un informe de Netcraft, uno de cada tres (34%) enlaces de inicio de sesión proporcionados por modelos de lenguaje de gran escala (LLM), incluido GPT-4.1, no pertenecía a las marcas consultadas. De estos, el 29% apuntaba a dominios no registrados, inactivos o aparcados, y el 5% a dominios legítimos pero no relacionados, dejando solo el 66% de los enlaces dirigiendo a dominios asociados correctamente con la marca. La IA no es muy eficaz en la generación de URLs, ya que muchos no existen y algunos podrían ser sitios de phishing. Los atacantes ahora están optimizando sitios para LLMs en lugar de para Google, y los desarrolladores incluso están utilizando URLs sospechosas de manera involuntaria. Esta situación aumenta el riesgo de que los usuarios de herramientas de IA sufran ataques como intentos de phishing y malware.