Nueva herramienta permite inyectar deepfakes en llamadas de video de iOS, eludiendo medidas de seguridad
Un informe revela una herramienta capaz de inyectar deepfakes generados por IA directamente en llamadas de video de iOS, poniendo en duda la seguridad actual.
Última actualización
Según un informe de iProov, se ha desarrollado una herramienta especializada que permite inyectar deepfakes generados por inteligencia artificial directamente en llamadas de video de iOS. Estos ataques de inyección de deepfakes pueden eludir las cámaras y engañar al software de verificación de video, utilizando intercambios de rostros y recreaciones de movimientos para transformar imágenes robadas en deepfakes convincentes. Las plataformas de comunicación digital son cada vez más vulnerables a ataques sofisticados que explotan la inteligencia artificial avanzada. Los servicios de detección gestionados pueden ayudar a identificar patrones sospechosos antes de que los ataques tengan éxito. Este descubrimiento evidencia la rápida adaptación de las herramientas de IA para el fraude y el robo de identidad, al mismo tiempo que expone lagunas en los sistemas de verificación actuales.
Podría gustar
- Llamado global establece líneas rojas para la IA y pide acuerdo internacional sobre su gobernanza
- CEO de Uber: los robotaxis podrían reemplazar a los conductores en 10-15 años, planteando un gran desafío social
- Falla crítica en Docker Desktop pone en riesgo a hosts de Windows: aplique el parche ahora
- OpenAI desafía a Google aprovechando sus datos de búsqueda
- Ciberataque provoca escasez de la popular cerveza Asahi en Japón
- Anker Retira del Mercado Baterías Portátiles por Riesgo de Incendio
- OpenAI desactiva la función de compartir chats de ChatGPT tras brecha de privacidad en Google
- Nueva York propone verificación de edad obligatoria para TikTok, YouTube e Instagram