Página de inicio :Juega con la tecnología, mira el futuro a tu manera

Nueva herramienta permite inyectar deepfakes en llamadas de video de iOS, eludiendo medidas de seguridad

Un informe revela una herramienta capaz de inyectar deepfakes generados por IA directamente en llamadas de video de iOS, poniendo en duda la seguridad actual.

Última actualización

Según un informe de iProov, se ha desarrollado una herramienta especializada que permite inyectar deepfakes generados por inteligencia artificial directamente en llamadas de video de iOS. Estos ataques de inyección de deepfakes pueden eludir las cámaras y engañar al software de verificación de video, utilizando intercambios de rostros y recreaciones de movimientos para transformar imágenes robadas en deepfakes convincentes. Las plataformas de comunicación digital son cada vez más vulnerables a ataques sofisticados que explotan la inteligencia artificial avanzada. Los servicios de detección gestionados pueden ayudar a identificar patrones sospechosos antes de que los ataques tengan éxito. Este descubrimiento evidencia la rápida adaptación de las herramientas de IA para el fraude y el robo de identidad, al mismo tiempo que expone lagunas en los sistemas de verificación actuales.