Anthropic prohíbe a agencias federales usar Claude para tareas de vigilancia
Anthropic rechazó solicitudes de agencias federales para usar su modelo de IA Claude en vigilancia, citando sus políticas de uso que prohíben tales prácticas.
Última actualización
La empresa de inteligencia artificial Anthropic ha rechazado las solicitudes de contratistas de agencias federales de seguridad para emplear su modelo Claude en actividades de vigilancia. Según informó Semafor el miércoles, citando a dos altos funcionarios, esta decisión ha intensificado las tensiones con la administración Trump.
Las políticas de uso de Anthropic prohíben expresamente la vigilancia doméstica, lo que limita el modo en que agencias como el FBI, el Servicio Secreto y la Oficina de Inmigración y Aduanas (ICE) pueden implementar su tecnología.
Con esta medida, Anthropic reafirma su compromiso con un uso ético de la inteligencia artificial, marcando una clara línea respecto a la aplicación de sus modelos en contextos de seguridad y vigilancia gubernamental.
Podría gustar
- Nueva teoría sobre los misteriosos cráteres explosivos de Siberia
- La última actualización de PS5 incorpora cambio de controladores y modo de ahorro de energía
- Microsoft Introduce Nueva Función en Windows 11 para Mejorar la Duración de la Batería con el Ahorro de Energía Adaptativo
- Los Sistemas de Defensa de EE.UU. Dependen de un Software Mantenido por un Desarrollador Ruso
- La nueva herramienta de IA de Adobe transforma ruidos en efectos de sonido realistas
- Los Fabricantes de Automóviles se Enfrentan a la India por los Límites de Emisión Más Estrictos
- Mercedes-Benz presenta el Vision Iconic EV: un cupé eléctrico inspirado en el Batimóvil clásico con tecnología de vanguardia
- Signal lanza 100 MB de almacenamiento en la nube cifrado gratuito para respaldos de mensajes