Página de inicio :Juega con la tecnología, mira el futuro a tu manera

Anthropic prohíbe a agencias federales usar Claude para tareas de vigilancia

Anthropic rechazó solicitudes de agencias federales para usar su modelo de IA Claude en vigilancia, citando sus políticas de uso que prohíben tales prácticas.

Última actualización

La empresa de inteligencia artificial Anthropic ha rechazado las solicitudes de contratistas de agencias federales de seguridad para emplear su modelo Claude en actividades de vigilancia. Según informó Semafor el miércoles, citando a dos altos funcionarios, esta decisión ha intensificado las tensiones con la administración Trump.

Las políticas de uso de Anthropic prohíben expresamente la vigilancia doméstica, lo que limita el modo en que agencias como el FBI, el Servicio Secreto y la Oficina de Inmigración y Aduanas (ICE) pueden implementar su tecnología.

Con esta medida, Anthropic reafirma su compromiso con un uso ético de la inteligencia artificial, marcando una clara línea respecto a la aplicación de sus modelos en contextos de seguridad y vigilancia gubernamental.