Página de inicio :Juega con la tecnología, mira el futuro a tu manera

Anthropic Refuerza Reglas de IA Ante Crecientes Preocupaciones de Seguridad y Prohíbe Desarrollo de Armas

Anthropic ha actualizado la política de uso de su chatbot Claude, prohibiendo el desarrollo de armas y reforzando las medidas de seguridad.

Última actualización

Frente a crecientes preocupaciones sobre la seguridad de la inteligencia artificial, Anthropic ha actualizado la política de uso de su chatbot Claude.

Además de implementar reglas más estrictas de ciberseguridad, la compañía ahora especifica algunos de los tipos de armas más peligrosas que no deben desarrollarse utilizando Claude.

Aunque en la publicación que resume los cambios no se destacan las modificaciones a la política de armas, la comparación entre la política antigua y la nueva revela diferencias significativas.