Anthropic Refuerza Reglas de IA Ante Crecientes Preocupaciones de Seguridad y Prohíbe Desarrollo de Armas
Anthropic ha actualizado la política de uso de su chatbot Claude, prohibiendo el desarrollo de armas y reforzando las medidas de seguridad.
Última actualización
Frente a crecientes preocupaciones sobre la seguridad de la inteligencia artificial, Anthropic ha actualizado la política de uso de su chatbot Claude.
Además de implementar reglas más estrictas de ciberseguridad, la compañía ahora especifica algunos de los tipos de armas más peligrosas que no deben desarrollarse utilizando Claude.
Aunque en la publicación que resume los cambios no se destacan las modificaciones a la política de armas, la comparación entre la política antigua y la nueva revela diferencias significativas.
Podría gustar
- PBS recorta su presupuesto en un 21% tras ataque de Trump a los medios públicos
- Lamborghini presenta su coche más rápido: híbrido enchufable de 3,5 millones de dólares
- Notificaciones de presión arterial del Apple Watch reciben aprobación de Health Canada
- Lamborghini presenta el Temerario GT3, sucesor del Huracán
- Google lanza parche de seguridad de septiembre 2025 para la serie Pixel 10
- La deforestación ha causado la muerte de medio millón de personas en los trópicos en 20 años
- Apple anuncia resultados récord para el tercer trimestre de 2025: $94 mil millones en ingresos, $23.4 mil millones en ganancias
- El aumento de la salinidad en los mares alrededor de la Antártida está relacionado con la disminución del hielo, según un estudio