Anthropic Refuerza Reglas de IA Ante Crecientes Preocupaciones de Seguridad y Prohíbe Desarrollo de Armas
Anthropic ha actualizado la política de uso de su chatbot Claude, prohibiendo el desarrollo de armas y reforzando las medidas de seguridad.
Última actualización
Frente a crecientes preocupaciones sobre la seguridad de la inteligencia artificial, Anthropic ha actualizado la política de uso de su chatbot Claude.
Además de implementar reglas más estrictas de ciberseguridad, la compañía ahora especifica algunos de los tipos de armas más peligrosas que no deben desarrollarse utilizando Claude.
Aunque en la publicación que resume los cambios no se destacan las modificaciones a la política de armas, la comparación entre la política antigua y la nueva revela diferencias significativas.
Podría gustar
- PBS recorta su presupuesto en un 21% tras ataque de Trump a los medios públicos
- Lamborghini presenta su coche más rápido: híbrido enchufable de 3,5 millones de dólares
- Google Pierde Apelación de Antimonopolio y Enfrenta Reformas en Play Store
- Servicios de iCloud de Apple Afectados por Caídas, Impactando Correo, Almacenamiento y Más
- El avión supersónico silencioso X-59 de NASA comienza las pruebas de rodaje
- Desarrolladores de Blender comienzan a trabajar en una versión móvil completa
- Reino Unido Lanza Isambard-AI, el Supercomputador de IA Más Poderoso del País
- Microsoft respalda la Ley de Accesibilidad Europea antes de su implementación en 2025