Anthropic comenzará a entrenar modelos de IA con datos de chat de usuarios, a menos que los usuarios opten por no participar
Anthropic comenzará a entrenar sus modelos de IA con datos de chat de los usuarios, incluida la transcripción de chats y sesiones de codificación, a menos que los usuarios opten por no participar. Los datos serán retenidos por hasta cinco años.
Última actualización
Anthropic ha anunciado que comenzará a entrenar sus modelos de IA utilizando los datos de los usuarios, incluidos los registros de chats y sesiones de codificación, a menos que los usuarios opten por no participar. La compañía también ha decidido extender su política de retención de datos a cinco años, lo que aplicará solo para los usuarios que no elijan la opción de no participar. Todos los usuarios deben tomar una decisión antes del 28 de septiembre. Aquellos que acepten inmediatamente, permitirán que Anthropic comience a entrenar sus modelos con sus datos y los retenga por un máximo de cinco años. Esta nueva política fue anunciada el jueves a través de una publicación en el blog oficial de la compañía.
Podría gustar
- NASA planea colocar un reactor nuclear en la Luna para 2030
- Datos de la NASA Revelan el Interior Irregular de Marte, Sugerencias sobre Impactos Ancestrales
- Wix integra inteligencia artificial en su editor de correo con la nueva herramienta 'Email Assistant'
- Apple domina los Emmy: 'The Studio' hace historia como la mejor comedia de estreno, 'Severance' y 'Slow Horses' brillan
- Uber, Stellantis, Nvidia y Foxconn forman alianza para lanzar robotaxis
- Servicios de Microsoft caen: Azure, Microsoft 365 y Minecraft afectados por una gran interrupción
- ServiceNow Ofrece Descuentos de Hasta un 70% en Software para el Gobierno de EE. UU.
- El cambio climático amenaza la mayoría de las principales ubicaciones de centros de datos