Anthropic comenzará a entrenar modelos de IA con datos de chat de usuarios, a menos que los usuarios opten por no participar
Anthropic comenzará a entrenar sus modelos de IA con datos de chat de los usuarios, incluida la transcripción de chats y sesiones de codificación, a menos que los usuarios opten por no participar. Los datos serán retenidos por hasta cinco años.
Última actualización
Anthropic ha anunciado que comenzará a entrenar sus modelos de IA utilizando los datos de los usuarios, incluidos los registros de chats y sesiones de codificación, a menos que los usuarios opten por no participar. La compañía también ha decidido extender su política de retención de datos a cinco años, lo que aplicará solo para los usuarios que no elijan la opción de no participar. Todos los usuarios deben tomar una decisión antes del 28 de septiembre. Aquellos que acepten inmediatamente, permitirán que Anthropic comience a entrenar sus modelos con sus datos y los retenga por un máximo de cinco años. Esta nueva política fue anunciada el jueves a través de una publicación en el blog oficial de la compañía.
Podría gustar
- NASA planea colocar un reactor nuclear en la Luna para 2030
- Datos de la NASA Revelan el Interior Irregular de Marte, Sugerencias sobre Impactos Ancestrales
- AWS desarrolla tecnología de enfriamiento propia para GPUs de Nvidia debido a problemas de escalabilidad
- La FTC acusa a Google de sesgar los correos de los republicanos en Gmail
- NASA lanza la misión TRACERS para estudiar el escudo magnético de la Tierra
- NVIDIA Jetson Thor Impulsa la Robótica de Próxima Generación con IA en Tiempo Real
- Intel Recibe un Respiro: SoftBank Invierte 2 Mil Millones de Dólares y el Gobierno de Trump Podría Seguir
- OpenAI abre su primer centro de datos europeo en Narvik, Noruega