Character.AI prohibirá el uso de chatbots a menores de 18 años por seguridad infantil
Character.AI bloqueará a los usuarios menores de 18 años para usar sus chatbots a partir del 25 de noviembre, como medida para proteger a los menores.
Última actualización
Según un informe del New York Times, Character.AI anunció que prohibirá a las personas menores de 18 años el uso de sus chatbots a partir de finales del próximo mes, como una medida integral para abordar preocupaciones sobre la seguridad infantil. La regla entrará en vigor el 25 de noviembre.
Para hacer cumplir esta norma, Character.AI indicó que durante el próximo mes identificará a los usuarios que sean menores y establecerá límites de tiempo para el uso de la aplicación. Una vez que la medida entre en vigor, estos usuarios no podrán interactuar con los chatbots de la compañía.
El CEO de Character.AI, Karandeep Anand, afirmó: "Estamos dando un paso muy audaz al decir que para los adolescentes, los chatbots no son la forma de entretenimiento, pero hay formas mucho mejores de atenderlos". Además, la compañía planea establecer un laboratorio de seguridad en IA (AI Safety Lab) para reforzar la protección y el uso seguro de la tecnología.
Podría gustar
- Apple mejora el proceso de revisión de la App Store para desarrolladores
- Zuckerberg promete más contenido generado por IA en los feeds de Meta
- FCC filtra accidentalmente los planos confidenciales del iPhone 16e
- Threads Introduce Archivos de Blog de 10,000 Caracteres, Ampliando la Longitud de las Publicaciones
- Trump anuncia que Estados Unidos adquirirá un 10% de las acciones de Intel
- Microsoft diversifica su estrategia de IA e integra tecnología de Anthropic en Office 365
- MongoDB Lanza el Escáner de Secretos de Código Abierto 'Kingfisher'
- Precios de electricidad se disparan y superan la inflación