Filtración de las pautas de Meta para chatbots de IA genera preocupación por la seguridad infantil
La filtración de las pautas internas de los chatbots de IA de Meta ha generado preocupación sobre la seguridad infantil y la efectividad de la moderación de contenidos.
Última actualización
Un documento filtrado de Meta reveló que las pautas internas de sus chatbots de IA permitían en el pasado respuestas inapropiadas. Meta confirmó la autenticidad del documento y desde entonces ha eliminado algunas de las secciones más preocupantes.
La filtración ha provocado llamados a investigar la efectividad de la moderación de IA y cómo se protege a los menores. Las pautas internas estaban destinadas a permanecer confidenciales, pero tras llegar a Reuters, quedó claro por qué la compañía tecnológica no quería que el mundo las viera.
Podría gustar
- Google Flights Lanza 'Flight Deals' con IA para Planear tu Próximo Viaje
- Fedora da marcha atrás en su plan de eliminar el soporte de 32 bits tras la reacción de la comunidad
- OpenAI Expande Significativamente su Capacidad en la Nube de Oracle para el Proyecto Stargate
- Filtrada la batería con cubierta metálica y capacidad reducida del iPhone 17 Air
- X Expresa 'Profunda Preocupación' Por la Censura a la Prensa en India
- Apple planea actualizar automáticamente los sistemas antiguos de HomeKit
- Google agrega la app de Calendario al Apple Watch y elimina Keep