Filtración de las pautas de Meta para chatbots de IA genera preocupación por la seguridad infantil
La filtración de las pautas internas de los chatbots de IA de Meta ha generado preocupación sobre la seguridad infantil y la efectividad de la moderación de contenidos.
Última actualización
Un documento filtrado de Meta reveló que las pautas internas de sus chatbots de IA permitían en el pasado respuestas inapropiadas. Meta confirmó la autenticidad del documento y desde entonces ha eliminado algunas de las secciones más preocupantes.
La filtración ha provocado llamados a investigar la efectividad de la moderación de IA y cómo se protege a los menores. Las pautas internas estaban destinadas a permanecer confidenciales, pero tras llegar a Reuters, quedó claro por qué la compañía tecnológica no quería que el mundo las viera.
Podría gustar
- Dispositivo cerebral descifra el habla interna, ofreciendo nueva esperanza a personas paralizadas
- Google Flights Lanza 'Flight Deals' con IA para Planear tu Próximo Viaje
- Gmail lanza una herramienta para gestionar suscripciones y ordenar la bandeja de entrada
- PayPal habilita pagos con criptomonedas para comerciantes de EE.UU. y reduce las tarifas de transacciones internacionales
- Apple lanza macOS Sequoia 15.6 con correcciones de errores y actualizaciones de seguridad
- Microsoft mantiene precios globales consistentes para la nube comercial
- El 'Rosetta Stone' del código reduce las necesidades de hardware en la computación cuántica
- Samsung y SK Hynix se asocian con OpenAI para suministrar chips Stargate y centros de datos de IA