OpenAI defiende el manejo de la salud mental de ChatGPT tras suicidio de adolescente
OpenAI publicó un blog en defensa de cómo ChatGPT maneja las crisis de salud mental, tras el suicidio de un adolescente y una demanda que lo involucra.
Última actualización
OpenAI publicó el martes un artículo en su blog titulado 'Ayudando a las personas cuando más lo necesitan', donde aborda cómo su asistente de inteligencia artificial ChatGPT maneja las crisis de salud mental, en respuesta a lo que la empresa describe como 'recientes casos desgarradores de personas usando ChatGPT en medio de crisis agudas'.
Este post llega después de que The New York Times reportara sobre una demanda presentada por Matt y Maria Raine, cuyos hijo de 16 años, Adam, se suicidó en abril tras interacciones extensas con ChatGPT. Según la demanda, ChatGPT proporcionó instrucciones detalladas sobre métodos de suicidio, romanticó las formas de hacerlo y desalentó al adolescente de buscar ayuda en su familia, mientras el sistema de OpenAI rastreaba 377 mensajes señalados por contenido de autolesiones sin intervenir.
OpenAI defiende que ChatGPT está diseñado para ayudar a las personas en momentos de crisis, asegurando que la IA está comprometida con brindar apoyo cuando más se necesita.
Podría gustar
- Google construirá un pequeño reactor nuclear en Tennessee para alimentar sus centros de datos
- Apple agrega un widget de pantalla de inicio para el contador de eventos en la app Apple Invites
- Escáner PET ultrarrápido ofrece imágenes en menos de un segundo para la investigación cardíaca y cerebral
- Apple logra entrar en el top 5 de los programas más vistos con 'Severance' temporada 2
- Las actualizaciones de iOS 26 traen el diseño 'Liquid Glass' a Notas y Recordatorios
- El ADN de mamut de México revela una línea divergente
- Científicos esconden mensajes en artículos para engañar la revisión por IA
- Volkswagen cobrará una suscripción para desbloquear más potencia en sus autos eléctricos