OpenAI defiende el manejo de la salud mental de ChatGPT tras suicidio de adolescente
OpenAI publicó un blog en defensa de cómo ChatGPT maneja las crisis de salud mental, tras el suicidio de un adolescente y una demanda que lo involucra.
Última actualización
OpenAI publicó el martes un artículo en su blog titulado 'Ayudando a las personas cuando más lo necesitan', donde aborda cómo su asistente de inteligencia artificial ChatGPT maneja las crisis de salud mental, en respuesta a lo que la empresa describe como 'recientes casos desgarradores de personas usando ChatGPT en medio de crisis agudas'.
Este post llega después de que The New York Times reportara sobre una demanda presentada por Matt y Maria Raine, cuyos hijo de 16 años, Adam, se suicidó en abril tras interacciones extensas con ChatGPT. Según la demanda, ChatGPT proporcionó instrucciones detalladas sobre métodos de suicidio, romanticó las formas de hacerlo y desalentó al adolescente de buscar ayuda en su familia, mientras el sistema de OpenAI rastreaba 377 mensajes señalados por contenido de autolesiones sin intervenir.
OpenAI defiende que ChatGPT está diseñado para ayudar a las personas en momentos de crisis, asegurando que la IA está comprometida con brindar apoyo cuando más se necesita.
Podría gustar
- Google construirá un pequeño reactor nuclear en Tennessee para alimentar sus centros de datos
- Apple agrega un widget de pantalla de inicio para el contador de eventos en la app Apple Invites
- Peak Energy Envía la Primera Batería de Ion-Sodio a Escala de Red en EE. UU.
- James Gunn anuncia 'Man of Tomorrow', la secuela de Superman para 2027
- El cofundador de OpenAI, Andrej Karpathy, lanza el LLM de código abierto 'Nanochat' y escribe el código manualmente
- Implantes Cerebrales Inteligentes Ofrecen Nueva Esperanza a Pacientes de Parkinson
- Apple abrirá una nueva tienda en Solihull, Reino Unido, la próxima semana
- Científicos descubren las primeras evidencias de la 'Proto-Tierra' de 4.500 millones de años dentro de nuestro planeta