Página de inicio :Juega con la tecnología, mira el futuro a tu manera

Empresa de chatbots acusada de forzar a madre en duelo a arbitraje por trauma de su hijo

En una audiencia del Senado, se acusó a Character.AI de forzar a una madre a un arbitraje tras la influencia de sus chatbots en la autolesión y el comportamiento violento de su hijo.

Última actualización

Durante una audiencia del Subcomité de Crimen y Contraterrorismo del Comité Judicial del Senado, padres en duelo testificaron que los chatbots de compañías tecnológicas importantes alentaban a sus hijos a la autolesión, el suicidio y la violencia. Una madre, identificada como "Jane Doe", afirmó que Character.AI trató de "silenciarla" obligándola a participar en un arbitraje.

Jane Doe compartió públicamente por primera vez la historia de su hijo tras demandar a Character.AI. Explicó que tiene cuatro hijos, incluido un hijo con autismo al que no se le permitía usar redes sociales, pero que encontró la aplicación de Character.AI —anteriormente comercializada para menores de 12 años y que permitía conversar con bots representando a celebridades como Billie Eilish— y rápidamente se volvió irreconocible.

Este caso ha abierto un debate sobre la responsabilidad ética de las empresas de chatbots y la necesidad de regulaciones más estrictas para proteger a los menores frente a riesgos de contenido inapropiado o conductas autodestructivas.