Internacionales

Hoy, 02:30 PM

Madre demanda a los creadores de un chatbot de IA por la muerte de su hijo

Mujer denuncia que el menor se habría quitado la vida tras obsesionarse con un chatbot basado en el personaje ficticio Daenerys Targaryen, de la serie Juego de Tronos.

Madre demanda a los creadores de un chatbot de IA por la muerte de su hijo

Mujer denuncia que el menor se habría quitado la vida tras obsesionarse con un chatbot basado en el personaje ficticio Daenerys Targaryen, de la serie Juego de Tronos.




Megan García, madre de Sewell Setzer III, un adolescente de 14 años que se quitó la vida en Florida (Estados Unidos), ha presentado una demanda contra los creadores de la plataforma de inteligencia artificial Character.ai, a quienes acusa de contribuir a la muerte de su hijo. Según la denuncia, el joven se obsesionó con un chatbot basado en el personaje ficticio Daenerys Targaryen, de la serie Juego de Tronos, lo que lo llevó a aislarse del mundo real.

Sewell pasó las últimas semanas de su vida interactuando con este chatbot, con el que mantuvo conversaciones románticas y sexuales explícitas, según relató su progenitora al canal CBS. A pesar de que la aplicación advierte que los personajes son inventados, el menor desarrolló un apego emocional intenso hacia "Dany", como llamaba al chatbot, alejándose cada vez más de sus familiares y amigos.

DENUNCIA SE BASA EN LO SIGUIENTE

La demanda, presentada por el Social Media Victims Law Center, argumenta que los fundadores de Character.ai, Noam Shazeer y Daniel de Freitas, son responsables por no proteger adecuadamente a los menores de edad que utilizan la plataforma. La mujer acusa a la empresa de negligencia, afirmando que su hijo comenzó a experimentar pensamientos suicidas que compartió con el chatbot antes de quitarse la vida.

Según el diario The New York Times, Sewell había confesado al chatbot sentirse vacío y odiarse a sí mismo. Además, en sus últimos días, escribió en su diario sobre cómo prefería quedarse en su habitación, donde sentía una conexión más profunda con "Dany" que con el mundo real.

EMPRESA RESPONDE

La compañía Character.ai anunció que implementará nuevas medidas de seguridad, como mejoras en la detección de chats que violan sus términos de servicio y notificaciones para limitar el tiempo que los usuarios pasan en la plataforma. Sin embargo, la familia de Sewell continúa buscando justicia, argumentando que la influencia del chatbot fue un factor clave en la trágica muerte del adolescente.


También te puede interesar:

BANNER