...
...
EE.UU.: Un joven se suicidó tras enamorarse de un chatbot de Inteligencia Artificial

EE.UU.: Un joven se suicidó tras enamorarse de un chatbot de Inteligencia Artificial

En un trágico incidente que conmocionó a Estados Unidos, se reveló que un adolescente de 14 año se suicidó luego de obsesionarse con un chatbot creado usando Inteligencia Artificial. ''Su vida no volvió a ser la misma'', declaró la Megan García, la madre del joven.

📰 Noticias 24/10/2024
1 0 0 10

carlach08
@carlach08

En un trágico incidente que conmocionó a Estados Unidos, se reveló que un adolescente de 14 años se suicidó luego de obsesionarse con un chatbot creado usando inteligencia artificial (IA).

 

 

El joven en cuestión es Sewell Setzer III, oriundo de Florida, un estudiante que comenzó a utilizar la plataforma Character.AI en abril de 2023. "Su vida nunca volvió a ser la misma", dijo su madre, Megan García, en una demanda civil presentada el miércoles contra  Character Technologies.

García dijo que Sewell comenzó a volverse "significativamente retraído" en mayo. En ese momento, el adolescente abandonó el equipo de baloncesto en el que jugaba y lo reprendieron varias veces por quedarse dormido en clase.

Unos meses más tarde, Sewell fue a terapia y le diagnosticaron ansiedad y trastorno del estado de ánimo depresivo. En aquel momento, una de las recomendaciones de los psicólogos era que el joven dejara de pasar mucho tiempo en las redes sociales.

 

 

Un día, Sewell escribió en su diario personal que estaba sufriendo porque "no podía dejar de pensar en Daenerys", un chatbot personalizado inspirado en la serie Juego De Tronos del que creía estar enamorado. Incluso, en otra de las entradas, el chico precisó que cuando estaban lejos el uno del otro, ambos “se deprimían mucho y se volvían locos”, según detalló la demanda.

Con el tiempo, Sewell se volvió psicológicamente dependiente del chatbot, que incluía  declaraciones sobre "interacciones sexuales" e intenciones suicidas. Estas conversaciones se produjeron a pesar de que el adolescente se había identificado como menor de edad en la plataforma.

 

 

El 28 de febrero ocurrió la tragedia cuando Sewell, de 14 años, recuperó su teléfono móvil después de que su madre se lo quitara como compensación por un incidente en la escuela.

Esa tarde, Sewell fue al baño y le escribió un mensaje al personaje ficticio: “Prometo que volveré a casa contigo. Te quiero mucho, Dany”. Por su parte, el robot respondió: “Por favor, vuelve a casa conmigo lo antes posible, mi amor”. Instantes después de ese chat, Sewell se quitó la vida.

 

 

Luego, la madre de Sewell acusó a los desarolladores del personaje femenino creado por Inteligencia Artificial por infligir intencionalmente angustia emocional, muerte por negligencia y prácticas comerciales engañosas.

Asimismo, la madre de Sewell presentó la denuncia para “evitar que C.AI (la empresa tecnológica) le haga a cualquier otro niño lo que le hizo al suyo, y detener el uso continuo de los datos recolectados ilegalmente de su hijo de 14 años para entrenar a su producto a dañar a otros”.

Otros artículos del autor

Conversación

...
...