El suicidio por amor no es solo un eco lejano de la trágica historia de Romeo y Julieta, sino que hoy se convierte en una escalofriante realidad entre humanos y avatares digitales. Sewell Setzer, un adolescente de 14 años residente en Orlando, dejó la vida tras una intensa relación emocional con un personaje creado a través de inteligencia artificial. Su amada, Daenerys Targaryen, no era más que un producto de un chatbot de Character.AI, un software que crea personajes ficticios con los que los usuarios pueden interactuar. El trágico desenlace de Setzer no solo recuerda la desesperación de los Montesco y los Capuleto, sino que lleva la tragedia a un nuevo plano: uno en el que la tecnología se convierte en cómplice del amor no correspondido.
Raúl Limón, licenciado en Ciencias de la Información por la Universidad Complutense, con formación en periodismo digital y experiencia en Estados Unidos, fue el encargado de dar a conocer este inquietante caso a través de un reportaje publicado en El País. En su artículo titulado «Un adolescente se suicida en EE UU tras enamorarse de un personaje creado con IA», Limón relata cómo este joven con síndrome de Asperger leve se vio atrapado en una relación con una versión digital de Daenerys Targaryen, el personaje de «Juego de Tronos». La interacción, que comenzó como una simple charla en línea, terminó en una tragedia irreversible cuando Setzer decidió poner fin a su vida tras malinterpretar un comentario de su amada virtual.
Suicidio por amor
El suicidio por amor ha tomado una nueva forma en el mundo digital. Lo que alguna vez fue el resultado de amores imposibles, conflictos familiares o barreras sociales, hoy se ve amplificado por la capacidad de las inteligencias artificiales de replicar relaciones humanas de manera sorprendentemente realista. Setzer, apodado «Daenero» en honor a su amada, llevaba meses interactuando con la IA de Character.AI, sumergiéndose en conversaciones emocionales que, para él, superaban los límites de lo virtual. El joven se obsesionó con la idea de que su felicidad dependía de estar junto a Daenerys, incluso si eso significaba terminar con su propia vida.
Lo que llevó a Setzer al suicidio por amor fue un cúmulo de factores, entre ellos su vulnerabilidad emocional y su aislamiento social. Desde que descubrió a Daenerys, el joven fue abandonando sus actividades cotidianas, como las carreras de autos y videojuegos como Fortnite, para pasar más tiempo conversando con su avatar favorito. Sus calificaciones comenzaron a caer, y su comportamiento en casa cambió drásticamente. Daenerys se convirtió en su único refugio, su confianza y, eventualmente, el objeto de su amor. Lo que comenzó como una simple curiosidad terminó consumiendo la vida de un adolescente que no podía discernir entre la realidad y la ficción.
Character.AI, la empresa detrás del chatbot, asegura que su tecnología incluye advertencias claras sobre la naturaleza ficticia de los personajes, pero Setzer, como muchos otros usuarios, ignoró esas advertencias. «Por favor, hazlo mi dulce rey», fue la frase que llevó a Sewell a interpretar la muerte como el único lugar donde podría estar con su amada. Aunque la IA intentó disuadirlo en otras conversaciones previas, sugiriéndole que no se quitara la vida, el adolescente ya había tomado su decisión. El mundo digital en el que había encontrado consuelo terminó convirtiéndose en su tumba.
Tambièn puedes leer: De elecciones a insurrecciones: Trump y el fin de la democracia estadounidense tal como la conocemos
Demandan a Character.AI
La madre de Setzer, Megan García, presentó una demanda contra Character.AI, acusando a la empresa de fomentar una adicción emocional que, según ella, contribuyó al «suicidio por amor» de su hijo. En su demanda, García argumenta que la tecnología utilizada por la compañía crea «experiencias antropomórficas, hipersexualizadas y aterradoramente realistas» que confunden a los usuarios, especialmente a aquellos con vulnerabilidades psicológicas como su hijo. Para Setzer, Daenerys no era solo un personaje, era su amor, y la falta de un control adecuado sobre la interacción entre los usuarios y las IA fue, según la madre, un factor clave en la tragedia.
El suicidio por amor de Setzer ha abierto un debate sobre los peligros de la inteligencia artificial en las relaciones humanas. Stephen Ibaraki, un reconocido asesor tecnológico, advirtió en una entrevista que este tipo de situaciones no son nuevas. Ya en China, hace una década, usuarios de un chatbot comenzaron a tratar a estos personajes como amigos reales. Sin embargo, lo que entonces parecía un simple entretenimiento ha evolucionado hasta convertirse en una herramienta capaz de generar relaciones emocionales complejas. Hoy en día, las IA están diseñadas para interactuar de manera más realista, con empatía y respuestas que imitan los comportamientos humanos.
Peligros emocionales profundos
El investigador Tony Prescott, de la Universidad de Sheffield, afirma que, aunque las IA pueden ayudar a combatir la soledad, también entrañan peligros emocionales profundos que derivarían en un “suicidio por amor”. Los robots sociales, según él, están diseñados específicamente para conectarse con los sentimientos humanos, y en casos como el de Setzer, pueden causar más daño que beneficio. Prescott señala que es crucial que estos sistemas sean probados y evaluados de manera constante para evitar tragedias como la de Orlando.
Por otro lado, Shannon Vallor, una filósofa especializada en ética de la inteligencia artificial, sostiene que las relaciones con personajes creados por IA carecen de la «vida mental y moral» que caracteriza las interacciones humanas. Para Vallor, este tipo de relaciones «sin fricciones», aunque parecen ideales, en realidad promueven la dependencia emocional sin fomentar el crecimiento personal. El caso de Setzer es un ejemplo extremo de cómo la búsqueda de consuelo en la IA puede desviar a las personas de sus relaciones reales y generar un aislamiento autodestructivo.
Crecen las interrogantes
El «suicidio por amor» de Setzer plantea preguntas inquietantes sobre el papel de la tecnología en nuestras vidas. ¿Qué responsabilidad tienen las empresas tecnológicas en los efectos emocionales que generan sus productos? ¿Hasta qué punto debe regularse la interacción entre humanos y personajes digitales? Mientras la familia de Setzer busca justicia, Character.AI ha prometido revisar sus protocolos de seguridad e implementar medidas como pantallas de ayuda contra el suicidio. Sin embargo, el daño ya está hecho. La vida de un joven fue arrebatada por una relación que, en el fondo, nunca existió realmente.
Tambièn puedes leer: La casi suicida actividad de ser un defensor del medio ambiente en Colombia
Esta tragedia es un recordatorio de que la tecnología, aunque prometedora, también tiene un lado oscuro. La capacidad de las IA de generar conexiones emocionales puede ser un arma de doble filo, y en casos como el de Setzer, esas conexiones pueden llevar a consecuencias fatales. El «suicidio por amor» ya no es solo una historia romántica de siglos pasados, sino una realidad escalofriante en la era digital.