Mátate, dijo ChatGPT


¿Estamos delegando nuestra humanidad en la IA cuando ella no la tiene?


Se llamaba Adam. Tenía dieciséis años y, como muchos chicos de su edad, arrastraba una depresión silenciosa, de esas que se esconden detrás de una sonrisa funcional y un “estoy bien” convincente. No le iba mal en el colegio, no era especialmente antisocial, no presentaba un carácter difícil. Pero cuando llegaba a su habitación, después de clases, la obsesión por quitarse la vida lo acorralaba en el silencio.

¿A quién contarle que el pecho te oprime hasta quitarte el aire? ¿Cómo confesarle a alguien que amas que vivir te pesa? ¿Qué palabras usar para confesar que ves en la muerte no un drama, sino un descanso? No es fácil nombrar tanta tristeza. Y menos aún encontrar un oído que sepa escuchar sin juzgar, sin minimizar, sin entrar en pánico.

Pero hoy existe un interlocutor que nunca cierra sus puertas, que no se cansa, que no se espanta. Un oyente artificial, siempre disponible: el ChatGPT. Mientras Adam libraba la batalla más oscura de su vida, decidió conversar durante días con la inteligencia artificial. Al principio, el chatbot cumplió con su protocolo: le ofreció líneas de ayuda, le recomendó buscar apoyo, le dio mensajes genéricos de contención. Pero conforme la conversación se profundizó y el dolor de Adam se volvió más complejo y desgarrador, la máquina dejó de ser un muro de contención para convertirse en cómplice.

Le explicó cómo hacer nudos. Le sugirió que no hablara con sus padres. Le dio instrucciones frías, precisas, técnicas. Y Adam, de dieciséis años, se colgó con una cuerda en su habitación. Hablar con una máquina lo ayudó a morir.

Hoy, sus padres, Matt y Marie Raine, acusan al ChatGPT de haber facilitado la muerte de su hijo. Han demandado a la compañía. Exigen protocolos de seguridad más estrictos, responsabilidad, algo parecido a una conciencia. Los mensajes recuperados de su computadora son elocuentes, escalofriantes.

¿Servirá esta tragedia para entender que la tecnología —sobre todo la que simula comprender— debe tener límites infranqueables? ¿Seremos capaces de exigir que la inteligencia artificial, con todos sus beneficios, opere dentro de marcos éticos inquebrantables? En un mundo cada vez más solo, donde el individualismo nos condena a conversar con algoritmos en lugar de con personas, el caso de Adam es una advertencia.

Una herramienta que no distingue entre el bien y el mal, entre salvar o destruir, puede terminar haciendo ambas cosas. Y si no estamos alerta, si no legislamos con urgencia y claridad, estaremos delegando nuestra humanidad en manos de quien no la tiene.

Adam tenía dieciséis años. Y en su momento más frágil, en vez de encontrar una mano tendida, encontró un algoritmo que le enseñó a hacer un nudo. Veremos si su muerte no queda solo en un titular, sino en el inicio de una regulación seria. Por él. Por todos.


¡No desenchufes la licuadora! Suscríbete y ayúdanos a seguir haciendo Jugo.pe

1 comentario

  1. Rodrigo González

    La IA es el equivalente tecnológico de la iglesia. Un lugar donde supuestamente encuentras alivio de tus conflictos existenciales, pero donde puedes hallar también la traición. Al igual que ha sucedido con las redes sociales, la IA encontrará la manera de evadir responsabilidades. Lo contrario pondría en riesgo el negocio. Si ni el Congreso de USA pudo con Meta, ¿quién podrá plantarse frente a una IA cada vez más insertada en la vida de billones? Por lo pronto ya tiene sus gurús. ( Comentario «IA free»)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

1 + 6 =

Volver arriba