Buen jueves. Estamos aquí con una lectura que creemos que, como suscriptor de El Times, nuestro boletín en español, puede interesarte. Una mujer de 29 años comenzó a a sufrir de una enfermedad inusual, una “mezcla de síntomas hormonales y del estado de ánimo”. Junto a su familia, buscaba un diagnóstico. ¿Era un trastorno depresivo, una desregulación hormonal o algo más? “Ella no esperó a averiguarlo”, escribió su madre, la periodista Laura Reiley, en un ensayo de Opinión. Este invierno, se suicidó. Unos meses más tarde, su familia descubrió los registros de ChatGPT de su hija, Sophie, que detallaban una serie de conversaciones que había tenido con un chatbot de terapia de inteligencia artificial llamado Harry. Reiley describe las interacciones de su hija con ese terapeuta virtual creado mediante un chatbot. A veces, la IA decía lo correcto; otras veces, no. Esto plantea preguntas difíciles y urgentes sobre la IA y sus responsabilidades. Reiley escribe: Como la madre que fui, sé que hay Sophies a nuestro alrededor. En todas partes, la gente pasa por dificultades, y muchos no quieren que nadie lo sepa. Temo que, al liberar a los acompañantes de IA, estemos facilitando que nuestros seres queridos eviten hablar con los humanos sobre las cosas más difíciles, incluido el suicidio.
Si tienes pensamientos suicidas, llama o envía un mensaje de texto al 988 para ponerte en contacto con el 988 Suicide and Crisis Lifeline o visita SpeakingOfSuicide.com/resources para consultar una lista de recursos adicionales en Estados Unidos. Queremos estar más cerca de ti. Encuéntranos y síguenos en WhatsApp. Haz clic en este vínculo y súmate a nuestro canal de artículos en español. ¡Nos vemos allá!
|