cupure logo
losparadelconlasquevueltaquitafindeuda

Cuando un periodista usa IA para entrevistar a un chico muerto, ¿no es hora de preguntar dónde poner los límites?

Cuando un periodista usa IA para entrevistar a un chico muerto, ¿no es hora de preguntar dónde poner los límites?
Joaquín Oliver tenía 17 años cuando le dispararon en el pasillo de su escuela secundaria. Siete años después, dice que cree que es importante hablar sobre lo que sucedió ese día en Parkland, Florida, "para que podamos crear un futuro más seguro para todos". Lamentablemente, lo que le sucedió a Joaquín ese día es que murió Joaquín Oliver tenía 17 años cuando le dispararon en el pasillo de su escuela secundaria. Un adolescente mayor, expulsado unos meses antes, había abierto fuego con un rifle de alta potencia en el Día de San Valentín, en lo que se convirtió en el tiroteo más mortífero de Estados Unidos en la escuela secundaria. Siete años después, Joaquín dice que cree que es importante hablar sobre lo que sucedió ese día en Parkland, Florida, “para que podamos crear un futuro más seguro para todos”. Pero, lamentablemente, lo que le sucedió a Joaquín ese día es que murió. La voz extrañamente metálica que habló con el ex periodista de CNN Jim Acosta en una entrevista en Substack esta semana fue en realidad la de un fantasma digital: una IA, entrenada en las publicaciones de redes sociales del adolescente a petición de sus padres, que la están utilizando para reforzar su campaña por un control más severo de las armas. Al igual que muchas familias en duelo, han contado la historia de sus hijos una y otra vez, con una desgarradora falta de éxito. No es de extrañar que ahora estén tirando desesperadamente de todas las palancas posibles, preguntándose qué se necesita para que los niños muertos sean escuchados en Washington. Pero también querían, admite su padre, Manuel, simplemente escuchar la voz de su hijo de nuevo. Su esposa, Patricia, pasa horas haciendo preguntas a la IA, escuchándolo decir: “Te amo, mamá”. Ningún padre en su sano juicio juzgaría a uno afligido. Si es un consuelo mantener el dormitorio del niño perdido como un santuario, hablar con su lápida, dormir con una camiseta que todavía huele débilmente a ellos, entonces eso no es asunto de nadie más. La gente se aferra a lo que puede. Después del 11-S, las familias escucharon hasta que las cintas se agotaron físicamente para responder a los mensajes telefónicos dejados por sus seres queridos, llamando a casa para despedirse de las torres en llamas y los aviones secuestrados. Tengo una amiga que todavía relee regularmente los viejos intercambios de WhatsApp con su difunta hermana, y otra que ocasionalmente envía mensajes de texto al número de su difunto padre con fragmentos de noticias familiares: ella sabe que él no está allí, por supuesto, pero aún no está lista para terminar la conversación. Algunas personas incluso pagan a mediums para que se comunquen, con tópicos sospechosamente vagos, con los muertos. Pero es precisamente la dificultad para dejar ir que el dolor lo que las hace vulnerables a la explotación. Y pronto podría haber un gran negocio en traer de vuelta a los muertos de forma digital. Al igual que con el video generado por la IA, en el que Rod Stewart tocó en el escenario esta semana con el fallecido Ozzy Osbourne saludando a varias leyendas muertas de la música, eso podría significar poco más que memes glorificados. O podría tener un propósito temporal, como el avatar de IA recientemente creado por la familia de una víctima de disparos en Arizona para dirigirse al juez en la sentencia del asesino. Pero con el tiempo puede ser algo profundamente desafiante para las ideas de individualidad y mortalidad. ¿Qué pasaría si fuera posible crear una réplica permanente de IA de alguien que ha muerto, tal vez en forma de robot, y mantener la conversación con ellos para siempre? La resurrección es un poder divino como para rendirse a la ligera a algún bro tecnológico con un complejo mesiánico. Pero mientras que los derechos legales de los vivos a que no les roben sus identidades para su uso en deepfakes de IA se están estableciendo cada vez más, los derechos de los muertos están enredados. La reputación muere con nosotros -los muertos no pueden ser calumniados-, mientras que el ADN está protegido póstumamente. (El nacimiento en 1996 de la oveja Dolly, un clon genético copiado de una sola célula, provocó prohibiciones globales de clonación humana). La ley rige la eliminación respetuosa del tejido humano, pero no es en los cuerpos donde se entrenará a la IA: son las notas de voz privadas y los mensajes y las imágenes de lo que le importaba a una persona. Cuando mi padre murió, personalmente nunca sentí que estuviera realmente en el ataúd. Era mucho más obvio que se le encontraba en las cajas de sus viejas cartas, el jardín que plantaba, las grabaciones de su voz. Pero cada uno llora de manera diferente. ¿Qué pasa si la mitad de una familia quiere que mamá resucite digitalmente y la otra mitad no quiere vivir con fantasmas? Que la IA de Joaquín Oliver nunca pueda crecer -que tenga 17 años para siempre, atrapado en el ámbar de su personaje adolescente en las redes sociales- es en última instancia culpa de su asesino, no de su familia. Manuel Oliver dice que sabe muy bien que el avatar no es realmente su hijo, y que no está tratando de traerlo de vuelta. Para él, parece más una extensión natural de la forma en que la campaña de la familia evoca la historia de la vida de Joaquín. Sin embargo, hay algo inquietante en el plan para darle a su IA acceso a una cuenta de redes sociales, para subir videos y ganar seguidores. ¿Qué pasa si comienza a alucinar o a virar hacia temas en los que no se puede saber qué habría pensado el verdadero Joaquín? Si bien por ahora hay fallos técnicos con los avatares de IA, a medida que la tecnología mejore podría ser cada vez más difícil distinguirlos en el espacio online de los humanos reales. Tal vez no pase mucho tiempo antes de que las empresas o incluso las agencias gubernamentales que ya utilizan chatbots para atender las consultas de los clientes comiencen a preguntarse si podrían implementar avatares de relaciones públicas para responder a las preguntas de los periodistas. Acosta, un ex corresponsal en la Casa Blanca, debería haber sabido que enturbiaba las aguas ya sucias del mundo de la post verdad al aceptar entrevistar a alguien que técnicamente no existe. Pero por ahora, quizás el riesgo más obvio es que los teóricos de la conspiración citen esta entrevista como una “prueba” de que cualquier historia que desafíe sus creencias podría ser un engaño, la misma mentira delirante que el presentador de Infowars Alex Jones vendió sobre los tiroteos en la escuela Sandy Hook. Sin embargo, los desafíos profesionales aquí involucrados no son solo para los periodistas. A medida que la IA evolucione, todos viviremos cada vez más con versiones sintéticas de nosotros mismos. No será solo la relativamente primitiva Alexa en su cocina o un chatbot en su ordenador portátil -aunque ya hay historias de personas que antropomorfizan la IA o incluso se enamoran de ChatGPT-, sino algo mucho más finamente sintonizado con las emociones humanas. Cuando uno de cada 10 adultos británicos le dice a los investigadores que no tiene amigos cercanos, por supuesto que habrá un mercado para los compañeros de IA, tal como lo hay hoy en día para tener un gato o desplazarse por la vida de extraños en TikTok. Tal vez, como sociedad, finalmente decidamos que nos sentimos cómodos con la tecnología que satisface las necesidades de las personas cuando otros humanos lamentablemente no lo han hecho. Pero hay una gran diferencia entre evocar una presencia genérica y reconfortante para los solitarios y despertar a los muertos, un ser querido perdido a la vez. Hay un tiempo para nacer y un tiempo para morir, según el versículo que a menudo se lee en los funerales. ¿Cómo nos cambiará como especie, cuando ya no estemos seguros de cuál es cuál?

Comentarios

Opiniones