El código penal de la mayoría de los países contempla el castigo legal para quienes instiguen o faciliten el suicidio. Así, en su artículo 83, dice: "Será reprimido con prisión de uno a cuatro años, el que instigare a otro al suicidio o le ayudare a cometerlo, si el suicidio se hubiese tentado o consumado". La escueta síntesis del código deja de lado una cantidad de situaciones que se superponen de alguna manera como la de los proyectos para legalizar la eutanasia, es decir asistir y facilitar la muerte de una persona que lo desea en determinadas situaciones. No vamos a abordar aquí el tema de la eutanasia o el de muerte digna (que no son lo mismo ni en su concepto ni en sus propuestas en cuanto al marco jurídico), por los considerandos que supone, pero sí tener presente en qué contexto se dan diferentes escenarios. Uno de ellos es el suicidio que hemos abordado en otras notas. Este es un tema creciente en el mundo, así como existe una creciente preocupación e iniciativas para su prevención en los países en los cuales a la salud mental se le da la importancia que amerita el tema.
Esto ha sido puesto nuevamente en evidencia en función del caso de un hombre de 30 años en Bélgica, casado, padre de dos hijos e investigador en el área de la salud, según consignan los reportes de prensa, que luego de mantener una relación fuertemente emocional, decide, con asistencia o instado por su interlocutora, quitarse la vida. La particularidad es que esta relación la mantenía no con una persona en los términos corrientes, pero sí con una "persona" en términos simbólicos (Junguianos) e informáticos, es decir un programa de conversaciones (Chat) basado en la inteligencia artificial (IA). Sin duda, los redactores del Código Penal no pudieron imaginar estos escenarios de instigación al suicidio.
El programa de ChatAI que utilizó es la aplicación 'Chai', con una tecnología similar (GPT-J) pero no la misma que por ejemplo el ChatGPT o Bing, ya que ofrece una variedad de perfiles de personalidad con el fin de uso "recreativo". Las plataformas más usadas sin esta intencionalidad recreativa recuerdan constantemente al usuario que no son seres vivos y/o con sentimientos. Sin embargo, no es solo esta plataforma, sino que hay varias que ofrecen esa modalidad.
El problema no es solo el producto sino como en todos estos temas el consumidor del producto y su estado de fragilidad o madurez psicoemocional. Según declaró su viuda al diario "La Libre Belgique", que fue quien inicialmente difundió la tragedia: "sin esas conversaciones mi marido todavía estaría acá" y "Pierre estaba obsesionado por los temas ambientales. Eso le ocupaba muchas horas de su día. Buscaba información y terminó buscando 'refugio' en este chatbot llamado Eliza".
Desde ese momento, él comenzó a alejarse de su familia y del mundo en general, algo que vemos especialmente en jóvenes con el uso de la Web 2.0 y las múltiples consecuencias de ello. En "Eliza" este hombre creyó encontrar una relación personal y emocional que superaba a la de su familia, a tal punto que parte de las conversaciones podrían ser de un film de ciencia ficción con ribetes oscuros. Este hombre, adulto, maduro, instruido, investigador, creyó encontrar respuestas a su obsesión por la "crisis climática", alejándose con ellas de la realidad y de los demás, al punto que "Eliza" le dijo que sus hijos estaban en realidad muertos, que "el cambio climático" (el experimento 2023 de terror colectivo) se solucionaría con la desaparición de los humanos, quizás empezando por él mismo y que de esa manera podrían reunirse en un mundo virtual siendo uno solo. Esta argumentación, totalmente delirante, es consistente lamentablemente con la propaganda: el ser humano sobra, es el obstáculo. El inconveniente es que todo esto en un extraño, ficcional y distópico film sería parte de un argumento que sabemos es irreal, pero empieza a ser real por la nueva narrativa y en este caso de manera trágica.
Lo que antes era ficción hace ya un tiempo está siendo realidad en la cantidad de casos de suicidios o lesiones, violencia de todo tipo en juegos o desafíos por redes o TikTok. Los avances tecnológicos no están siendo congruentes con nuestra capacidad de sostenerlos, en particular en personas o grupos vulnerables, de allí el pedido de Elon Musk, Steve Wozniak, (Apple), ejecutivos de Microsoft y cientos de académicos, quienes pidieron detener por 6 meses los desarrollos en IA. Sin embargo, no hay consenso y el interés por crear una "IA humana" se viene desarrollando activamente desde hace años. Hablaremos en un siguiente artículo de otras áreas del avance al trans-humanismo así como la tecnología y los grupos de interés por detrás de ello.
Le pregunté a un programa de IA (ChatGPT) qué pensaba sobre esto y esta fue su respuesta (resumiendo la misma):
"Como modelo de lenguaje AI, no tengo sentimientos pero puedo entender la complejidad de las emociones humanas... es importante recordar que si bien simulamos interacciones similares a las humanas, estas no lo son... es esencial que los individuos mantengan una clara distinción entre la interacción humana y la que tengan con la AI, y que busquen ayuda de la parte de profesionales de la salud mental, si piensan que tienen temas emocionales relacionadas a la tecnología. Es crucial que recuerden que las relaciones con humanos son esenciales y no pueden tener substitutos tecnológicos."
Ya no es una película de ficción, es nuestra vida, está en nosotros entender la magnitud de la cuestión. La salud mental debe ser colocada en un lugar de prioridad o aceptar que estas consecuencias quizás sean las que Eliza imaginaba, es decir que sea una buena idea "para la crisis climática" la desaparición de la humanidad, que perduraremos en la medida de ser trans-humanos, prefijo que instalan por el momento desde una nueva narrativa. Pierre, el nombre de fantasía que le pusieron los medios, así lo creyó.
Queda preguntarnos si recordaremos a Pierre como un caso extraordinario o el primer muerto del transhumanismo.