NoticiasenRed | Noticias en la nueva red internacional

NoticiasEnRed es una plataforma de noticias en línea dedicada a proporcionar información precisa y actualizada a nuestros lectores.

La IA cruza la frontera de la intimidad sin que la humanidad haya conseguido entenderla

Desde asistentes virtuales capaces de detectar tristeza en la voz hasta bots diseñados para simular el calor de un vínculo afectivo, la inteligencia artificial (IA) está cruzando una frontera más íntima. El fervor que despierta la IA avanza sobre un colchón cada vez más denso de preguntas que nadie termina de responder. Y pese a que tiene el potencial de reducir la burocracia o predecir enfermedades, los grandes modelos de lenguaje (LLM, por sus siglas en inglés) que son entrenados con datos en múltiples formatos —texto, imagen y voz— están siendo capaces de algo más inquietante: pueden comportarse como si comprendieran los sentimientos humanos.

Seguir leyendo

 Los bots de inteligencia artificial pueden aliviar la soledad, pero también aislar y generar dependencia. OpenAI reconoce millones de consultas sobre suicidios en ChatGPT  

Desde asistentes virtuales capaces de detectar tristeza en la voz hasta bots diseñados para simular el calor de un vínculo afectivo, la inteligencia artificial (IA) está cruzando una frontera más íntima. El fervor que despierta la IA avanza sobre un colchón cada vez más denso de preguntas que nadie termina de responder. Y pese a que tiene el potencial de reducir la burocracia o predecir enfermedades, los grandes modelos de lenguaje (LLM, por sus siglas en inglés) que son entrenados con datos en múltiples formatos —texto, imagen y voz— están siendo capaces de algo más inquietante: pueden comportarse como si comprendieran los sentimientos humanos.

La percepción y lectura de emociones es un terreno resbaladizo para la IA. Diversos estudios señalan que los chats de IA pueden aliviar la soledad, pero también aislar y generar dependencia. Un caso extremo es el de Stein-Erik Soelberg, de 56 años, que acabó matando a su madre y suicidándose tras largos meses de charla con ChatGPT. Anoche, la compañía OpenAI reconoció que más de un millón de personas hablan con ChatGPT sobre el suicidio cada semana.

Ya no se trata solo de discutir si las máquinas pueden automatizar tareas, sino también hasta qué punto empiezan a infiltrarse en zonas críticas como las emociones, la identidad, o incluso la libertad de expresión que comienzan a verse tocadas, de manera paulatina, por los algoritmos. Daniel Innerarity, catedrático de Filosofía Política y Social de la Universidad del País Vasco, opina que la humanidad se encuentra en un hype, es decir, en un momento de fuerte (y quizás exagerada) expectación.

“Yo lo llamo historia digital. Hay grandes expectativas y miedos paralelos. Estamos oscilando entre esos dos extremos en una curva acelerada hacia arriba”, indica este experto. Algo similar opina Karen Vergara, investigadora en sociedad, tecnología y género en ONG Amaranta (Chile). “Estamos en un proceso de adaptación y reconocimiento de estos avances tecnológicos y socioculturales”, señala, pero agrega un matiz importante. Porque mientras una parte de la sociedad incorpora esta tecnología en su vida diaria, hay otra que queda al margen. Personas para quienes la IA no es una prioridad, atrapadas en contextos precarios y atravesadas por brechas de acceso que siguen sin cerrarse.

La gran cuestión no es lo sofisticada que pueda llegar a ser esta tecnología que se gestó en el siglo pasado a la hora de descubrir patrones de conducta, sino la excesiva confianza que se le entrega. Un reciente estudio del MIT Media Lab, en Estados Unidos, identificó patrones de interacción entre los usuarios que oscilaron entre sujetos “socialmente vulnerables”, con sentimientos de soledad intensos. También los dependientes de la tecnología, con una alta vinculación emocional y los “casuales”, que recurren a la IA de manera más equilibrada.

Para Innerarity, pensar que alguien se ha suicidado porque “un algoritmo se lo ha recomendado” nos remite a una pregunta previa de qué sucede en la cabeza de una persona que decide confiar en una máquina antes que un humano. “Seguramente el problema es anterior”, recalca este filósofo.

La sociedad, dice Innerarity, ha cometido un gran error al antropomorfizar la IA. “Cuando escribí Una teoría crítica de la inteligencia artificial (Galaxia Gutenberg, 2025) tenía que buscar una portada y lo único que tenía claro es que no quería poner un robot con forma humana”, recuerda. Él es totalmente contrario a representaciones de la IA con manos, pies y cabeza: “El 99% de los robots que usamos los humanos no tienen forma antropomórfica”.

Un oráculo digital que reproduce sesgos

Mercedes Siles, catedrática de Álgebra en la Universidad de Málaga y miembro del Consejo Asesor de la Fundación Hermes, propone una imagen simple. Una metáfora. Pide que imaginemos a la IA como una caja pequeña repleta de papeles doblados. Algo así como una versión menos crujiente de las galletas de la suerte. Cada mañana, una persona estira el brazo y toma un papel que contiene una frase que, sin saberlo, va a guiar su día. “Lo que comienza como un simple ritual poco a poco se convierte en una necesidad diaria. Con el tiempo, esta práctica crea una dependencia emocional”, ejemplifica.

Entonces la caja, que al principio era solo un objeto más, se transforma en “un oráculo. Lo que nadie advierte es que esa caja no posee ni la sabiduría ni el poder que se le atribuye”, explica. Según Siles, el algoritmo no deja de ser un lenguaje. Y como todo lenguaje, puede reproducir sesgos sexistas o racistas. “Cuando hablamos de la ética del lenguaje, también debemos hablar de la ética de los algoritmos”, agrega.

Desde América Latina, donde las heridas digitales se suman a las estructurales, Karen Vergara advierte que el problema en ese lado del mapa se acentúa más. Otro de los conflictos éticos que observa es la excesiva complacencia. Estos modelos de aprendizaje automatizado intentan asociar preguntas, clasificarlas y a partir de toda la información, otorgar la respuesta más afín.

Ignora, sin embargo, contextos culturales, mezcla información académica con frases sueltas de autoayuda. “Si nos desligamos de ello, es más probable que este tipo de asistentes virtuales, y chatbots terminen reforzando solo una forma de ver el mundo, y que entreguen esa falsa sensación de ser el único amigo que no te juzga”, enfatiza Vergara.

Siles, entonces, vuelve a la imagen. Compara las relaciones humanas como un bosque. “Si miras lo que pasa debajo de la superficie y de la tierra, hay interconexión y no podemos romperla, tenemos que fortalecerla. Hay que repensar el tipo de sociedad que tenemos”, señala.

La regulación, un dilema

En agosto de 2024, Europa cruzó un umbral. El Reglamento Europeo de Inteligencia Artificial entró en vigor y se convirtió en el primer marco jurídico mundial para la IA. Un recordatorio a los gobiernos de la Unión Europea de que la seguridad y los derechos fundamentales no son opcionales, pero también una invitación a desarrollar un proceso de alfabetización. Su aplicación está siendo progresiva y en España el anteproyecto dio luz verde en marzo pasado.

Pero el ritmo político no siempre acompaña a la velocidad de las tecnologías, y entre quienes observan el panorama con inquietud está la catedrática Mercedes Siles, que no disimula su preocupación. Le alarma la falta de formación, la dejadez institucional, la liviandad con la que algunas empresas despliegan modelos sin entender del todo sus consecuencias.

“¿Cómo nos atrevemos a soltar estos sistemas así, sin más, a ver qué pasa?”, se pregunta. La experta insiste en que se debe dar formación a las personas para que comprendan cuáles son los límites. A esa mirada se suma la del filósofo Daniel Innerarity, que pide ir un paso más atrás. No discutir normativas sin antes preguntarse de qué estamos hablando realmente cuando hablamos de inteligencia artificial.

“¿Qué tipo de futuro están modelando nuestras tecnologías predictivas? ¿Qué entendemos, en realidad, por inteligencia?”, plantea. Para Innerarity, mientras no se resuelvan esas preguntas elementales, cualquier regulación corre el riesgo de ser ineficaz. O, peor aún, arbitraria. “Sin comprensión, los frenos no solo no funcionan, ni siquiera tienen sentido”, concluye.

 Feed MRSS-S Noticias