SISTEMA +R

SISTEMA DE NOTICIAS

La ilusión de la escucha en tiempos de IA: desafíos y preguntas sobre cómo niños y niñas dialogan con chatbots

La inteligencia artificial se transforma en un espacio de alivio para quienes buscan sentir compañía o resolver problemas emocionales (Imagen Ilustrativa Infobae)

Hace tiempo que incorporé una pregunta que antes no le hacía a niños, niñas y adolescentes cuando llegaban a la consulta: ¿Usás chatbots o inteligencia artificial para hablar, preguntar o contar cosas que no le dirías a otra persona?

La respuesta aparece cada vez con mayor frecuencia, en niños, niñas desde los 8 años: sí.

Lo utilizan para hacer tareas, para sacarse dudas, para entender cosas y también para conversar.

En general, la usan para preguntar lo que no se animan, algunas cuestiones relacionadas con el desarrollo, la sexualidad, la amistad, la relación con la familia y para ordenar lo que sienten, pero muchos lo hacen para no sentirse o estar solos.

En los más chicos aparece como una ayuda, para entender y resolver rápido. En la preadolescencia consultan qué decir, cómo decirlo, cómo responder. Y en la adolescencia también la usan para hablar.

Muchos menores recurren a chatbots para abordar temas delicados como sexualidad, amistad, bullying y relaciones familiares (Imagen Ilustrativa Infobae)

Cuando un niño o niña habla con una inteligencia artificial, piensa que está conversando y siente que está entrando en una forma de vínculo.

La inteligencia artificial deja de ser una herramienta y empieza a funcionar como un contenedor. “Calmame”, “decime algo para sentirme mejor”, “distraeme”. Se busca una respuesta inmediata que simula escucha, pero no implica a nadie.

Todavía hay poca evidencia específica sobre inteligencia artificial conversacional en niños y adolescentes, pero algunos estudios recientes empiezan a mostrar cómo se está usando.

Una investigación realizada por la Escuela de Salud Pública de la Universidad de Brown y Harvard, encontró que aproximadamente 1 de cada 8 adolescentes y jóvenes utiliza chatbots de inteligencia artificial para obtener consejos sobre salud mental, dos tercios de quienes recurren a estos sistemas lo hacen al menos una vez al mes, y la gran mayoría afirma que les resulta útil. Y recurren a ella cuando se sienten tristes, enojados o nerviosos.

La IA es utilizada para obtener respuestas rápidas y planificar acciones ante situaciones difíciles en la infancia y adolescencia (Imagen Ilustrativa Infobae)

El fenómeno se explica por características muy concretas: bajo costo, disponibilidad inmediata y una fuerte percepción de privacidad. Es decir, condiciones que vuelven a estos sistemas especialmente atractivos para quienes no acceden —o no pueden acceder— a espacios de escucha reales.

A las típicas consultas —“respondé a una amiga”, “qué decirle a la novia”, “cómo contestar un comentario en redes”— se suma un terreno más silencioso y más delicado: bullying, ciberbullying, violencia sexual en entornos presenciales o digitales, ludopatías. Todas situaciones difíciles de relatar que encuentran en la IA un terreno propicio, una especie de testigo y asesor del malestar.

Ese hablar o escribir queda encapsulado, como si se lo hubieran contado a alguien, en un circuito cerrado de falsa develación, pero la sensación es de alivio, por lo menos transitorio.

Nada de eso se inscribe en un vínculo real, nadie interviene ni protege y tampoco se hace responsable.

Consultas sobre bullying, violencia digital y ludopatía encuentran en la inteligencia artificial un espacio confidencial y accesible (Imagen Ilustrativa Infobae)

A diferencia de las redes sociales o los videojuegos, la inteligencia artificial introduce una diferencia cualitativa: aquí no solo hay interacción, hay respuesta. Y en esa respuesta, la ilusión de un interlocutor válido, cuando en realidad se trata de un robot.

Un adolescente que scrollea sabe que está delante de una pantalla, quizá no tanto en momentos inmersivos, menos conscientes, pero de algún modo comanda su conducta. La diferencia aparece cuando envía un audio o escribe a un chatbot y recibe una respuesta acorde, en consonancia con sus creencias y valores. La IA se ajusta, pero ese ajuste tampoco es neutro, se apoya en patrones previos donde se inscriben desigualdades y estereotipos de género que se reproducen sin cuestionamiento.

Un estudio de la UNESCO reveló que los modelos de lenguaje asocian a las mujeres con el hogar, la familia y los hijos (hasta cuatro veces más que a los hombres), mientras vinculan a los hombres con negocios, carreras y puestos ejecutivos. Y esos estereotipos, en una subjetividad en desarrollo, delimitan qué se puede desear, qué se espera de cada uno, cómo se nombran los vínculos, como debe ser el cuerpo y hasta qué se puede aspirar. En lugar de abrir preguntas, fijan respuestas. Se trata de intercambios sin alteridad, pero ni los adultos lo saben del todo, porque también muchos la utilizan para resolver sus problemas.

La inteligencia artificial no conoce ni comprende a quien le habla, pero el uso sostenido puede producir algo que se le parece. A medida que el intercambio se repite, el sistema ajusta sus respuestas en función de las palabras, los temas y el tono emocional del usuario.

El uso de chatbots permite a los adolescentes pedir consejos sobre salud mental, tareas escolares y relaciones sociales (Imagen Ilustrativa Infobae)

No es un conocimiento del sujeto, sino un afinamiento progresivo del lenguaje que devuelve. Ese lenguaje, además, no proviene de una experiencia ni de un saber situado en alguien, sino de grandes volúmenes de textos con los que fue entrenada, a partir de los cuales aprende patrones de cómo responder. Cuando alguien escribe, no recuerda ni consulta una verdad: predice qué decir en función de lo que recibe.

Sin embargo, esa respuesta puede resultar lo suficientemente precisa como para generar la sensación de estar siendo entendido. Y es ahí donde el problema se vuelve más complejo y alienante: no hay un otro que escuche, pero la experiencia subjetiva es la de haber sido escuchado.

Es una especie de externalización del pensamiento, donde incluso se delega el proceso mismo de pensar: ¿Por qué siento esto? ¿Debería sentirlo? ¿Está mal este pensamiento?”.

La experiencia de conversar con IA genera una ilusión de vínculo aunque las respuestas provengan de patrones automatizados (Imagen Ilustrativa Infobae)

Estas operaciones, propias de la introspección son el mecanismo por el cual nos pensamos a nosotros mismos y en vínculo con los demás. Cuando de manera asidua se pregunta a la IA qué decir, cómo escribir, qué opinar, incluso cómo sentirse frente a una situación, implica correr esa operación hacia afuera. Y aunque hay un primer trabajo psíquico en haber formulado la pregunta, y no es menor, la respuesta se espera del exterior, debilitando, o incluso anulando, el proceso interno.

Posiblemente, en los próximos años, empecemos a ver las consecuencias de delegar en la tecnología funciones mentales. En una subjetividad en desarrollo, ese desplazamiento puede empobrecer los procesos de elaboración, reducir la tolerancia a la duda, debilitar la construcción de criterio propio y empujar hacia formas de pensamiento cada vez más breves, estandarizadas, tanto al escribir como al hablar.

Los chicos ya usan inteligencia artificial y ya hay pruebas consistentes de que la prohibición, como compartí en columnas anteriores, del uso de redes en púberes y adolescentes, no ha funcionado; en niños pequeños, en cambio, sí, en la medida en que todavía hay mayor mediación adulta, más control del entorno y una dependencia más clara de quienes cuidan.

Entonces la pregunta no es si van a usarla, sino qué vamos a hacer con esto: si la vamos a incorporar en los hogares, en la clínica, en la escuela, en las políticas públicas, o si vamos a volver a llegar tarde. Porque ya estamos retrasados, entre otras cosas, por la brecha generacional.

La inteligencia artificial ajusta sus respuestas según los temas y el tono emocional de cada usuario, sin conocimiento personal real (Imagen Ilustrativa Infobae)

Lo que está en juego no es solo la tecnología, sino el lugar que le damos al pensamiento, a la palabra y a cómo cada niño, niña y adolescente tramita lo que le pasa y lo que siente. También qué lugar jugaremos los adultos en esa intermediación.

No es casual que, en este contexto de palabra vacía y efímera el psicoanálisis vuelva a cobrar fuerza.

Mientras las tecnologías prometen respuestas inmediatas, insiste en otra cosa: en el tiempo, en la palabra, en el mundo interno y en la singularidad. No ofrece recetas, ni tips, ni busca silenciar el sufrimiento. Todo lo contrario: lo interroga en una época en que pocos quieren hacerlo.

Y hoy, cuando cada vez más chicos recurren a la inteligencia artificial para aliviarse, decir lo que no pueden decir en otro lado, esa escucha es más necesaria y más revolucionaria que nunca. Un niño o una niña no necesita solo una respuesta, necesita hablar, escucharse y que haya alguien del otro lado con toda su humana disponibilidad.

*Sonia Almada es Lic. en Psicología de la Universidad de Buenos Aires. Magíster Internacional en Derechos Humanos para la mujer y el niño, violencia de género e intrafamiliar (UNESCO). Se especializó en infancias y juventudes en Latinoamérica (CLACSO). Fundó en 2003 la asociación civil Aralma que impulsa acciones para la erradicación de todo tipo de violencias hacia infancias y juventudes y familias. Es autora de tres libros: La niña deshilachada, Me gusta como soy, La niña del campanario y Huérfanos atravesados por el femicidio.