La inteligencia artificial (IA) gana cada vez más protagonismo en la vida cotidiana. Esta herramienta superpoderosa ya no se restringe únicamente a programadores y expertos en tecnología, sino que está presente en el celular que llevamos en el bolsillo, en las consultas que hacemos y las conversaciones que tenemos. También le pedimos ayuda y le confiamos nuestras dudas. Así, de manera silenciosa, pero constante, se instaló en nuestras rutinas, influyendo en decisiones e incluso moldeando la forma en que pensamos y miramos el mundo.
Los efectos de esta transformación ya están a la vista: recientemente, se viralizó una noticia en la que una mujer griega decidió divorciarse de su marido por consejo de ChatGPT. Específicamente, le pidió al modelo que aplicara sus conocimientos de taseografía -una técnica de adivinación que interpreta patrones en hojas de té o tazas de café- y la IA le dijo que su pareja “fantaseaba” con una mujer cuyo nombre tiene como letra inicial la “E”, así como también que estaba destinado a vivir un romance con ella.
Al indagar aún más en la lectura, ChatGPT le dijo a la mujer que su marido le era infiel y, enfurecida, decidió poner a su fin a su matrimonio de 12 años.
La búsqueda de una respuesta “mágica”
Es un hecho que la IA llegó para revolucionar la forma en la que nos vinculamos con la tecnología. Pero, ¿por qué le creemos casi ciegamente? ¿Por qué no cuestionamos sus respuestas, incluso sabiendo que se trata de sistemas entrenados con millones de datos y que generan contenido en base a patrones aprendidos, y que no piensan ni saben, realmente, lo que están diciendo?
“La gente siempre necesita creer en algo mágico, que alguien nos diga qué hacer, porque entonces no es uno el que decide, sino un otro. Esto de buscar una respuesta rápida y mágica es nuestra parte infantil, la que quiere solucionar y ver rápidamente una respuesta y no hacerse cargo”, explicó Mirta Cohen, miembro titular en función didáctica de la Asociación Psicoanalítica Argentina (APA).
En esta línea, Patricia O’Donnell, médica psiquiatra, psicoanalista y miembro de APA, consideró que estas respuestas instantáneas pasan por alto nuestras emociones y pensamientos, “sin la necesidad de un tiempo de espera, reflexión y elaboración”.
Por su parte, María Pilar García Bossio, doctora en Ciencias Sociales y profesora de la Universidad Torcuato Di Tella (UTDT) y de la Universidad Católica Argentina (UCA), destacó la creciente presencia de la IA en una sociedad cada vez digitalizada y despersonalizada: “Estamos tan acostumbrados a dialogar con otros por medios digitales que es fácil que nos olvidemos que estamos hablando con una inteligencia artificial y no con una persona, sobre todo en la medida en que la tecnología se ha vuelto más sofisticada en su discurso, pudiendo adaptar su lenguaje a nuestras necesidades”.
“¿En qué se diferencia estar chateando con una amiga por WhatsApp contándole mis problemas, que con una IA, si no es en que yo sé que del otro lado hay una persona o un bot?“, reflexionó la especialista.
A su vez, se refirió a uno de los grandes atractivos de esta tecnología: su capacidad para darnos respuestas hechas a nuestra medida. “Aprende de nosotros y tiende a fortalecer el sesgo de confirmación, es decir, alimenta nuestra tendencia a buscar opiniones que se alinean con nuestros propios gustos y creencias. Así, me dice lo que quiero escuchar”, dijo.
ChatGPT, ¿gurú de la vida?
Desde astrólogo y tarotista, hasta especialista en taseografía y consejero de relaciones románticas, ChatGPT se convirtió en un compañero, guía y asesor de vida para millones de usuarios alrededor del mundo. En definitiva, una herramienta clave para tomar decisiones o validar conceptos.
Por ejemplo, en septiembre de 2024 se viralizó en redes sociales el uso de esta herramienta como detector de signos de toxicidad -también llamados red flags, o banderas rojas– en conversaciones de WhatsApp. En detalle, si se le envía una captura de pantalla de un chat, el sistema analiza comportamientos sospechosos, como manipulación, celos o control.
Sin embargo, sus respuestas no siempre son acertadas. “Los modelos de lenguaje pueden procesar muchos textos en paralelo y encontrar relaciones entre palabras a gran escala. Leen, pero no como nosotros”, señaló Fredi Vivas, ingeniero y docente de IA en la Universidad de San Andrés.
Específicamente, los modelos de IA ‘leen’ mediante la predicción de palabras. “Usan un sistema que se llama Atención, que les permite entender el contexto de cada palabra en una oración”, detalló Vivas. Por este motivo, el experto aclaró que, en lugar de razonar, estos sistemas repiten patrones de forma estadística.
“Si uno le pide a un modelo de lenguaje que explique por qué los Beatles fue una banda exitosa, te va a dar una respuesta convincente, pero no significa que sepa de música. Lo que sucede es que ‘leyó‘ muchos textos sobre el tema, porque tiene muchas fuentes de información”, ilustró. No obstante, Vivas subrayó que la constante evolución de estas herramientas podría corregir tales errores en un futuro cercano.
De igual manera, es común ver hoy en conversaciones de X (la ex Twitter) invocaciones a Grok, la IA de la plataforma, para que explique o confirme un dato publicado en un posteo, y muchos usuarios toman ese comentario como válido e irrefutable, pese a que a veces tiene buena información para aportar y en otros casos claramente está errada.
“Estos modelos intentan ser útiles, que vos te sientas cómodo con la interacción. Si es una conversación, que quieras seguir usando la herramienta. Entonces, lo que armaron en algunos casos es como un tono de conversación adulador. Vos le hacés una pregunta y te dice “me parece buena idea, genial”. Eso puede percibirse como que parece que sabe todo (pese a que sus respuestas son estadísticas). La técnica que se usa para tratar de afinar los resultados y aprender, digamos, colectivamente, se llama aprendizaje por refuerzo con feedback humano (cuando le decimos que la respuesta fue buena o no). Las herramientas están aprendiendo con la interacción humana para ser cada vez mejores.”
Creer que la tecnología es perfecta y no comete errores no es una novedad. Desde las primeras computadoras y calculadoras, hasta los más avanzados GPS, la sociedad siempre tendió depositar un exceso de confianza en las máquinas. Expertos denominan este fenómeno como sesgo de automatización, que a su vez conduce a la complacencia automatizada, donde las personas son menos capaces de detectar fallos cuando un dispositivo está al mando, según explica un artículo de la BBC.
Dependencia emocional y soledad
En este contexto, el uso excesivo de una tecnología aún imperfecta como “compañero virtual” que influencia nuestras decisiones plantea consecuencias y potenciales peligros a largo plazo.
De hecho, el estudio How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use: A Longitudinal Randomized Controlled Study, realizado por el MIT Media Lab y OpenAI en marzo, revela que aquellos que dedican más tiempo a escribir o hablar con ChatGPT a diario tienden a reportar mayores niveles de dependencia emocional y un uso problemático del chatbot, así como también altos niveles de soledad.
Bajo esta línea, el informe Hesitant & Hopeful: How Different Generations View Artificial Intelligence, publicado por Barna Group en enero de 2024, en el que participaron 1500 adultos estadounidenses a través de una encuesta online, indica que los millennials son los que más utilizan esta tecnología, en comparación con otras generaciones. En números concretos, el 45% comentó que utiliza IA al menos una vez a la semana y los motivos de consulta están vinculados a cuestiones personales, en lugar de trabajo.
La investigación también revela que la mitad de la generación Z afirma sentir “algo”(39%) o “definitivamente”(11%) la urgencia de integrar IA en sus vidas.
“El peligro del aislamiento da tendencia al autismo, especialmente en aquellos que tienden a una defensa en la soledad”, sostuvo Andrés Racovsky, psicólogo y expresidente de APA. Además opinó que, a pesar del intento de la IA por “humanizarse”, jamás podrá igualar las conexiones humanas.
En tanto, O’Donnell remarcó que “esperar que todo lo resuelva la IA” podría conducir a desperdiciar el potencial creativo de cada persona, así como también la capacidad de crear lazos.
“Paradojalmente, tanta conexión puede acentuar la vivencia de soledad, pues el sujeto, al sumergirse en satisfacciones temporales y efímeras, se queda más solo y puede intentar refugiarse en un mundo vacío”, reflexionó.