“El efecto Eliza revive en la era de la inteligencia artificial”

 

 

15 de Abril de 2025
Autor: Francisco Javier Parada Barriga. Jefe Unidad de TI

En 1966, Joseph Weizenbaum creó un programa informático llamado ELIZA. Su objetivo era simple: simular una conversación con un psicoterapeuta. ELIZA no entendía nada, pero respondía con preguntas genéricas del tipo “¿Por qué dices eso?” o “Cuéntame más sobre eso”.

Lo sorprendente no fue el código, sino la reacción de las personas: muchas sentían que el programa realmente las escuchaba, que comprendía lo que estaban diciendo. A ese fenómeno se le llamó el efecto Eliza.

Hoy, más de 50 años después, estamos viviendo una versión amplificada de ese fenómeno. Modelos de lenguaje como ChatGPT, diseñados para generar texto de forma fluida y coherente, han alcanzado niveles de sofisticación que rozan lo humano. Pero eso no significa que comprendan lo que dicen, ni que piensen, ni que sientan. Sin embargo, al conversar con estas herramientas, muchas personas no solo olvidan que están frente a un algoritmo, sino que llegan a confiar en él, buscar consuelo, consejo e incluso compañía.

Esto no es malo en sí mismo. Las inteligencias artificiales pueden ser aliadas poderosas en múltiples tareas: desde educación hasta creatividad, desde asistencia técnica hasta la redacción de ideas complejas. Pero es clave entender que, por muy realistas que parezcan, no son conscientes, no tienen emociones y no reemplazan el juicio humano.

El problema surge cuando esta ilusión de comprensión lleva a errores de juicio. Por ejemplo, confiar ciegamente en una respuesta técnica o médica sin validar su veracidad, o sustituir apoyo psicológico profesional por una conversación con una IA. También hay riesgos en la manipulación emocional, cuando una persona vulnerable proyecta sentimientos sobre una máquina que, en el fondo, solo está replicando patrones. Para estar atentos, es importante recordar siempre que estamos interactuando con un sistema sin intención ni conciencia, mantener un pensamiento crítico, y utilizar la IA como apoyo, no como autoridad.

El efecto Eliza nos recuerda que la tecnología no solo se usa, también se interpreta. Leemos más allá de las palabras, buscamos humanidad incluso en una pantalla. Esa capacidad humana de proyectar emociones sobre máquinas puede ser útil… pero también riesgosa. Imaginemos a alguien buscando ayuda emocional en una IA creyendo que esta “comprende”. Imaginemos a un estudiante creyendo que la respuesta generada es infalible solo porque “suena convincente”.

Hoy más que nunca, debemos usar estas herramientas con un criterio informado. Entender cómo funcionan, qué pueden hacer y, sobre todo, qué no pueden hacer. No se trata de desconfiar de la IA, sino de no mitificarla. Porque si algo nos enseñó ELIZA, es que la ilusión de comprensión puede ser tan poderosa como la comprensión misma.

Compartir:

Opinión

DÍA DE LA TIERRA

DÍA DE LA TIERRA

Cada 22 de abril, el Día de la Tierra nos invita a detenernos un momento y mirar con atención el mundo que habitamos. Como biólogo naturalista y botánico, no puedo evitar dirigir esa mirada hacia el reino vegetal, ese tejido orgánico silencioso que sostiene la vida...

Chile: ¿un país cada vez más infeliz?

Chile: ¿un país cada vez más infeliz?

El 20 de Marzo se publicó una nueva edición del World Happiness Report, elaborado desde el año 2012 por la Red de Soluciones para el Desarrollo Sostenible de la ONU con el apoyo de la Consultora Gallup y de expertos a nivel mundial en área del...

Preocupación e incertidumbre sobre el futuro ambiental en Chile

Preocupación e incertidumbre sobre el futuro ambiental en Chile

Durante la última semana nos hemos enterado por la prensa que el Ministerio del medio ambiente envió un oficio a la Contraloría General de la República para retirar del trámite de toma de razón, 43 decretos supremos del gobierno anterior.  Esta decisión...

La privacidad dejó de ser un detalle

La privacidad dejó de ser un detalle

Durante mucho tiempo en Chile los datos personales fueron tratados con una ligereza preocupante. Entregábamos nuestro RUT en cualquier formulario, registrábamos nuestros datos en sitios web sin pensarlo demasiado y aceptábamos políticas de privacidad que casi nadie...

Últimas Noticias