Desde ChatGPT que elabora correos electrónicos hasta sistemas de inteligencia artificial que recomiendan programas de televisión e incluso ayudan a diagnosticar enfermedades, la presencia de la inteligencia artificial en la vida cotidiana ya no es ciencia ficción.
Y, sin embargo, a pesar de todas las promesas de velocidad, precisión y optimización, persiste una incomodidad. A algunas personas les encanta usar herramientas de inteligencia artificial. Otros se sienten ansiosos, desconfiados e incluso traicionados por ellos. ¿Por qué?
La respuesta no se trata sólo de cómo funciona la IA. Se trata de cómo trabajamos. No lo entendemos, por eso no confiamos en él. Es más probable que los seres humanos confíen en los sistemas que comprenden. Las herramientas tradicionales resultan familiares: giras una llave y el coche arranca. Presionas un botón y llega un ascensor.
Anuncio
incógnita
Manténgase al día con el calendario de felicidad de GGSC
Haz que el mundo sea un poco mejor este mes
Pero muchos sistemas de IA funcionan como cajas negras: escribes algo y aparece una decisión. La lógica intermedia está oculta. Psicológicamente, esto es desconcertante. Nos gusta ver causa y efecto y nos gusta poder cuestionar las decisiones. Cuando no podemos, nos sentimos sin poder.
Ésta es una de las razones de lo que se llama aversión a los algoritmos. Este es un término popularizado por el investigador de marketing Berkeley Dietvorst y sus colegas, cuya investigación demostró que las personas a menudo prefieren el juicio humano defectuoso a la toma de decisiones algorítmica, particularmente después de presenciar incluso un solo error algorítmico.
Sabemos, racionalmente, que los sistemas de IA no tienen emociones ni agendas. Pero eso no nos impide proyectarlos en sistemas de inteligencia artificial. Cuando ChatGPT responde «demasiado cortésmente», algunos usuarios lo encuentran inquietante. Cuando un motor de recomendaciones se vuelve demasiado preciso, resulta intrusivo. Empezamos a sospechar de manipulación, aunque el sistema no tiene yo.
Ésta es una forma de antropomorfismo, es decir, atribuir intenciones humanas a sistemas no humanos. Los profesores de comunicación Clifford Nass y Byron Reeves, junto con otros, han demostrado que respondemos socialmente a las máquinas, incluso sabiendo que no son humanas.
Odiamos cuando la IA se equivoca
Un hallazgo curioso de la ciencia del comportamiento es que a menudo somos más indulgentes con los errores humanos que con los errores de las máquinas. Cuando un humano comete un error, lo entendemos. Incluso podríamos sentir empatía. Pero cuando un algoritmo comete un error, especialmente si se presenta como objetivo o basado en datos, nos sentimos traicionados.
Esto se vincula con la investigación sobre la violación de expectativas, cuando nuestras suposiciones sobre cómo algo “debería” comportarse se ven alteradas. Provoca malestar y pérdida de confianza. Confiamos en que las máquinas sean lógicas e imparciales. Entonces, cuando fallan, como al clasificar erróneamente una imagen, ofrecer resultados sesgados o recomendar algo tremendamente inapropiado, nuestra reacción es más aguda. Esperábamos más.
¿La ironía? Los humanos toman decisiones erróneas todo el tiempo. Pero al menos podemos preguntarles «¿por qué?»
Para algunos, la IA no sólo es desconocida, sino existencialmente inquietante. Profesores, escritores, abogados y diseñadores se enfrentan de repente a herramientas que replican partes de su trabajo. No se trata sólo de automatización, sino de lo que hace que nuestras habilidades sean valiosas y de lo que significa ser humano.
Esto puede activar una forma de amenaza a la identidad, un concepto explorado por el psicólogo social Claude Steele y otros. Describe el miedo a que la experiencia o la singularidad de uno se vean disminuidas. ¿El resultado? Resistencia, actitud defensiva o rechazo total de la tecnología. La desconfianza, en este caso, no es un error: es un mecanismo de defensa psicológico.
Anhelar señales emocionales
La confianza humana se basa en algo más que la lógica. Leemos el tono, las expresiones faciales, las vacilaciones y el contacto visual. La IA no tiene nada de esto. Puede que sea fluido e incluso encantador. Pero no nos tranquiliza como lo hace otra persona.
Esto es similar a la incomodidad del valle inquietante, un término acuñado por el robotista japonés Masahiro Mori para describir la extraña sensación cuando algo es casi humano, pero no del todo. Parece o suena bien, pero algo se siente mal. Esa ausencia emocional puede interpretarse como frialdad o incluso engaño.
En un mundo lleno de deepfakes y decisiones algorítmicas, esa falta de resonancia emocional se convierte en un problema. No porque la IA esté haciendo algo mal, sino porque no sabemos cómo sentirnos al respecto.
Es importante decir: no todas las sospechas sobre la IA son irracionales. Se ha demostrado que los algoritmos reflejan y refuerzan el sesgo, especialmente en áreas como el reclutamiento, la vigilancia y la calificación crediticia. Si los sistemas de datos le han perjudicado o perjudicado anteriormente, no está siendo paranoico, sino cauteloso.
Esto se vincula con una idea psicológica más amplia: la desconfianza aprendida. Cuando las instituciones o los sistemas fallan repetidamente a ciertos grupos, el escepticismo se vuelve no sólo razonable, sino protector.
Decirle a la gente que «confíe en el sistema» rara vez funciona. Hay que ganarse la confianza. Eso significa diseñar herramientas de IA que sean transparentes, interrogables y responsables. Significa dar a los usuarios capacidad de acción, no sólo comodidad. Psicológicamente confiamos en lo que entendemos, en lo que podemos cuestionar y en lo que nos trata con respeto.
Si queremos que la IA sea aceptada, debe sentirse menos como una caja negra y más como una conversación a la que estamos invitados a unirnos.
Este artículo se vuelve a publicar desde The Conversation bajo una licencia Creative Commons. Lea el artículo original.



