La IA como reto
Me produce sentimientos encontrados todas estas notas de prensa camufladas como noticias donde se muestran los avances de la inteligencia artificial, IA para los amigos. Que si diagnostican mejor, que si reducen costes o vete tú a saber qué nueva frontera cruza esta tecnología que viene a cambiar la forma en la que la sociedad funciona. Y no me produce hastío porque no crea, sino porque no tengo claro que estemos alimentando cuervos, y de todos es conocido la extraña afición que tienen estas aves por los globos oculares de sus dueños.
El punto que me llevó a esta situación es cuando, entre la gente joven con la que interactúo, vengo escuchando cada vez más a menudo la frase “yo le pregunto cosas a ChatGPT sobre mi vida”, y cuando sigues la conversación te das cuenta de que usan el programa como si hablaran con un coach, o incluso con un psicólogo. Les plantean sus dudas, sus miedos, sus sueños, qué quieren ser, abren todo lo que son a un algoritmo que no conocen, y lo que incrementó mi preocupación era el caso que le hacían, casi reverencial, como un párroco en el medievo: palabra de IA, palabra del Señor. No vamos a sacar el comodín del adolescente que se suicidó alentado por estas tecnologías, pero me preocupa la cantidad ingente de personas que confían su futuro sin ser conscientes de lo que están haciendo.
La IA, en resumen y para gente inculta como yo, es introducir millones y millones de datos y luego entrenarla para producir un resultado. Así que dependemos de dos variables: la calidad de los datos y los entrenadores. Aceptando que confiamos en la calidad de ambas variables —y es mucho confiar, porque meter fotos de gatos y perros no es el sueño de ninguna persona, y enseñar a un algoritmo tampoco es que sea la profesión mejor pagada, o preguntar a profesores—, pero aceptamos que ambos están motivados y concienciados de su trabajo, ¿dónde nos deja eso a nosotros?
Tenemos una máquina con una capa de algoritmos con acceso a millones de datos e interacciones que se van corrigiendo, que producen respuestas que se vuelven a introducir en el sistema para perfeccionar el sistema. Como decía Winston Churchill, se supone que si llaman a las 5 de la madrugada a la puerta de casa, es el lechero. Respuestas que son aceptables para la mayoría de la población y la mayoría de situaciones.
El riesgo del uso de estas tecnologías como sustituto de coaches, terapias o profesionales de la salud es que vamos a intentar hacer encajar a todos en un mismo molde: si está sin ganas de hacer nada, es que está deprimido; si no saca buenas notas, es que tiene dificultad cognitiva. Y en cada uno de los problemas, la IA intentará encajarnos por las buenas o por las malas en una de las millones de categorías, y eso es un error.
Las personas somos complejas, diversas, diferentes, extraordinarias, pero para saberlo has de conocerlas, has de verlas interactuar, escuchar cómo hablan, el cacareado lenguaje no verbal responsable de un alto porcentaje de la comunicación (desde el 93% al 60%), con lo que perdemos una parte de lo que es una persona. Podemos recitar de memoria el DSM-5, pero no sabremos nada sobre la persona que nos pregunta, porque como todo terapeuta, psicólogo o coach sabe, los test son para orientarse, de apoyo, pero nunca una verdad fundamental a la que agarrarse.
Sabrás qué te ha explicado, pero no cómo lo decía: el tono de su voz, el brillo de sus ojos, cómo colocaba las manos o se protegía cruzando las piernas, si se acariciaba el pelo o la nariz. Detalles que no son baladíes y ayudan al ojo experto a meterse en la piel de su interlocutor y comprender una realidad que no es suya.
Me imagino que algunos de vosotros diréis que es cierto ahora, que llegará el momento en que la IA sí nos sustituirá, y si nos colocamos el gorro filosófico y aceptamos un universo mecanicista donde todos seguimos unas normas de la física y la química, es cierto, podríamos llegar a los psicohistoriadores de la novela de Isaac Asimov, donde se puede predecir con precisión matemática los sucesos que están por ocurrir.
Pero independientemente de si crees en esta estructura o no, lo emocionante es que no, ahora mismo no estamos ahí, y hemos de reflexionar sobre qué vamos a hacer con una tecnología que, aceptando su potencial, hay que saber usarla y no confundirla con una persona que realmente nos quiere, a pesar de no ser más que un login conectado a su central de datos.
Lo primero que se me ocurre, y que es una práctica habitual para los procesos de formación, es limitarla. Del mismo modo que para aprender una serie de habilidades se limita el registro de respuestas o en muchas escuelas se limita el uso de la tecnología, habría que comenzar a plantearse limitar los usos de esta tecnología hasta que sepamos desarrollarnos con ella. Esto plantea un nuevo reto: ¿quién valida que estamos preparados? ¿Quién pone los límites? Estamos todos de acuerdo en que el navegador web es una herramienta potente para aprender, pero a un niño de 7 años no le dejamos abierto todo Internet; hay sitios a los que querremos que no accedan, o que otro tipo de aplicaciones como los chats se cierren a ciertas horas y días.
Otro punto fundamental es definir también las responsabilidades. Yo, cuando accedo a una empresa a dar mis servicios de asesoría y de integración de sistemas IT con los trabajadores, accedo con un contrato que define y limita mis responsabilidades y mis deberes si algo no funciona. Si algo no va bien, tengo que responder ante un juez por mis acciones y he de defender mis decisiones y acciones —cosa que no me ha tocado hacer nunca y toco madera—. Con estos programas uno firma unos Terms and Conditions que no se lee, y aquí paz y después gloria, con lo que a la hora de pedir responsabilidades comienza una procesión legal para intentar descubrir quién es el responsable final, y si con eso no es suficiente, llevarlo a juicio para justificar sus decisiones es otro salto que de momento nadie ha conseguido.
Tampoco penséis que esto es solo para familias, sino que afecta a empresas. Cada vez más, y como pasó con WhatsApp como herramienta de comunicación, los trabajadores se lanzan a la IA para resolver problemas, implementar procesos y buscar soluciones que necesitan ya y no pueden dedicarse a pensarlas por falta de tiempo —y sí, a veces por falta de nivel—, y estas mismas empresas se ven expuestas al uso de herramientas que son un riesgo no solo legal, sino de *core business*, porque su equipo de trabajadores, por miedo a ser externalizado, ellos mismos delegan el trabajo en IA para entregar a tiempo, llegando a la nefasta conclusión de que como han entrenado a la IA, van a ser partícipes de una profecía autocumplida.
A modo de resumen, no es tanto la tecnología sino el uso y la comprensión que tenemos de ella. Es por eso importante formar a las personas no solo para el uso, sino para entender las consecuencias de usarla y sus implicaciones. La tecnología no es algo que se conecta a un proceso y listo; todos han de ser conscientes de su presencia, su acción y cómo las personas se van a ver afectadas, cómo va a mejorar su día a día —y si no mejora, vamos mal—, y la gestión ha de tener siempre en cuenta que el mundo de IT suena tentador, pero vivimos en un contexto donde los que pagan las facturas son personas, y por lo tanto hemos de cuidarlas para que sigan existiendo personas que nos paguen por nuestros servicios.
No nos escondamos, tenemos que tener un diálogo abierto sobre este tema, y cuanto antes, mejor.