La idea de que el mundo cambió y que no hay vuelta atrás se escucha permanentemente, y parece ser una frase con cierta sofisticación, aunque no es más que un indicador del deseo de no querer hacerlo. Fuera de este juicio sobre el juicio acerca del cambio tecnológico, es interesante observar los picos de atención de la agenda techie, hoy con chatGPT como el rey de los titulares.
En casi todas mis actividades la Inteligencia Artificial promete modificar algo, y en buena parte de ellas modificará mucho. De hecho, muchas discusiones sobre los coches autónomos de los últimos años es del mismo tipo que las discusiones sobre otras manifestaciones de la AI.
Dejando de lado los miedos, no debemos olvidar que lo que llamamos IA es un software, y por lo tanto (con buen procesamiento y buenos algoritmos) puede simular con mucha exactitud procesos humanos, pero ontológicamente no dejan de ser simulaciones. Una analogía que considero válida es el fotograma en el cine que encontró la simulación del movimiento pasando muchas fotos tan rápidamente para que el sistema que involucra al ojo y al cerebro no se diera cuenta de que se construye con imágenes fijas.
Ciertamente, una vez que estas simulaciones se hacen potentes pueden trabajar con mucha información, como también han creado enormes industrias rentables. No hay nada de malo en las simulaciones, especialmente cuando cobran capacidades a las que no podemos acceder humanamente.
La AI no es tan diferente. Cuando todavía estos sistemas tenían errores gramaticales o fallas en las conjugaciones verbales, podríamos darnos cuenta. Pero hoy ocurre que la AI provee muchos resultados tan buenos que no nos podemos dar cuenta de su origen. Y esto es algo que se busca desde la fundación del concepto de IA basada en una perspectiva funcional: si ladra, es perro (utilizando un lenguaje más coloquial).
En este momento del desarrollo tecnológico y rodeados de dispositivos que son canales de información, escuchamos muchos ladridos, pero muchos de ellos no provienen de perros, y esto horroriza a buena cantidad de personas a la vez que interesa a muchos otros. Un sistema de semáforos, los robots correctores de Wikipedia o la interpretación semántica del buscador de Google son ejemplos de aplicaciones de IA con las que convivimos, y sobre las que usualmente no abrimos juicio.
Vamos a evitar la discusión sobre la literalidad de la palabra “inteligencia” y sus derivaciones conceptuales sobre la exclusividad, o no, humana de contar con la capacidad de “ser inteligente”. Aunque sí interesa tratar de especular las razones por las que chatGPT asombra tanto.
Esta especulación tiene dos observaciones como fuente. La primera es que, aunque se haya naturalizado, el algoritmo de búsqueda de Google es asombroso y también se basa en datos preexistentes. La segunda es que la condición para asombrarnos es ver cómo una máquina puede responder lo mismo que nosotros, es decir: se comporta de modo especular.
Como sucede con el buscador de Google, si no sabemos sobre lo que estamos buscando, no tenemos elemento de juicio acerca de la validez y la relevancia de los resultados. Y esto también ocurre con el chatGPT. Especialmente porque su desarrollo es un gran intento por ofrecer respuestas relevantes, lo que requiere necesariamente de compromisos y criterios previos, incluso algunos que parecen evidentes. El ejemplo de la AI aplicada a la justicia es interesante porque el criterio de aquello que se considera legal (con atenuantes y agravantes) rige el comportamiento del software. Pero esto no necesariamente coincide con lo que la población o la opinión pública considera en cada fallo.
Volviendo al buscador de Google, la relevancia que surge del PageRank puede ser ampliamente discutida (especialmente en el significado de la palabra “relevancia” en castellano), pero explicitando cuáles son los criterios desde los que da sus resultados se comprendería mejor el valor, el orden y la relevancia (real) de los mismos. Como se construye a partir de la aceptación masiva, se convierte en un indicador del sentido común sobre cada tema. Pero esa aceptación no implica exactitud ni relevancia.
Las respuestas de chatGPT también son hijas de los datos de origen, incluso cuando se trate de una combinación de varias fuentes. Y si el criterio para dar las respuestas es la aceptación general, entonces chatGPT es especular no tan distinto a un buscador de Google sofisticado.
Esto significa que tienen sesgos, y que conlleva el mismo riesgo de considerar válidas las respuestas solo porque un software las da como válidas.
En los ambientes educativos el revuelo fue especialmente ruidoso. No faltaron las (inútiles) ideas de prohibición, como tampoco las de integración directa en las aulas. En algunos pocos casos hubo una interesante orientación hacia la formulación de las preguntas más que en la atención al contenido de las respuestas. Para el entrenamiento (que diferencio vigorosamente de la educación), las aplicaciones ya están en marcha.
En cualquier caso, y luego de la explosión inicial, es un elemento más que se suma a un gigantesco acervo de información que “atenta” contra los procesos pedagógicos tradicionales desde hace décadas, y que se agravará cuando el resto de las tecnológicas muestren sus plataformas obligadas por el primer paso dado por chatGPT.
Es cierto que, dado que solo podemos validar el acuerdo o el desacuerdo con los datos preexistentes mediados por estas aplicaciones, necesitamos comprender los criterios de construcción de sus resultados. Y entonces es necesario rescatar algo del criterio de validez de los procesos tradicionales: el principio de autoridad. Por ello, cuando todavía buscamos algo en Google podemos preguntar: ¿quién lo dice?, y con espíritu indagador ir a buscar las fuentes. Es decir que podemos verificar si lo que ladra es un perro, y cuál de ellos lo ha hecho.
Bienvenido chatGPT para hackear las aulas y obligarnos a crear estrategias cada vez más críticas, especialmente cuando nos encontramos con muchos ladridos sin posibilidad de verificar si hay un perro. Y recordemos siempre que sin perro, nunca hubieran existido ladridos.
Update
Este artículo del Washington Post es fabuloso para identificar a los perros: Inside the secret list of websites that make AI like ChatGPT sound smart