A finales de 2022, la empresa OpenAI dio a conocer su ChatGPT, un modelo de generación de lenguaje que causó revuelo. La generación de lenguaje es una de las muchas alternativas que ofrece la tecnología de inteligencia artificial (IA), pero se le ha vendido como si fuera La Inteligencia Artificial. Esta confusión, impulsada por las propias empresas, ha hecho que ese tipo de tecnología de cómputo sea considerada una especie de oráculo capaz de responder correctamente a todo. Por supuesto, no lo es. ChatGPT y sus competidores no son más (ni menos) que modelos de generación de lenguaje, muy adecuados para la programación y, si se usan con cuidado, para la corrección editorial.
Tengo colegas que, de plano, rechazan el uso de esos programas, especialmente en la docencia. Como supongo que mis estudiantes los emplearán de cualquier forma, recurro a otras estrategias (como prohibir pantallas en clases, lo que los obliga a tomar notas en papel) y procuro poner a prueba las distintas apps para conocer sus alcances y límites. Por supuesto, creo que se debe empezar por tener en cuenta las consideraciones éticas, desde la cantidad de energía y recursos naturales que consumen y dejan una tremenda huella en el medio ambiente, hasta las consecuencias para millones de personas que pueden perder sus trabajos, sin ignorar las posiciones políticas ultraderechistas que algunos magnates tecnológicos promueven.
Tras estas consideraciones, he usado ChatGPT para diversas tareas. Las traducciones, en general, son aceptables, lo mismo que la corrección de estilo y los resúmenes, aunque mientras mayor sea el número de páginas que se deben traducir, corregir o resumir, la calidad disminuye. Pareciera que se trata de un asistente algo perezoso que empieza bien un trabajo, pero a partir de la tercera página ya no lo hace con tanta diligencia. Por eso, es recomendable seccionar los textos que se quieren traducir/corregir/resumir.
También he usado esos programas para ordenar bibliografía o convertirla a un formato específico, por ejemplo, al estilo Chicago. El resultado es muy bueno cuando se trata de listas cortas. Puede incluso completar elementos de la bibliografía que no se tenían, pues los busca en la web. De nuevo, cuando la lista es demasiado larga, comete errores. Me ha borrado artículos o libros de mi listado original. Cuando se le llama la atención, el programa ofrece disculpas y corrige, pero no dejo de pensar en qué pasaría si yo mismo olvidara tal o cual referencia.
Últimamente, empleé una aplicación llamada Consensus, diseñada para buscar sólo en bases de datos referenciadas, en sitios de universidades y en publicaciones académicas. La pregunta era simple: ¿Podían las autoridades reales y municipales de la monarquía hispana del siglo XVIII enviar inspectores a los conventos de monjas? La respuesta empezó por recordar las disposiciones de clausura de los conventos femeninos y las varias reformas, algunas precisamente de ese siglo, para hacerlas más estrictas. No obstante, continuaba, las autoridades reales o municipales sí podían tener inspectores, aunque siempre de manera muy excepcional y a través de las autoridades eclesiásticas responsables. Es decir, una respuesta muy sensata que se sostenía, según Consensus, en una investigación a partir de miles de documentos académicos (la mayoría descartados desde un inicio por tratarse de papeles de otras ciencias), de los cuales destacaban alrededor de veinte, aunque eran tres los que citaba con mayor frecuencia.
Hasta aquí, parece que se trata de una herramienta útil. El problema es que me puse a leer los tres artículos más citados en Consensus y en ninguno de ellos se respondía a la pregunta que había planteado originalmente. Reitero: la respuesta me parece correcta, pero no estaba respaldada por los materiales que había recuperado.
Hasta ahora, los modelos de generación de lenguaje no me han dado resultados satisfactorios ni del todo confiables. Si se usan, se debe revisar la información que ofrecen.
