Adscrita a Gratuidad

Los investigadores Felipe von Hausen e Eirini Chatzikoumi, pertenecientes al Centro de Investigación en Cognición e Inclusión para la Alfabetización Académica en Educación Superior (CIPAES) de Universidad de Las Américas, presentaron en el 14th International Scientific Conference in Translation Studies, celebrado en Eslovaquia, su investigación titulada “Evidence of agent-dependent metric behaviour: Evaluating translation across human, MT and GenAI output”, un estudio que analiza cómo se mide la calidad de las traducciones actuales.

La investigación, realizada junto a Cristóbal Muñoz Urtubia, traductor e investigador independiente radicado en Australia, analiza si las herramientas que se emplean para calificar a la Inteligencia Artificial (IA) son realmente objetivas al compararlas con el trabajo humano. Al respecto, von Hausen, autor principal de la investigación, señaló que, “el problema es que las reglas actuales con las que medimos la calidad están diseñadas para premiar la regularidad de las máquinas, lo que hace que la IA parezca más precisa de lo que es, mientras que el talento y la flexibilidad del traductor humano terminan siendo castigados por el sistema de evaluación”.

El estudio demuestra que, aunque la IA genera textos muy fluidos que logran puntajes altos en los test automáticos, esto suele ser un espejismo tecnológico. Al comparar estos resultados con una revisión humana detallada, el equipo de CIPAES descubrió que las máquinas tienden a repetir patrones estándar y dejan fuera la riqueza de nuestro lenguaje, algo que un traductor humano sí logra captar. Sobre este hallazgo, Chatzikoumi destacó que, “no podemos confiar ciegamente en un número; necesitamos entender que la traducción es un acto de comunicación humana”.

El equipo de CIPAES-UDLA calificó como exitosa su participación en el congreso realizado en Eslovaquia. La instancia abrió un debate necesario sobre el futuro de la IA en la comunicación. La conclusión para los investigadores es clara: para que la tecnología sea una ayuda real y no una limitación, se debe empezar a evaluar con criterios más humanos y menos mecánicos, asegurando que la eficiencia de la máquina no termine por borrar la creatividad y la precisión de las personas.