¿Le atinaste a la traducción exacta?: Evaluando la Traducción Automática con BLEU Por Gloria Yantas Alcántara En el campo de la traducción automática se han desarrollado diferentes métricas de evaluación, todas ellas se basan en la comparación de la salida del sistema (output) con una traducción de referencia estándar almacenada. Pero tan solo realizar dicha comparación es un gran reto, primero, porque incluso dos traductores expertos pueden realizar diferentes traducciones de una misma oración, y hacer coincidir ambas en una sola traducción de referencia humana resulta un arduo trabajo, y segundo, además de la coincidencia de palabras, también se debe evaluar el orden de las palabras. Por lo que métodos simples, como contar el número de palabras correctas, no es suficiente, ya que ignora el orden de la oración, en ese sentido, IBM desarrolló la métrica BLEU, del inglés
Share this post
¿Le atinaste a la traducción exacta…
Share this post
¿Le atinaste a la traducción exacta?: Evaluando la Traducción Automática con BLEU Por Gloria Yantas Alcántara En el campo de la traducción automática se han desarrollado diferentes métricas de evaluación, todas ellas se basan en la comparación de la salida del sistema (output) con una traducción de referencia estándar almacenada. Pero tan solo realizar dicha comparación es un gran reto, primero, porque incluso dos traductores expertos pueden realizar diferentes traducciones de una misma oración, y hacer coincidir ambas en una sola traducción de referencia humana resulta un arduo trabajo, y segundo, además de la coincidencia de palabras, también se debe evaluar el orden de las palabras. Por lo que métodos simples, como contar el número de palabras correctas, no es suficiente, ya que ignora el orden de la oración, en ese sentido, IBM desarrolló la métrica BLEU, del inglés