Adaptación de las escalas de calidad de la traducción automática a los nuevos géneros digitales: el caso del contenido generado por el usuario

Autores/as

DOI:

https://doi.org/10.14198/ELUA.21900

Palabras clave:

traducción automática, posedición, evaluación de la calidad, contenido generado por el usuario, reseñas en línea

Resumen

Con la participación activa de los usuarios en las plataformas de reseñas de productos, los contenidos online generados por los consumidores, y más concretamente, las opiniones de los usuarios se han convertido en una clara referencia en los procesos de decisión de compra, que en ocasiones superan el impacto de las campañas publicitarias. Una característica común de la mayoría de las plataformas de reseñas turísticas es el uso de sistemas de traducción automática para poner inmediatamente las reseñas a disposición de los usuarios en diferentes idiomas. Sin embargo, la calidad de la traducción automática de estas reseñas varía en gran medida debido a la subjetividad y a la naturaleza no estructurada de este género digital. Diferentes estudios confirman que no existen escalas universales de valoración de la calidad y que la evaluación de la calidad del resultado de la MT suele depender de factores como la finalidad del texto o el valor que se da a la inmediatez de la traducción. Los nuevos sistemas de traducción automática neuronal han supuesto una revolución en el incremento de la calidad del texto traducido, sin embargo, se abren nuevas líneas de investigación para verificar si la calidad de este nuevo paradigma de traducción automática se puede valorar con las escalas existentes, procedentes en su mayoría de los anteriores sistemas basados en reglas y traducción estadística, o si es necesario desarrollar nuevas métricas de calidad acordes con estos nuevos sistemas inteligentes. Por otro lado, una de las cuestiones que quedan por resolver en este nuevo contexto de traducción automática neuronal es si la utilización de grandes cantidades de datos textuales en el entrenamiento de estos sistemas es igual de eficaz que un uso de menos cantidad de datos pero de mayor calidad y más ajustados a la especialidad y el tipo de texto en el que se utiliza. Partiendo de la hipótesis de que cada género requiere escalas de valoración de la calidad específicas, este trabajo identifica patrones de error y características textuales de las reseñas de usuarios en línea a partir de un análisis basado en un corpus que contribuirá a adaptar las escalas de valoración de la calidad a este género digital específico.

Citas

Allen, J. (2003). Post-editing. In H. Somers (Ed.), Computers and Translation. A translator's guide (pp. 297-317). John Benjamins. https://doi.org/10.1075/btl.35.19all

Aranberri, N. (2014). Posedición, productividad y calidad. Tradumàtica: Tecnologies de la Traducció, 12, 471-477. https://doi.org/10.5565/rev/tradumatica.62

Castilho, S., S. Doherty, F. Gaspari & J. Moorkens. (2018). Approaches to Human and Machine Translation Quality Assessment. In J. Moorkens, S. Castilho, F. Gaspari and S. Doherty (Eds.). Translation Quality Assessment: From Principles to Practice (pp. 9-38). Springer. https://doi.org/10.1007/978-3-319-91241-7_2

Gaspari, F., H. Almaghout & S. Doherty. (2015). A survey of machine translation competences: Insights for translation technology educators and practitioners. Perspectives, 23(3), 333-358. https://doi.org/10.1080/0907676X.2014.979842

Gerlach, J., V. Porro Rodriguez, P. Bouillon & S. Lehmann. (2013). Combining pre-editing and post-editing to improve SMT of user-generated content. In S. O'Brien, M. Simard and L. Specia (Eds.). Proceedings of MT Summit XIV Workshop on Post-editing Technology and Practice, (pp. 45-53). Nice (France) 2 Sept., 2013. https://archive-ouverte.unige.ch/unige:30952

Guzmán, R. (2007). Manual MT Post-Editing: If it's not Broken, don't Fix it. Translation Journal, 11(4). http://translationjournal.net/journal/42mt.htm

Holgado Lage, A. & A. Recio Diego. (2013). La oralización de textos digitales: usos no normativos en conversaciones instantáneas por escrito. Caracteres: estudios culturales y críticos de la esfera digital, 2(2), 92-108. http://hdl.handle.net/10366/124906

Jiang, J., A. Way & R. Hague. (2012). Translating user-generated content in the social networking space. In Proceedings of the Tenth Biennial Conference of the Association for Machine Translation in the Americas, (pp: 1-9). http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.299.5601&rep=rep1&type=pdf

Kenny, D. & S. Doherty. (2014). Statistical machine translation in the translation curriculum: overcoming obstacles and empowering translators. The Interpreter and Translator Trainer, 8(2), 276-294. https://doi.org/10.1080/1750399X.2014.936112

Koby, G., P. Fields, D. Hague, A. Lommel & A. Melby. (2014). Defining Translation Quality. TradumàTica: Tecnologies de la Traducció, 12, 413-420. https://doi.org/10.5565/rev/tradumatica.76

Lommel, A. (2018). Metrics for Translation Quality Assessment: A Case for Standardising Error Typologies. In J. Moorkens, S. Castilho, F. Gaspari, and S. Doherty (Eds.), Translation Quality Assessment: From Principles to Practice, (pp: 109-127). Springer. https://doi.org/10.1007/978-3-319-91241-7_6

Mellinger, C. (2017). Translators and machine translation: knowledge and skills gaps in translator pedagogy. The Interpreter and Translator Trainer, 11(4), 280-293. https://doi.org/10.1080/1750399X.2017.1359760

Mitchell, L., S. O'Brien & J. Roturier. (2014). Quality evaluation in community post-editing. Machine Translation, 28, 237-262. https://doi.org/10.1007/s10590-014-9160-1

O'Brien, S. (2011). Towards Predicting Post-Editing Productivity. Machine Translation, 25, 197-215. https://doi.org/10.1007/s10590-011-9096-7

Pollach, I. (2006). Electronic word of mouth: A genre analysis of product reviews on consumer opinion web sites. In Proceedings of the 39th Annual Hawaii International Conference on System Sciences-Volume 03. IEEE Computer Society, (pp: 51-53). IEEE. https://doi.org/10.1007/s10590-014-9160-1

Popović, M. (2018). Error Classification and Analysis for Machine Translation Quality Assessment. In J. Moorkens, S. Castilho, F. Gaspari, & F. Doherty (Eds.) Translation Quality Assessment: From Principles to Practice, (pp. 129-15). Springer. https://doi.org/10.1007/978-3-319-91241-7_7

Ricci, F. & R. Wietsma. (2006). Product reviews in travel decision-making. In M. Hitz, M. Sigala and J. Murphy (Eds.), Information and communication technologies in tourism (pp. 296-307). Springer. https://doi.org/10.1007/3-211-32710-X_41

SAE International. (2001). SAE J2450: Translation Quality Metrics. Society of Automotive Engineers.

Schemmann, B. (2011). A Classification of Presentation Forms of Travel and Tourism-Related Online Consumer Reviews. e-Review of Tourism Research, 2. http://ertr.tamu.edu/enter-2011-short-papers

Specia, L., D. Raj & M. Turchi. (2010). Machine Translation Evaluation Versus Quality Estimation. Machine Translation, 24, 39-50. https://doi.org/10.1007/s10590-010-9077-2

Stymne, S. & L. Ahrenberg. (2012). On the practice of error analysis for machine translation evaluation. In Proceedings of the LREC 2012 Conference. Istanbul: European Language Resources Association (pp. 1785-1790). http://www.lrec-conf.org/proceedings/lrec2012/pdf/717_Paper.pdf

TAUS. (2010). Error Typology Guidelines. https://www.taus.net/academy/best-practices/evaluate-best-practices/error-typology-guidelines

TAUS. (2016). Quality Dashboard White Paper. https://www.taus.net/think-tank/reports/evaluate-reports/taus-quality-dashboard-white-paper

Temnikova, I. (2010). Cognitive Evaluation Approach for a Controlled Language Post-Editing Experiment. In Proceedings of the LREC 2010 Conference, (pp. 17-23). Valletta: European Language Resources Association. http://www.lrec-conf.org/proceedings/lrec2010/pdf/437_Paper.pdf

Torres-Hostench, O., M. Presas & P. Cid-Leal. (2016). El uso de la traducción automática y la posedición en las empresas de servicios lingüísticos españolas: Informe de investigación ProjecTA [The Use of Machine Translation and Post-editing among Language Service Providers in Spain]. UAB. http://ddd.uab.cat/pub/estudis/2016/148361/usotraaut_2016.pdf

Valli, P. (2015). The TAUS Quality Dashboard. In Proceedings of the 37th Conference Translating and the Computer, 127-136. London, UK, November 26-27.

Van der Meer, J., Görög, A., Dzeguze, D., & Koot, D. (2017). TAUS Quality Dashboard White Paper. https://www.taus.net/insights/reports/taus-quality-dashboard-white-paper

Vásquez, C. (2012). Narrativity and involvement in online consumer reviews. The case of Tripadvisor. Narrative Enquire, 22 (1), 105-121. https://doi.org/10.1075/ni.22.1.07vas

Vásquez, C. (2014). Online consumer reviews. Bloomsbury.

Vilar, D., J. Xu, L. F. d'Haro & H. Ney. (2006). Error analysis of statistical machine translation output. In Proceedings of the LREC 2006 Conference (pp. 697-702). Genoa: European Language Resources Association, http://www.lrec-conf.org/proceedings/lrec2006/pdf/413_pdf

Yus, F. (2011). Cyberpragmatics. John Benjamins. https://doi.org/10.1075/pbns.213

Descargas

Estadísticas

Estadísticas en RUA

Publicado

19-07-2022

Cómo citar

Candel-Mora, M. A. (2022). Adaptación de las escalas de calidad de la traducción automática a los nuevos géneros digitales: el caso del contenido generado por el usuario. ELUA: Estudios De Lingüística. Universidad De Alicante, (38), 117–136. https://doi.org/10.14198/ELUA.21900