Efectividad de DeepSeek V3 para la extracción terminológica y la traducción automática de Komposita alemanes sobre cardiología y su aplicación para la alfabetización en salud
DOI:
https://doi.org/10.14198/ELUA.29420Palabras clave:
DeepSeek, traducción automática, extracción terminológica, alfabetización en salud, posedición, cardiología, alemán, español, inteligencia artificial, ciencias de la salud, medicinaResumen
Este trabajo tiene como objetivo fundamental comprobar la efectividad de un modelo lingüístico de gran capacidad, de inteligencia artificial generativa, como DeepSeek-V3, que es similar a los ya conocidos ChatGPT, Copilot o Gemini, y que, al igual que estos, no ha sido concebido en exclusividad para la traducción automática como sucede con los modelos neuronales, pero puede llegar a ejecutar traducciones. En concreto, se establecerá su efectividad para realizar traducciones automáticas al español de textos alemanes que tienen una alta densidad terminológica, como son los textos sobre cardiopatías, y se prestará especial atención a cómo selecciona, analiza y traduce los Komposita, o términos formados por composición. También se comprobará si DeepSeek-V3 es adecuado para simplificar las traducciones resultantes o poseditadas, y en qué medida podría ser una herramienta útil para la alfabetización en salud. Para establecer el grado de efectividad y de posedición necesaria sobre los textos traducidos obtenidos con DeepSeek se ha tomado como referencia una traducción humana, y, a partir de ella, se ha estimado la precisión de la traducción automática obtenida. Para ello, partimos de Kardio_COR, corpus creado ad hoc a partir de artículos científicos de la revista Die Kardiologie, de la que ofrecemos aquí seis fragmentos extraídos de los textos que conforman dicho corpus. Cuatro son las fases en las que se desarrolla el estudio, que se corresponden, a su vez, con los cuatro objetivos propuestos en este trabajo: (1) compilación, procesamiento y organización del corpus; (2) elaboración de los prompts, extracción de los Komposita y establecimiento de equivalencias; (3) análisis de las traducciones automáticas; y, finalmente, (4) posedición de las traducciones automáticas y generación de una versión simplificada del texto poseditado. Los resultados obtenidos han arrojado información sobre: (1) la efectividad de DeepSeek-V3 para la traducción automática en el par de lenguas alemán-español de textos complejos sobre cardiología, en función del grado de posedición que ha sido necesario aplicar a las traducciones obtenidas; (2) las posibilidades de actuación que tiene el traductor humano a partir de los outputs generados por este modelo; (3) la aplicación de DeepSeek-V3 a la simplificación de textos complejos que faciliten al paciente comprender mejor su enfermedad y los beneficios que le aporta el tratamiento quirúrgico o medicamentoso que recibe.
Citas
AI@Meta. (2024). Llama3.1 model card. https://github.com/meta-llama/llama3/blob/main/MODEL_CARD.md
Anthropic. (2024). Claude 3.5 sonnet. https://www.anthropic.com/news/claude-3-5-sonnet
Baessler, A.; Bauer, P.; Becker, M.; Berrisch-Rahmen, S.; Goldmann, B.; Grünig, E.; Hamm, C.; Meder, B.; Kindermann, I.; Ong, P.; Seeland, U.; Sievers, B.; Strack, Ch.; Zylla, Maura M. & Boer, J. (2024). Geschlechterspezifische Aspekte kardiovaskulärer Erkrankungen. Die Kardiologie 18 (4), 293-321. https://doi.org/10.1007/s12181-024-00694-9
Böhm, M. & Bauersachs, J. (2023). Sodium-Glukose-Transporter2-Hemmer bei Herzinzuffizienz mit erhaltener Auswurffraktion. Die Kardiologie 17 (2), 116-122. https://doi.org/10.1007/s12181-023-00598-0
Cai, W.; Jiang, J.; Wang, F.; Tang, J.; Kim, S. & Huang, J. (2024). A Survey on Mixture Experts. arXiv: 2407.06204 [cs.LG]. https://doi.org/10.36227/techrxiv.172055626.64129172/v1
Dang, H.; Mecke, L.; Lehman, F.; Goller, S. & Buschek, D. (2022). How to Prompt? Opportunities and Challenges of Zero- and Few-shot Learning for Human-AI Interaction in Creative Applications of Generative Models. arXiv:2209.01390v1 [cs.HC]. https://doi.org/10.1145/3491102.3502141
DeepSeek-AI; Zhu, Q.; Guo, D.; Shao, Z.; Yang, D.; Wang, P.; Xu, R.; Wu, Y.; Li, Y.; Gao, H.; Ma, S.; Zeng, W.; Bi, X.; Gu, Z.; Xu, H.; Dai, D.; Dong, K.; Zhang, L.; Piao, Y., Liang, Wenfeng (2024a). Deep-coder-v2: Breaking the barrier of closed-source models in code intelligence. arXiv:2406.11931v1[cs.SE]. https://doi.org/10.48550/arXiv.2406.11931.
DeepSeek-AI; Bi, X.; Chen, D.; Chen, G.; Chen, S.; Dai, D.; Deng, C.; Ding, H.; Dong, K.; Du, Q.; Fu, Z.; Gao, H.; Gao, K.; Gao, W.; Ge, R.; Guan, K.; Guo, D.; Guo, J.; Hao, G., Zou, Y. (2024b). Deepseek LLM: scaling open-source language models with longtermism. arXiV:2401.02954v1 [cs.CL]. https://doi.org/10.48550/arXiv.2401.02954
Google. (2024). Gemini. Our most intelligent AI models, built for the agentic era. https://deepmind.google/technologies/gemini/
Ivannikova, M.; Gonsharov, A.; Rudolf, V.; Friedrichs, K. P.; Gerçek, M. (2024). Interventionelle Therapie der Mitral- und Trikuspidalinsuffizienz (Teil 1). Die Kardiologie 18: 281-288. https://doi.org/10.1007/s12181-024-00683-y
Jang, J., Ye, S. & Seo, M. (2023). Can Large Language Models Truly Understand Prompts? A Case Study with Negated Prompts. Proceedings of The 1st Transfer Learning for Natural Language Processing Workshop, Proceedings of Machine Learning Research 203: 52-62. https://proceedings.mlr.press/v203/jang23a.html
Jiang, A. Q., Sablayrolles A, Mensch, A., Bamford C., Chaplot, D. S., De las Casas, D., Bressand, F., Lengyel, G., Lample, G., Saulnier, L., Lavaud, L. R., Lachaux, M. A., Stock, P., Le Scao, T., Lavril, T., Wang, T., Lacroix, T., El Sayed, W. (2023). Mistral 7B. arXiv:2310.06825v1 [cs.CL]. https://doi.org/10.48550/arXiV.2310.06825
Lambert, N. (2025). DeepSeek V3 and the actual cost of training frontier IA models. Interconnects. https://www.interconnects.ai/p/deepseek-v3-and-the-actual-cost-of?utm_source=publication-search
Li, Y. (2023). A Practicl Survey on Zero-shot Prompt Design for In-context Learning. arXiv:2309.1325v1 [cs.CL]. https://doi.org/10.48550/arXiv.2309.1305
Liu, P.; Yuan, W.; Fu, J.; Jiang, Z.; Hayashi, H.; Neubig, G. (2023). Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing. ACM Computing Surveys 55 (9): 1-35. https://doi.org/10.1145/3560815
Mishra, S.; Khashabi, D.; Baral, C.; Choi, Y. & Hajishirzi, H. (2022). Reframing instructional prompts to GPTk's language. arXiv:2019.07830v3 [cs.CL]. https://doi.org/10.18653/v1/2022.findings-acl.50
Mistral. (2024). Mistral AI Documentation. https://docs.mistral.ai/
Navarro, F. (2025). Viaje al corazón de las palabras: Ejection fraction. Revista Española de Cardiología 78(2), 77. https://doi.org/10.1016/j.recesp.2024.08.009
OpenAI. (2024). OpenAI o1 System Card. arXiv:2412.16720v1 [cs.AI]. https://doi.org/10.48550/arXiv.2412.16720
Ribas, N. (2025). El precio de diseñar una IA generativa: de los 5,6 millones de dólares de DeepSeek a los más de 100 de GPT. Newtral. https://www.newtral.es/precio-deepseek-gpt/20250129/
Von Knobelsdorff, F. (2023) Bedeutung vo Koronarkalk in der Thorax-CT. Die Kardiologie 17 (6), 382-384. https://doi.org/10.1007/s12181-023-00647-8
Werner, N. (2024). Selbstexpandierende oder ballonexpandierbare TAVI-Klappen bei Patienten mit kleinen Aortenanulus? Die Kardiologie 18 (5), 348-352. https://doi.org/10.1007/s12181-024-00698-5
Werner, N. (2022). Koronarintervention bei ischämischer Kardiomyopathie. Die Kardiologie 16 (6), 433-434. https://doi.org/10.1007/s12181-022-00578-w
Zhu, Q.; Guo, D.; Shao, Z.; Yang, D.; Wang, P.; Xu, R.; Wu, Y.; Li, Y.; Gao, H.; Ma, S.; Zeng, W.; Bi, X.; Gu, Z.; Xu, H.; Dai, D.; Dong, K.; Zhang, L.; Piao, L.; Gou, Z., Liang, W. (2024). DeepSeek-Coder-V2: Breaking the Barrier of Closed-Source Models in Code Intelligence. arXiv: 24.06.11.931v1 [cs.SE]. https://doi.org/10.48550/arXiv.2406.11931
Descargas
Publicado
Cómo citar
Número
Sección
Licencia
Derechos de autor 2025 María del Carmen Balbuena Torezano

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-CompartirIgual 4.0.