Efectividad de DeepSeek V3 para la extracción terminológica y la traducción automática de Komposita alemanes sobre cardiología y su aplicación para la alfabetización en salud

Autores/as

DOI:

https://doi.org/10.14198/ELUA.29420

Palabras clave:

DeepSeek, traducción automática, extracción terminológica, alfabetización en salud, posedición, cardiología, alemán, español, inteligencia artificial, ciencias de la salud, medicina

Resumen

Este trabajo tiene como objetivo fundamental comprobar la efectividad de un modelo lingüístico de gran capacidad, de inteligencia artificial generativa, como DeepSeek-V3, que es similar a los ya conocidos ChatGPT, Copilot o Gemini, y que, al igual que estos, no ha sido concebido en exclusividad para la traducción automática como sucede con los modelos neuronales, pero puede llegar a ejecutar traducciones. En concreto, se establecerá su efectividad para realizar traducciones automáticas al español de textos alemanes que tienen una alta densidad terminológica, como son los textos sobre cardiopatías, y se prestará especial atención a cómo selecciona, analiza y traduce los Komposita, o términos formados por composición. También se comprobará si DeepSeek-V3 es adecuado para simplificar las traducciones resultantes o poseditadas, y en qué medida podría ser una herramienta útil para la alfabetización en salud. Para establecer el grado de efectividad y de posedición necesaria sobre los textos traducidos obtenidos con DeepSeek se ha tomado como referencia una traducción humana, y, a partir de ella, se ha estimado la precisión de la traducción automática obtenida. Para ello, partimos de Kardio_COR, corpus creado ad hoc a partir de artículos científicos de la revista Die Kardiologie, de la que ofrecemos aquí seis fragmentos extraídos de los textos que conforman dicho corpus. Cuatro son las fases en las que se desarrolla el estudio, que se corresponden, a su vez, con los cuatro objetivos propuestos en este trabajo: (1) compilación, procesamiento y organización del corpus; (2) elaboración de los prompts, extracción de los Komposita y establecimiento de equivalencias; (3) análisis de las traducciones automáticas; y, finalmente, (4) posedición de las traducciones automáticas y generación de una versión simplificada del texto poseditado. Los resultados obtenidos han arrojado información sobre: (1) la efectividad de DeepSeek-V3 para la traducción automática en el par de lenguas alemán-español de textos complejos sobre cardiología, en función del grado de posedición que ha sido necesario aplicar a las traducciones obtenidas; (2) las posibilidades de actuación que tiene el traductor humano a partir de los outputs generados por este modelo; (3) la aplicación de DeepSeek-V3 a la simplificación de textos complejos que faciliten al paciente comprender mejor su enfermedad y los beneficios que le aporta el tratamiento quirúrgico o medicamentoso que recibe.

Citas

AI@Meta. (2024). Llama3.1 model card. https://github.com/meta-llama/llama3/blob/main/MODEL_CARD.md

Anthropic. (2024). Claude 3.5 sonnet. https://www.anthropic.com/news/claude-3-5-sonnet

Baessler, A.; Bauer, P.; Becker, M.; Berrisch-Rahmen, S.; Goldmann, B.; Grünig, E.; Hamm, C.; Meder, B.; Kindermann, I.; Ong, P.; Seeland, U.; Sievers, B.; Strack, Ch.; Zylla, Maura M. & Boer, J. (2024). Geschlechterspezifische Aspekte kardiovaskulärer Erkrankungen. Die Kardiologie 18 (4), 293-321. https://doi.org/10.1007/s12181-024-00694-9

Böhm, M. & Bauersachs, J. (2023). Sodium-Glukose-Transporter2-Hemmer bei Herzinzuffizienz mit erhaltener Auswurffraktion. Die Kardiologie 17 (2), 116-122. https://doi.org/10.1007/s12181-023-00598-0

Cai, W.; Jiang, J.; Wang, F.; Tang, J.; Kim, S. & Huang, J. (2024). A Survey on Mixture Experts. arXiv: 2407.06204 [cs.LG]. https://doi.org/10.36227/techrxiv.172055626.64129172/v1

Dang, H.; Mecke, L.; Lehman, F.; Goller, S. & Buschek, D. (2022). How to Prompt? Opportunities and Challenges of Zero- and Few-shot Learning for Human-AI Interaction in Creative Applications of Generative Models. arXiv:2209.01390v1 [cs.HC]. https://doi.org/10.1145/3491102.3502141

DeepSeek-AI; Zhu, Q.; Guo, D.; Shao, Z.; Yang, D.; Wang, P.; Xu, R.; Wu, Y.; Li, Y.; Gao, H.; Ma, S.; Zeng, W.; Bi, X.; Gu, Z.; Xu, H.; Dai, D.; Dong, K.; Zhang, L.; Piao, Y., Liang, Wenfeng (2024a). Deep-coder-v2: Breaking the barrier of closed-source models in code intelligence. arXiv:2406.11931v1[cs.SE]. https://doi.org/10.48550/arXiv.2406.11931.

DeepSeek-AI; Bi, X.; Chen, D.; Chen, G.; Chen, S.; Dai, D.; Deng, C.; Ding, H.; Dong, K.; Du, Q.; Fu, Z.; Gao, H.; Gao, K.; Gao, W.; Ge, R.; Guan, K.; Guo, D.; Guo, J.; Hao, G., Zou, Y. (2024b). Deepseek LLM: scaling open-source language models with longtermism. arXiV:2401.02954v1 [cs.CL]. https://doi.org/10.48550/arXiv.2401.02954

Google. (2024). Gemini. Our most intelligent AI models, built for the agentic era. https://deepmind.google/technologies/gemini/

Ivannikova, M.; Gonsharov, A.; Rudolf, V.; Friedrichs, K. P.; Gerçek, M. (2024). Interventionelle Therapie der Mitral- und Trikuspidalinsuffizienz (Teil 1). Die Kardiologie 18: 281-288. https://doi.org/10.1007/s12181-024-00683-y

Jang, J., Ye, S. & Seo, M. (2023). Can Large Language Models Truly Understand Prompts? A Case Study with Negated Prompts. Proceedings of The 1st Transfer Learning for Natural Language Processing Workshop, Proceedings of Machine Learning Research 203: 52-62. https://proceedings.mlr.press/v203/jang23a.html

Jiang, A. Q., Sablayrolles A, Mensch, A., Bamford C., Chaplot, D. S., De las Casas, D., Bressand, F., Lengyel, G., Lample, G., Saulnier, L., Lavaud, L. R., Lachaux, M. A., Stock, P., Le Scao, T., Lavril, T., Wang, T., Lacroix, T., El Sayed, W. (2023). Mistral 7B. arXiv:2310.06825v1 [cs.CL]. https://doi.org/10.48550/arXiV.2310.06825

Lambert, N. (2025). DeepSeek V3 and the actual cost of training frontier IA models. Interconnects. https://www.interconnects.ai/p/deepseek-v3-and-the-actual-cost-of?utm_source=publication-search

Li, Y. (2023). A Practicl Survey on Zero-shot Prompt Design for In-context Learning. arXiv:2309.1325v1 [cs.CL]. https://doi.org/10.48550/arXiv.2309.1305

Liu, P.; Yuan, W.; Fu, J.; Jiang, Z.; Hayashi, H.; Neubig, G. (2023). Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing. ACM Computing Surveys 55 (9): 1-35. https://doi.org/10.1145/3560815

Mishra, S.; Khashabi, D.; Baral, C.; Choi, Y. & Hajishirzi, H. (2022). Reframing instructional prompts to GPTk's language. arXiv:2019.07830v3 [cs.CL]. https://doi.org/10.18653/v1/2022.findings-acl.50

Mistral. (2024). Mistral AI Documentation. https://docs.mistral.ai/

Navarro, F. (2025). Viaje al corazón de las palabras: Ejection fraction. Revista Española de Cardiología 78(2), 77. https://doi.org/10.1016/j.recesp.2024.08.009

OpenAI. (2024). OpenAI o1 System Card. arXiv:2412.16720v1 [cs.AI]. https://doi.org/10.48550/arXiv.2412.16720

Ribas, N. (2025). El precio de diseñar una IA generativa: de los 5,6 millones de dólares de DeepSeek a los más de 100 de GPT. Newtral. https://www.newtral.es/precio-deepseek-gpt/20250129/

Von Knobelsdorff, F. (2023) Bedeutung vo Koronarkalk in der Thorax-CT. Die Kardiologie 17 (6), 382-384. https://doi.org/10.1007/s12181-023-00647-8

Werner, N. (2024). Selbstexpandierende oder ballonexpandierbare TAVI-Klappen bei Patienten mit kleinen Aortenanulus? Die Kardiologie 18 (5), 348-352. https://doi.org/10.1007/s12181-024-00698-5

Werner, N. (2022). Koronarintervention bei ischämischer Kardiomyopathie. Die Kardiologie 16 (6), 433-434. https://doi.org/10.1007/s12181-022-00578-w

Zhu, Q.; Guo, D.; Shao, Z.; Yang, D.; Wang, P.; Xu, R.; Wu, Y.; Li, Y.; Gao, H.; Ma, S.; Zeng, W.; Bi, X.; Gu, Z.; Xu, H.; Dai, D.; Dong, K.; Zhang, L.; Piao, L.; Gou, Z., Liang, W. (2024). DeepSeek-Coder-V2: Breaking the Barrier of Closed-Source Models in Code Intelligence. arXiv: 24.06.11.931v1 [cs.SE]. https://doi.org/10.48550/arXiv.2406.11931

Descargas

Publicado

25-07-2025

Cómo citar

Balbuena Torezano, M. del C. (2025). Efectividad de DeepSeek V3 para la extracción terminológica y la traducción automática de Komposita alemanes sobre cardiología y su aplicación para la alfabetización en salud. ELUA: Estudios De Lingüística. Universidad De Alicante, (44), 201–221. https://doi.org/10.14198/ELUA.29420