metricas
covid
Buscar en
Revista de Senología y Patología Mamaria - Journal of Senology and Breast Disease
Toda la web
Inicio Revista de Senología y Patología Mamaria - Journal of Senology and Breast Dise... Del Ars Magna a la inteligencia artificial generativa
Información de la revista
Visitas
379
Vol. 38. Núm. 3. (En progreso)
(julio - septiembre 2025)
Revisión
Acceso a texto completo
Del Ars Magna a la inteligencia artificial generativa
From the Ars magna to the generative artificial intelligence
Visitas
379
Rafael Berlanga Llavori
Departamento de Lenguajes y Sistemas Informáticos, Universitat Jaume I, Castellón de la Plana, España
Este artículo ha recibido
Información del artículo
Resumen
Texto completo
Bibliografía
Descargar PDF
Estadísticas
Figuras (4)
Mostrar másMostrar menos
Resumen

Con este artículo se pretende dar a conocer los elementos clave en la evolución de la inteligencia artificial (IA) en los últimos años, especialmente la inteligencia artificial generativa. Así como la IA predictiva o discriminativa ha tenido un impacto notable en la medicina en las últimas 2 décadas, especialmente en el diagnóstico de enfermedades a partir de datos clínicos, la IA generativa nos conduce a nuevos retos y oportunidades en numerosos campos, como son el tratamiento personalizado, la prevención, la proacción, nuevas técnicas terapéuticas y, en general, la ampliación de los horizontes de la investigación clínica y biomédica. Para este trabajo hemos realizado un estudio bibliográfico y organizado en las principales ideas de aplicación de la IA generativa a la medicina. El principal resultado de este estudio es un conjunto de aplicaciones potenciales de la IA generativa que se están iniciando en diversas áreas de la medicina y que pueden suponer una revolución de la misma a corto o medio plazo. No obstante, hay obstáculos muy importantes que superar, principalmente los referentes a la calidad y precisión de estos sistemas, así como las barreras de privacidad y cuestiones éticas que deben ser respetadas por los sistemas digitales de salud.

Palabras clave:
Inteligencia artificial generativa
Evolución de la inteligencia artificial
Aplicaciones de la inteligencia artificial a la medicina
Abstract

This article aims to present the key elements in the evolution of Artificial Intelligence (AI) in recent years, especially Generative Artificial Intelligence. Predictive or discriminative AI has had a notable impact on medicine in the last two decades, especially in the diagnosis of pathologies based on clinical data. Now, generative AI leads us to new challenges and opportunities in numerous fields such as personalised treatment, prevention, pro-action, new therapeutic techniques and, in general, the broadening of the horizons of clinical and biomedical research. For this work, we have carried out a bibliographic study and organised it into the main ideas for the application of generative AI to medicine. The main result of this study is a set of potential applications of generative AI that are being initiated in several areas of medicine and that may lead to a revolution in medicine in the short to mid-term. However, there are major hurdles to overcome, mainly those concerning the quality and accuracy of these systems, as well as the privacy and ethical barriers that must be respected by the new automated healthcare systems.

Keywords:
Generative artificial intelligence
Evolution of artificial intelligence
Artificial intelligence applications to medicine
Texto completo
Introducción

El interés de la humanidad por mecanizar el razonamiento humano se remonta a tiempos muy tempranos. Un ejemplo es el Ars Magna de Ramón Llull, publicado en 13151. En esta obra se planteaba una máquina que permitía realizar demostraciones lógicas sobre la validez de ciertas argumentaciones de carácter religioso. Sin embargo, las formalizaciones de los métodos de demostración lógica llegaron mucho más tarde, principalmente entre los siglos XVIII y XIX, y su posterior aplicación a la computación en el siglo XX.

La inteligencia artificial (IA) computacional se originó con la construcción de los primeros computadores y las ideas de Alan Turing sobre computabilidad (la máquina de Turing) y el test que lleva su nombre, el cual, a día de hoy, sigue siendo una referencia para determinar la inteligencia de una máquina2. El área de investigación de la IA arrancó en el año 1956 en la Conferencia de Dartmouth. En ese momento, en los albores de la historia de la computación, se propusieron como objetivo crear sistemas computacionales que pudieran «pensar» o resolver problemas de forma similar a los humanos. Sin embargo, no ha sido hasta hace unos años que se ha empezado a hablar con fuerza de una IA general o una super IA que aspira a superar todas nuestras capacidades de inteligencia3.

La situación actual de la IA está en una fase de dualidad entre la IA específica y la IA de propósito general. La IA específica surge del área del aprendizaje automático, que plantea modelos inductivos sobre datos para realizar tareas muy concretas, como por ejemplo, determinar si una radiografía indica una enfermedad o no. En cambio, la IA de propósito general se enfoca en poder resolver cuestiones y problemas de cualquier índole usando el lenguaje natural, ayudado en ocasiones de imágenes, sonido y vídeo. Esta IA, guiada por el lenguaje natural, está actualmente sustentada en métodos estocásticos generativos, de ahí su nombre: IA generativa.

El objetivo de este estudio es principalmente entender qué elementos participan actualmente en la IA generativa y qué cabe esperar de esta tecnología en los próximos años en el área de la medicina.

Materiales y métodos

En esta sección vamos a estudiar la evolución de la IA y su relación con los avances en la neurociencia y psicología en temas de la inteligencia humana.

¿Qué es la inteligencia?

Para definir la inteligencia humana tenemos que remitirnos a los estudios recientes de neurociencia, especialmente a Antonio Damasio4, donde se plantean diferentes módulos de inteligencia separados por un umbral de consciencia. En la figura 1 se muestran los 2 bloques principales: la inteligencia ejecutiva y la inteligencia generativa o computacional. El proceso de aprendizaje consta de varias etapas: una inicial de entrenamiento, otra de adquisición de hábitos y una final, donde se crean los automatismos a partir de los hábitos. La etapa de entrenamiento es totalmente consciente, mientras que la adquisición de hábitos se sitúa en el umbral de la consciencia y los automatismos se producen en el subconsciente. Los procesos neuronales concretos que conducen a este proceso de aprendizaje son aún desconocidos.

Figura 1.

Inteligencia humana según la neurociencia y la psicología.

(0.14MB).

Ligando esta arquitectura con la teoría de Kahneman sobre los 2 sistemas de pensamiento lento y rápido5, diríamos que el sistema 1 (rápido) corresponde con la inteligencia computacional y el sistema 2 (lento) con la inteligencia ejecutiva. El sistema 1 es mucho más económico energéticamente que el sistema 2 y muchas de nuestras acciones se guían principalmente por el sistema 1. La inteligencia humana proviene principalmente del sistema 2, pero esta inteligencia no puede desgajarse del sistema 1, ya que nuestra percepción y comunicación están cableadas en el sistema 1, y sin ellas no es posible los procesos más complejos de razonamiento y planificación. Tal y como indica el propio Kahneman, los sistemas 1 y 2 se combinan para tomar decisiones, no pueden considerarse nunca como componentes separados, sino complementarios. También debe tenerse en cuenta que evolutivamente la inteligencia ejecutiva surge en un momento muy posterior a la inteligencia computacional y que requiere de la consciencia para llevarse a cabo.

Evolución de la inteligencia artificial

La evolución de la IA clásica (fig. 1) ha tratado de imitar diversos aspectos de la inteligencia ejecutiva o pensamiento lento. La resolución de problemas complejos, la planificación y el razonamiento fueron los principales aspectos tratados en las primeras etapas de la IA. De este modo, surgieron los primeros algoritmos de búsqueda de soluciones, planificación de tareas y razonamiento basado en la lógica. Todos estos estudios previos han ignorado la existencia de la inteligencia computacional (fig. 1), dando lugar a la paradoja de Moravec: lo que nos resulta fácil de hacer a los humanos resulta muy complejo para las máquinas, y viceversa. Precisamente, la inteligencia ejecutiva que nos resulta especialmente costosa a los humanos, puede ser ejecutada eficientemente por las máquinas, como jugar al ajedrez. Las tareas que hemos automatizado en el subconsciente nos resultan fáciles, aunque su complejidad interna es inabordable para una máquina.

Redes neuronales artificiales

Como la base de la inteligencia humana reside en las neuronas, las aproximaciones pioneras de la IA intentaron imitar su comportamiento con un modelo matemático. Así surgió el perceptrón de Rosenblatt en 19586 y que, en esencia, es el mismo mecanismo utilizado en las redes neuronales artificiales actuales. El funcionamiento del perceptrón puede verse en la figura 3.

Una vez tenemos definida una neurona, el siguiente paso consiste en combinar neuronas para formar redes similares a las de un cerebro biológico. Esto se realizó de forma eficiente en 1986 con la definición del perceptrón multicapa7. Esta idea disruptiva introdujo el método de aprendizaje por retropropagación de los errores. Básicamente, la red hace predicciones propagando las señales desde la entrada a la salida, y aprende propagando los errores de la salida hacia la entrada. Para que sean escalables, estas redes deben organizar las neuronas en capas apilables (fig. 4). Esta disposición permite implementar tanto la predicción como la retropropagación como secuencias de operaciones tensoriales que pueden ejecutarse de forma muy eficiente en un hardware especializado como las GPU (Graphics Processing Units) y las TPU (Tensorial Processing Units). Este es el origen, en esencia, del conocido como aprendizaje profundo (deep learning), base de la IA predictiva y generativa actuales.

A partir de este trabajo pionero, surgieron otras topologías de redes neuronales que imitan el comportamiento de ciertas partes del cerebro. Dos casos muy notables son las redes convolucionales8 y las redes neuronales recurrentes9. Las redes convolucionales imitan las funciones del córtex y las redes recurrentes se idearon para la generación de secuencias de letras o palabras.

Todos estos nuevos modelos empezaron a etiquetarse como modelos de IA predictiva o especializada, ya que solo pueden abordar un problema específico a la vez. Este tipo de IA se ha aplicado masivamente en medicina, principalmente para el diagnóstico de enfermedades.

La inteligencia artificial generativa

La IA generativa también se basa en las redes neuronales, concretamente en 2 tecnologías diferenciadas: la generación de textos en lenguaje natural y la generación de objetos multimedia, como son las imágenes, el audio y el vídeo. Ambas tecnologías tienen en común que la entrada es una instrucción escrita en lenguaje natural (prompt) el cual describe la tarea a realizar por la IA. Así, mediante instrucciones, podemos realizar diferentes tareas tales como resumir un documento, traducir un texto, generar un mensaje de correo, crear una imagen, etc.

La generación de textos empezó a ser efectiva a partir de la definición de una red neuronal denominada transformers10, la cual consiste en una sucesión de capas de autoatención. La autoatención permite codificar contextos de conversación de forma muy eficaz, permitiendo a su vez predecir con mucha coherencia secuencias de textos a partir de una entrada inicial. Este es el origen de los grandes modelos de lenguaje (large language models [LLM]), también llamados modelos fundacionales o causales. Un LLM contiene millones de parámetros de autoatención que han sido entrenados con grandes cantidades de textos. Estos modelos se llaman autoregresivos o causales por la forma en la que son entrenados, básicamente predicen palabras ocultas en los textos de entrenamiento. Aplicando el refuerzo por humanos11, estos modelos alcanzaron un punto de inflexión en 2023 con ChatGPT12.

Teniendo en cuenta los procesos de aprendizaje natural de la figura 2, es evidente que la forma de aprender de estos grandes modelos dista mucho de la forma en la que aprendemos los humanos. Estos modelos son enormemente voraces con los datos de entrenamiento, necesitando ingentes cantidades de textos de calidad para alcanzar buenos resultados. Una vez entrenados, carecen de mecanismos de aprendizaje continuo que les permita olvidarse de la información obsoleta o errónea, o de aprender nuevo conocimiento conforme interactúa con su entorno. Una vez el modelo pierde vigencia o eficacia, necesita ser entrenado de nuevo con toda la información nueva que se haya recolectado desde el último entrenamiento.

Figura 2.

La evolución de la inteligencia artificial en el área de la computación.

(0.09MB).
Figura 3.

Una neurona biológica y su simulado, el perceptrón.

(0.06MB).
Figura 4.

El perceptrón multicapa y el aprendizaje profundo.

(0.21MB).

No obstante, estos modelos presentan un aspecto interesante de la inteligencia humana: las denominadas capacidades emergentes. Por ejemplo, un gran modelo de lenguaje de cientos de miles de millones de parámetros puede generalizar a largo plazo y presentar capacidades emergentes de razonamiento13.

Para la generación de imágenes y vídeo, las arquitecturas neuronales utilizadas son las redes adversarias generativas (generative adversarial networks [GAN])14 y los modelos de difusión15. Estos modelos han dado lugar a herramientas comerciales muy populares y ampliamente utilizadas hoy en día.

Una gran base universal de conocimiento

La enorme capacidad de entender el lenguaje humano de los LLM se debe a que observan prácticamente todo el material escrito y publicado por la humanidad en la web. De hecho, podríamos pensar que estos modelos codifican de forma eficiente todo el conocimiento existente en la web para poder consultarlo como si fuese una enorme base universal de conocimiento. Sin embargo, esto no es así en el estado actual de esta tecnología. Un LLM es un generador estocástico de secuencias de palabras y, como tal, puede generar secuencias que no hayan sido vistas en el conjunto de entrenamiento. Es decir, las salidas son formas plausibles conforme a los datos de entrenamiento, pero no necesariamente representan hechos verdaderos derivados del conjunto de entrenamiento. Este fenómeno se conoce como «alucinaciones» y, actualmente, es la principal limitación en la aplicación de los LLM en áreas como la medicina o la creación de automatismos basados en agentes.

Resultados

En esta sección vamos a organizar las principales aplicaciones de la IA generativa en el dominio de la medicina.

Prevención y proactividad

Una de las áreas que más impacto va a tener con la IA generativa es la prevención y la proactividad de los pacientes16. El uso de chatbots especializados para el reconocimiento precoz de enfermedades puede incentivar que los futuros pacientes tomen medidas preventivas o acudan al médico en etapas tempranas de una enfermedad17. Desde su aparición, los chatbots siempre han sido vistos como una herramienta útil en terapias psicológicas18. La combinación de chatbots con IA específicas sobre resultados clínicos permite un seguimiento más eficaz del paciente19.

Mejora en los procesos de diagnóstico

Otra aplicación relevante de la IA generativa consiste en generar imágenes clínicas para aumentar el conjunto de datos de las IA predictivas20,21. Esto es especialmente relevante en escenarios donde los datos asociados a patologías son muy escasos y los métodos predictivos no son capaces de discriminar bien las clases debido a su gran desbalance. En el campo de la patología mamaria, este tipo de aumento de datos son especialmente útiles tanto en radiología como en genómica. El uso de modelos multimodales también puede tener un gran impacto en los procesos de diagnóstico. Un ejemplo reciente es el modelo multimodal PathChat22, que utilizando la técnica de ajuste fino (fine tuning) entrena un chatbot para realizar consultas sobre imágenes médicas.

Medicina personalizada

Los modelos de generación de vídeo han abierto nuevas posibilidades en la medicina personalizada. La calidad actual en la generación de vídeo es tal que se empieza a considerar estos modelos como modelos del mundo, es decir, simuladores de una realidad física. Un modelo físico del mundo aplicado a la medicina permitiría la creación de gemelos digitales de los pacientes23. Estos modelos físicos combinados con los datos clínicos y genómicos permitirán realizar los ensayos clínicos sobre los gemelos digitales, minimizando de esta manera posibles efectos adversos y no deseables de estas pruebas.

Nuevos descubrimientos médicos

La codificación de todo el saber médico en un gran modelo de lenguaje, también abre la oportunidad de descubrir nuevo conocimiento aprovechando la creatividad de la IA generativa. Un campo de estudio de aplicación inmediata es el descubrimiento de conocimiento desde la literatura (Literature-based discovery [LBD]). LBD es un enfoque en el que se exploran las bases de datos científicas y la literatura académica para descubrir conexiones novedosas entre conceptos o hallazgos que no están explícitamente relacionados. Estos métodos están siendo mejorados con el uso de los LLM24.

Discusión

No cabe duda que la IA generativa va a suponer a corto plazo una revolución en muchas áreas de la sociedad digital. La fuerte transformación de la medicina para digitalizar todos sus procesos implica que esta nueva ola va a impactar de forma directa en la forma de trabajar de los profesionales del sector a corto o medio plazo. Entre otros motivos está el que los ciudadanos ya utilizan la IA generativa para consultar y asesorarse en temas médicos. Sin embargo, estamos todavía lejos de alcanzar las capacidades humanas de razonamiento y planificación. La falta de confianza en las respuestas de estos sistemas es aún su principal hándicap. No pueden construirse procesos automáticos consistentes sin la seguridad de que la información que manejan en todo momento es verídica y fiable.

A raíz de la irrupción de la IA generativa y la gran repercusión mediática que le ha acompañado, existen numerosos factores que pueden ralentizar los avances de esta tecnología.

  • Coste económico: los enormes modelos de IA generativa implican un enorme gasto, el que de momento está siendo asumido por las grandes tecnológicas. Varios estudios recientes alertan de que el uso indiscriminado de esta tecnología podría ser insostenible. Afortunadamente, existen varias técnicas que permiten reducir sustancialmente el tamaño de estos modelos una vez entrenados, y que harían su uso masivo más sostenible.

  • Techo de la tecnología actual: un gran temor que existe en la comunidad científica de la IA generativa es que los LLM tengan un techo de eficacia que haga que no sea posible alcanzar la fiabilidad necesaria para su uso en áreas críticas como la medicina25.

  • Barreras éticas y legales: aunque estas barreras ya existían con los métodos tradicionales de aprendizaje automático, ahora son aún más necesarias, ya que la IA generativa requiere cantidades ingentes de datos para obtener resultados aceptables. Esto implica la disponibilidad masiva de datos clínicos de calidad que actualmente residen en silos que preservan la privacidad de los pacientes. De este modo, la creación de colecciones anonimizadas de calidad se convierte en un proceso tremendamente costoso y lento.

Conclusiones

La IA generativa ha supuesto un terremoto tecnológico en la denominada sociedad digital, dentro de la cual está inmersa la medicina actual. Esta disrupción está empezando a ser asumida por todos los profesionales, ya que en un futuro próximo podría revolucionar toda la disciplina. No obstante, hay obstáculos muy importantes que superar, principalmente los referentes a la calidad y precisión de estos sistemas, así como las barreras de privacidad y ética que deben ser respetadas por los nuevos sistemas de salud automatizados. Actualmente, la Unión Europea trata de regular la IA de modo que se preserven todos los aspectos legales y de privacidad de los usuarios. La regulación vigente también permite gestionar de forma adecuada la gobernanza de los datos clínicos. Es de esperar por tanto una absorción progresiva de estas nuevas tecnologías en los sistemas digitalizados del sistema de salud.

Financiación

Este trabajo ha sido financiado con fondos propios de la Universitat Jaume I de Castellón.

Conflicto de intereses

No existen conflictos de intereses de ningún tipo.

Agradecimientos

En primer lugar, agradecer al Comité de Bioètica Assistencial (CBA) del Departament de Salut de Castelló por su invitación a las jornadas del 2024 celebradas en el Hospital General de Castellón, en especial a Patrici Calvo de la Universitat Jaume I. También agradecer la invitación al monográfico por parte de Eduardo Alcobilla, editor del mismo.

Bibliografía
[1]
Raimundo Lulio, Ars Magna Generalis, Lyon y Pisa, 1315.
[2]
A.M. Turing.
Computing machinery and intelligence.
Mind, 59 (1950), pp. 433-460
[3]
B. Goertzel, C. Pennachin.
Artificial general intelligence: A survey.
Artificial General Intelligence, pp. 1-30 http://dx.doi.org/10.1007/978-3-540-68677-4_1
[4]
A.R. Damasio.
El Error de Descartes: La Emoción, la Razón y el Cerebro Humano.
1ª ed., Crítica, (1994),
[5]
D. Kahneman.
Thinking, Fast and Slow.
1st ed., Farrar, Straus and Giroux, (2011),
[6]
F. Rosenblatt.
The perceptron: a probabilistic model for information storage and organization in the brain.
Psychol Rev., 65 (1958), pp. 386-408
[7]
D.E. Rumelhart, G.E. Hinton, R.J. Williams.
Learning representations by back-propagating errors.
Nature, 323 (1986), pp. 533-536
[8]
Y. LeCun, B. Boser, J.S. Denker, D. Henderson, R.E. Howard, W. Hubbard, et al.
Backpropagation applied to handwritten zip code recognition.
Neural Comput., 1 (1989), pp. 541-551
[9]
J.L. Elman.
Finding structure in time.
Cognit Sci., 14 (1990), pp. 179-211
[10]
A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A.N. Gomez, et al.
Attention is all you need.
Proceedings of the 31st International Conference on Neural Information Processing Systems (NIPS '17), pp. 6000-6010
[11]
D.M. Ziegler, N. Stiennon, J. Wu, T.B. Brown, A. Radford, D. Amodei, et al., Fine-tuning language models from human preferences, [consultado 30 Dic 2024], Disponible en: https://arxiv.org/abs/1909.08593
[12]
T. Brown, B. Mann, N. Ryder, M. Subbiah, J. Kaplan, P. Dhariwal, et al., Language models are few-shot learners, In: Proceedings of the 34th International Conference on Neural Information Processing Systems (NeurIPS 2020), 2020, Curran Associates Inc; Red Hook, NY, 1877–1901, [consultado 30 Dic 2024], Disponible en: https://arxiv.org/abs/2005.14165
[13]
Z. Liu, O. Kitouni, N.S. Nolte, E. Michaud, M. Tegmark, M. Williams. Towards understanding grokking: An effective theory of representation learning. Advances in Neural Information Processing Systems, NISP 2022. [consultado 30 Dic 2024], Disponible en: https://arxiv.org/abs/2205.10343
[14]
I. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, et al.
Generative adversarial nets.
Proceedings of the International Conference on Neural Information Processing Systems (NIPS 2014), pp. 2672-2680
[15]
Y. Song, J. Sohl-Dickstein, D.P. Kingma, A. Kumar, S. Ermon and B. Poole, Score-Based Generative Modeling through Stochastic Differential Equations. ICLR 2021, 2021. [consultado 30 Dic 2024], Disponible en: https://arxiv.org/abs/2011.13456.
[16]
A. Waqas, M.M. Bui, E.F. Glassy, I. El Naqa, P. Borkowski, A.A. Borkowski, et al.
Revolutionizing digital pathology with the power of generative artificial intelligence and foundation models.
[17]
L. Xu, L. Sanders, K. Li, J.C.L. Chow.
Chatbot for health care and oncology applications using artificial intelligence and machine learning: systematic review.
JMIR Cancer, 7 (2021),
[18]
K. Denecke, S. Vaaheesan, A. Arulnathan.
A mental health chatbot for regulating emotions (SERMO) - concept and usability test.
IEEE Trans Emerg Top Comput., 9 (2021), pp. 1170-1182
[19]
S. Suppadungsuk, C. Thongprayoon, J. Miao, P. Krisanapan, F. Qureshi, K. Kashani, et al.
Exploring the potential of chatbots in critical care nephrology.
[20]
A. Kazerouni, E. Khodapanah Aghdam, M. Heidari, R. Azad, M. Fayyaz, I. Hacihaliloglu, et al.
Diffusion models in medical imaging: a comprehensive survey.
[21]
W.H.L. Pinaya, P.D. Tudosiu, J. Dafflon, P.F. Da Costa, V. Fernandez, P. Nachev, et al.
Brain imaging generation with latent diffusion models.
Lect Notes Comput Sci., 13609 (2022), pp. 117-126
[22]
M.Y. Lu, B. Chen, D.F.K. Williamson, R.J. Chen, M. Zhao, A.K. Chow, et al.
A multimodal generative AI copilot for human pathology.
Nature, 634 (2024), pp. 466-473
[23]
R. Laubenbacher, B. Mehrad, I. Shmulevich, N. Trayanova.
Digital twins in medicine.
Nat Comput Sci., 4 (2024), pp. 184-191
[24]
B. Koloski, N. Lavrač, B. Cestnik, S. Pollak, B. Škrlj, A. Kastrin.
AHAM: Adapt, Help, Ask, Model harvesting LLMs for literature mining.
Advances in Intelligent Data Analysis XXII. IDA Lecture Notes in Computer Science, http://dx.doi.org/10.1007/978-3-031-58547-0_21
[25]
L. Zhou, W. Schellaert, F. Martínez-Plumed, Y.Moros-Daval, C. Ferri and J. Hernández-Orallo. Larger and more instructable language models become less reliable, Nature, 634, 2024, 61–68, doi: https://doi.org/10.1038/s41586-024-07930-y.
Descargar PDF
Opciones de artículo
es en pt

¿Es usted profesional sanitario apto para prescribir o dispensar medicamentos?

Are you a health professional able to prescribe or dispense drugs?

Você é um profissional de saúde habilitado a prescrever ou dispensar medicamentos