La revista profesional sobre tecnología y transformación digital
Mexican doctor explaining brain scans to patient
Alberich Ángel_sum

Ángel Alberich Bayarri.

Doctor Ingeniero de Telecomunicación. CEO y fundador de Quibim.

El ojo incansable

IA para interpretar imágenes médicas

La radiología es una de las disciplinas que más ha revolucionado el cuidado de la salud en los últimos cien años. Hemos pasado del balbuceo de las primeras radiografías que apenas alcanzaban a visualizar los huesos del cuerpo humano a un gran abanico de tecnologías que nos muestran con una elevadísima resolución espacial y temporal el estado de los órganos y tejidos de cada punto de nuestra anatomía de manera no invasiva.

La imagen médica encendió una ‘luz’ en el interior del cuerpo humano haciéndolo visible. Pasamos de no ver a ver. De la elucubración sobre la enfermedad y sus síntomas al conocimiento y el manejo personalizado del paciente. Quizás, la imagen sea la tecnología que más ha permitido obedecer el ‘primum non nocere’ del juramento hipocrático en la comunidad médica.

La radiología está pasando en estos momentos por su tercera revolución industrial, tras la digitalización y la aparición de las técnicas tomográficas. La imagen médica ha dejado de ser un producto final para pasar a ser un producto intermedio que puede procesarse mediante técnicas computacionales y de ciencia de datos, como los modelos de Inteligencia Artificial (IA), lo que permite su evaluación objetiva y la extracción de parámetros cuantitativos, denominados biomarcadores de imagen, que miden voxel a voxel (píxel en 3D) el estado de los órganos y tejidos.

Hacia el deep learning

En el ámbito de los algoritmos de procesamiento de imágenes, la combinación de la IA con la proliferación de la tecnología de unidades de procesamiento gráfico (Graphics Processing Unit – GPU) nos ha permitido resolver retos que no eran viables mediante las técnicas clásicas deterministas de visión por computador centradas en métodos como los filtrados, gradientes, contornos adaptables, crecimiento de regiones o la creación de atlas, entre otros.

La radiología está pasando en estos momentos por su tercera revolución industrial, tras la digitalización y la aparición de las técnicas tomográficas

El motivo por el que este cambio ha supuesto una disrupción positiva reside en las redes neuronales convolucionales (Convolutional Neural Networks, CNN). Las CNN están especialmente adaptadas para el manejo de datos bidimensionales y han tenido también un gran impacto en otros dominios, como es el caso del reconocimiento de voz. Las arquitecturas de estas redes neuronales convolucionales pueden incluir un elevado número de capas ocultas entre la entrada y la salida, que hacen que a esta tecnología se la conozca con el nombre de aprendizaje profundo o deep learning.

El deep learning se ha aplicado principalmente en radiología para la detección de lesiones y para la clasificación de las imágenes en patologías y sus subgrupos, así como para la segmentación automática de órganos. Los primeros avances fueron posibles en parte gracias a la transferencia de conocimiento (transfer learning) desde redes ya pre entrenadas para el reconocimiento y análisis de imágenes de la vida cotidiana que se han adaptado a la evaluación de imágenes radiológicas. En la actualidad, se están ya entrenando redes de manera exclusiva con datos radiológicos, lo que permite una mejora significativa en rendimiento.

Una IA explicable

En el área de la detección de lesiones, las CNN poseen la enorme ventaja de aprender a identificar aquellas estructuras que se parecen más a una lesión, obviando estructuras anatómicas normales que pueden tener intensidades similares. En una de las imágenes que acompaña este artículo se muestra un ejemplo de un modelo de detección de lesiones de la sustancia blanca cerebral que ha aprendido a partir de mil estudios de resonancia magnética etiquetados por neuroradiólogos expertos. Este modelo está basado en un ensamblaje de redes neuronales convolucionales que permite alcanzar una exactitud del 96%.

Detección de lesiones de sustancia blanca cerebral en con algoritmo basado en ensemble de CNN.

 

En la clasificación, deep learning tiene el potencial de poder procesar todo el contenido de una imagen radiológica y proporcionarnos aquellas clases con las que la imagen presenta una mayor similitud. Un ejemplo ilustrativo es la clasificación de radiografías de tórax. En una imagen adjunta se muestra un ejemplo de clasificación de RX de tórax realizada por un modelo que ha sido entrenado con 500.000 radiografías con múltiples hallazgos patológicos (nódulo, enfisema, masa, opacidades y cardiomegalia, entre muchas otras).

En la salida, además de tener la clase elegida y su probabilidad, se dispone también de un mapa de atención que nos permite visualizar aquellas zonas de la imagen que han tenido un mayor peso para la decisión de la red, apoyando la línea actual de investigación de ‘explicabilidad’ de la IA, que tiene un interés creciente tanto por organismos reguladores como por la comunidad investigadora en ciencia de datos.

La IA no sustituirá al radiólogo, le hará un profesional capaz de centrarse en aquellas tareas en las que aporta más valor

El objetivo es tener un mayor conocimiento de qué factores han influido en la decisión de la red y minimizar el reduccionismo entre los sectores escépticos de la IA, al ser considerada como una ‘caja negra’. Esta exigencia hacia lo ajeno y no hacia lo propio quizá nos caracterice como humanos. Quizá sea más explicable cómo una red toma una decisión que cómo lo hace el cerebro humano, y sin embargo nos fiamos mucho más de este último.

Sin duda, uno de los grandes avances de la IA en el ámbito de la radiología ha sido el de la segmentación de órganos de manera automática. Las CNN pueden aprender de cómo los expertos delimitan una anatomía en un conjunto de tamaño considerable de datos etiquetados. A partir de aquí, si la red presenta una buena generalización, será capaz de extraer la anatomía ante cualquier nuevo conjunto de imágenes que se le presente. Las CNN permiten delimitar exitosamente órganos de manera automática.

Órganos y tejidos como la próstata, el hígado o el cartílago de la rodilla en resonancia magnética eran sumamente difíciles de segmentar con algoritmos clásicos y las CNN permiten en pocos segundos, como si de magia se tratara,
determinar la región de interés en todo el órgano. Tenía razón Arthur C. Clarke al afirmar que cualquier tecnología suficientemente avanzada es indistinguible de la magia.

El futuro del radiólogo

Una de las discusiones recurrentes sobre IA, no solo en el ámbito de la salud sino en muchos otros, es su capacidad de sustituir al humano y la pérdida de puestos de trabajo relacionados con su implantación. La IA es una tecnología que permite mejorar al humano pero no sustituirlo. El radiólogo realiza un gran número de tareas repetitivas y tediosas donde apenas desarrolla razonamientos complejos, restándole tiempo para centrarse en aquellos casos de mayor complejidad. Como ejemplo, más del 50% de estudios de tomografía computarizada (TC) de cerebro en urgencias son normales.

Las CNN permiten en pocos segundos, como si de magia se tratara, determinar la región de interés en todo un órgano

Un algoritmo que filtrara y ordenara la lista de trabajo del radiólogo por orden de prioridad según la gravedad del paciente permitiría optimizar el flujo de trabajo. La IA no sustituirá al radiólogo; más bien le hará un profesional capaz de centrarse en aquellas tareas en las que aporta más valor, aprovechando esa optimización para ir incorporando conocimientos de otras técnicas diagnósticas, como la genómica y la anatomía patológica. En el futuro los radiólogos serán especialistas en imagen médica dentro de grandes departamentos transversales enfocados exclusivamente al diagnóstico.

Clasificación de RX de tórax como anormal mediante un método de IA en paciente con Coronavirus COVID-19.

 

Y para finalizar es pertinente destacar el problema legal. Aunque el radiólogo y su firma representan toda la responsabilidad legal en la emisión de un juicio clínico a partir de las imágenes médicas, es innegable que esto será
objeto de revisión con la entrada de las técnicas de IA en los sistemas sanitarios. Imaginemos que, ante un caso de cáncer de pulmón, un modelo de IA lo etiquete equivocadamente como atelectasia por error y ello influya como consecuencia en la lectura incorrecta de las imágenes por parte del radiólogo, forzándolo a cometer un error.

Desde la perspectiva del que escribe, las compañías de IA deben comunicar públicamente las validaciones y el rendimiento de sus modelos, asumiendo también responsabilidad legal en caso de error grave. Únicamente de esta forma proliferarán aquellas compañías que aportan valor de entre todas las nuevas empresas que se han creado en el ámbito de la IA y la radiología. Si la responsabilidad final siempre recae en el radiólogo, esta ausencia de responsabilidad legal provocará un efecto aplanador, no permitiendo hallar las compañías que tienen mejores aciertos en sus resultados y han aportado una mayor transparencia en la comunicación de sus validaciones de los modelos, como si de una ficha técnica de un medicamento se tratara.

Donantes de datos

El desarrollo de modelos de IA requiere de grandes conjuntos de datos etiquetados, especialmente si trabajamos con metodologías supervisadas. Aunque bases de datos como ImageNet reúnen millones de imágenes de la vida cotidiana -lo que ha facilitado el desarrollo de técnicas de IA para la caracterización de imágenes con concursos como el ILSVRC (ImageNet Large Scale Visual Recognition Competition)-, en el ámbito de la imagen médica no existen grandes repositorios ni grandes biobancos de imágenes etiquetadas que sean aprovechables para entrenamiento. Hemos compartido imágenes de la vida cotidiana en nuestras redes sociales pero nos olvidamos de compartir nuestros datos de salud, limitando el desarrollo de la tecnología de IA en salud. Quizá sea el momento de convertirnos en donantes de datos y, teniendo en cuenta que España está a la cabeza del ranking mundial en donación de órganos, seguro que en compartición de datos también seríamos uno de los líderes mundiales, sin duda alguna.

 

Comparte