28 abril, 2024

Compartir

Google reconoció investigación del CONICET Santa Fe en temas de IA y salud

Una investigación realizada por especialistas del CONICET Santa Fe que busca anticipar potenciales problemas de sesgo algorítmico en el desarrollo de modelos de Inteligencia Artificial (IA) que se aplican al análisis de imágenes médicas, fue seleccionada para el Google Award for Inclusion Research (Google AIR).

En los últimos años, y en especial a partir de la pandemia, se experimentó en todo el mundo una expansión de la investigación en modelos de IA aplicados al análisis automatizado de imágenes médicas, con la finalidad de lograr mayor precisión y velocidad en los diagnósticos de numerosas enfermedades, que van del cáncer de mamas a la esclerosis múltiple.

La velocidad de esta expansión volvió muy relevante la investigación sobre los márgenes de error en los resultados, donde se verifican ciertos “sesgos” que se manifiestan a través de rendimientos dispares en modelos de IA aplicados a poblaciones diversas que, generalmente, están subrepresentadas en las bases de datos utilizadas para su entrenamiento.

En salud, los sistemas basados en IA pueden arrojar resultados diferentes según el grupo al que se aplica, algo que conlleva diferencias que pueden ser muy importantes al momento de diagnosticar y proponer los tratamientos más convenientes.

En este contexto, el proyecto denominado “Descubrimiento de sesgo no supervisado: anticipando problemas de equidad algorítmica en modelos de machine learning para análisis de imágenes médicas sin anotaciones de referencia”, fue seleccionado para el Google AIR, un reconocimiento internacional que otorga la empresa a investigadores que logran trabajos con impacto positivo en el bien común.

El proyecto está dirigido por Enzo Ferrante, investigador del CONICET en el Instituto de Investigación en Señales, Sistemas e Inteligencia Computacional (sinc(i),CONICET-UNL), quien  explicó que Google AIR es un programa internacional altamente competitivo que, en esta ocasión, ha premiado grupos de la New York University, de Stanford y de seis instituciones latinoamericanas, entre las que se halla la el equipo que integra Ferrante con Victoria Peterson (co-directora del proyecto galardonado), investigadora  del CONICET en el Instituto de Matemática Aplicada del Litoral (IMAL, CONICET-UNL), y los investigadores del CONICET Diego Milone y Rodrigo Echeveste –también del sinc(i)-, y becarios/as con tesis doctorales en temáticas afines.

A través de su proyecto, los expertos argentinos alertan sobre el riesgo de reproducir sesgos propios de bases de datos diseñadas en el extranjero, por lo que orientaron sus investigaciones en base a estrategias destinadas a minimizar los efectos nocivos que pueden plantearse a nivel local. Sucede que en los últimos años se ha demostrado que los sistemas de IA pueden estar sistemáticamente sesgados respecto a subpoblaciones en función de características demográficas como el grupo étnico o el género en una variedad de escenarios.

El término “sesgado” -en este contexto- hace referencia a modelos de IA que presentan un rendimiento dispar en función del grupo demográfico al que la persona pertenece. Cuando se trata de sistemas de IA que analizan datos de salud, el tema adquiere mucha relevancia para las tareas de análisis de imágenes médicas, como el diagnóstico asistido por computadora. En este caso, sostiene Ferrante, “es vital auditar los modelos considerando diferentes poblaciones, evaluando las métricas de equidad para determinar el potencial desempeño dispar entre los subgrupos, por ejemplo, sistemas que presenten un mejor rendimiento en hombres que en mujeres o en pacientes jóvenes que en pacientes adultos”.

En el proyecto financiado por Google, el objetivo de los investigadores es desarrollar nuevos métodos para el descubrimiento de sesgos no supervisados en ausencia de información demográfica y anotaciones de expertos, que pueden ayudar a anticipar problemas de equidad al utilizarlos en nuevas poblaciones. “Ser capaces de descubrir este tipo de sesgo en los sistemas de IA, yendo más allá de las categorías demográficas predefinidas, puede resultar muy útil para evitar un rendimiento de diagnóstico dispar, especialmente cuando se consideran aspectos como identidad de género u orientación sexual, que son construcciones culturales fluidas y que pueden cambiar con el tiempo, a través de contextos sociales y no se pueden categorizar fácilmente”, afirma Ferrante.

El proyecto cuenta con el financiamiento y respaldo del CONICET, de la Facultad de Ingeniería y Ciencias Hídricas de la Universidad Nacional del Litoral y de la Agencia Nacional de Promoción de la Investigación, el Desarrollo Tecnológico y la Innovación.

Compartir

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *