9 octubre, 2024

Compartir

Datos anónimos para una Inteligencia Artificial robusta y sustentable

La Inteligencia Artificial (IA) requiere de datos: los genera, los procesa, los entrena y los pone a prueba y, a veces, los comparte. ¿Pero cómo garantizar la seguridad y la confidencialidad de esa información? La empresa Secure AI Labs (SAIL) tomó nota de la necesidad y desarrolló una plataforma para garantizar que los conjuntos de datos cifrados no abandonan el sistema que es propietario.

Mediante este sistema, las organizaciones pueden controlar cómo se utilizarán sus datos y los investigadores pueden garantizar tener confidencialidad en sus modelos de abordaje; y de esta manera impulsar una estrategia para compartir algoritmos. Y, por su perspectiva de desarrollo y potencialidad, esta iniciativa aspira a trabajar con la mitad de los 50 principales centros médicos académicos de Estados Unidos en 2022.

El Norte de este proyecto hizo a SAIL establecer acuerdos con hospitales norteamericanos y empresas de ciencias biológicas. “Nuestro objetivo es ayudar a los pacientes y a los científicos del Aprendizaje Automático y crear nuevas terapias”, sostuvo Manolis Kellis, cofundador de SAIL y profesor del Instituto Tecnológico de Massachusetts (MIT).

“Como administradores de los datos de los pacientes, los hospitales tienen la responsabilidad de compartirlos de forma segura y evitar el uso indebido o las copias erróneas”, dice la plataforma SAIL en su presentación y subraya que “permite que cada operación y sesión de investigación sea auditada y registrada para ser consistente con los acuerdos de uso de datos. Sabrá exactamente cuándo, quién y qué está sucediendo con sus datos en todo momento y la tranquilidad de que los datos nunca salen del hospital”.

Su modelo se instrumenta a través de funciones de algoritmos seguros para enclaves federados (SAFE, por sus siglas en inglés), es decir, “algoritmos computacionales examinados que operan en datos de forma confidencial dentro del Nodo de cómputo seguro”.

De esta manera, las funciones se ejecutan en un entorno de ejecución confiable y los datos en sí mismos nunca son visibles por fuera y, al limitar a los usuarios solo las funciones SAFE, el sistema reduce drásticamente la posibilidad de “algoritmos malévolos, que a menudo son el talón de Aquiles en las configuraciones de aprendizaje federado”, explican.

Compartir

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *