Sin una mejor gobernanza de datos, las herramientas de IA en salud pueden causar un gran daño. (imagen: ARMMY PICCA / iStock)
INFORMS: El Desafío Regulatorio de la IA en Salud
A medida que la inteligencia artificial (IA) se vuelve omnipresente en el sector de la salud, surge una pregunta fundamental: ¿podemos confiar en el modelo? Un nuevo artículo de Aaron Lai para ORMS Today, de nuestro editor INFORMS, argumenta que la confianza ciega en los algoritmos puede llevar a daños significativos, y que el problema central reside menos en los modelos y más en los datos que los alimentan. El texto explora la brecha regulatoria existente, los sesgos ocultos en los datos de salud y propone acciones políticas concretas.
El autor destaca que las políticas regulatorias actuales, como las de la FDA, se centran en modelos estadísticos tradicionales (model-driven), mientras que la IA está fundamentalmente impulsada por datos (data-driven). Sin una gobernanza de datos eficaz, las herramientas de IA pueden perpetuar e incluso ampliar las desigualdades.
Los principales puntos de alerta del artículo son:
- Sesgos Ocultos en los Datos: Las herramientas de IA son tan buenas como los datos con los que se entrenan. Sin embargo, estos datos están repletos de trampas:
- Sesgo de Confirmación: Es común encontrar evidencia que respalda nociones preconcebidas, lo que limita el universo de datos de entrenamiento para los modelos de IA.
- Uso Indebido de Datos: Frecuentemente, los modelos utilizan los datos disponibles, no los datos necesarios. Esto puede llevar a consecuencias no deseadas, como el caso del algoritmo de Optum que presentó un sesgo racial.
- Datos Incompletos: En modelos como el de pago basado en valor, los proveedores pueden no tener incentivos para documentar exhaustivamente todos los detalles, generando datos con lagunas desconocidas.
- Una Brecha Regulatoria: Las regulaciones actuales están desfasadas. En EE. UU., la FDA se centra en la seguridad clínica de los dispositivos, mientras que el HHS se centra en el paciente. Esta fragmentación (incluyendo leyes estatales dispares, como las de California) crea vacíos legales y no está claro cómo se asigna la responsabilidad entre los creadores de IA, los desarrolladores de software y los usuarios.
- La Necesidad de un Nuevo Contrato Social: El autor aboga por un nuevo contrato social para la IA, que sea simultáneamente "prospectivo y retrospectivo". Sugiere un marco regulatorio integral que establezca estándares de "uso ético" para los datos de salud, posiblemente a través de un consejo asesor público-privado, similar al NICE en el Reino Unido.
El artículo concluye con acciones políticas claras: la FDA debe acelerar la evaluación de Software como Dispositivo Médico (SaMD) con un enfoque en la transparencia del uso de datos; los estados deben armonizar sus requisitos; y el Congreso debe simplificar las políticas de responsabilidad de los modelos.
Para profundizar en el análisis sobre los tipos de sesgos en datos de salud y en las propuestas de regulación, recomendamos la lectura del artículo completo.
Sobre INFORMS
INFORMS es la principal asociación internacional de profesionales de la investigación operativa, la analítica, la ciencia de la gestión, la economía, la ciencia del comportamiento, la estadística, la inteligencia artificial, la ciencia de datos, las matemáticas aplicadas y otros campos relevantes. Avanza y promueve la ciencia y la tecnología de la toma de decisiones para salvar vidas, ahorrar dinero y resolver problemas.
Si desea obtener más información sobre la cartera de INFORMS para su institución, póngase en contacto con info@dotlib.com o complete nuestro formulario. Aproveche la oportunidad para mantenerse al día con nuestro blog, seguir nuestras redes sociales y suscribirse a Dotlib TV, nuestro canal oficial de YouTube.
Dot.Lib
Dot.Lib es una empresa dedicada a la difusión de información científica, facilitando el acceso en línea a libros digitales, revistas electrónicas y bases de datos en las más diversas áreas del conocimiento.