Aprendizaje Automatico

Interpretabilidad en el Aprendizaje Automático: La Revolución de los Modelos de IA Transparentes

El aprendizaje automático ha revolucionado múltiples campos al desentrañar patrones ocultos en grandes conjuntos de datos que nuestros cerebros limitados no pueden procesar. Estos complejos algoritmos, sin embargo, a menudo se perciben como «cajas negras» incomprensibles. ¿Debe ser así? Cynthia Rudin, investigadora de aprendizaje automático interpretable en la Universidad de Duke, argumenta que no es necesario sacrificar la transparencia por la precisión.

La Necesidad de la Interpretabilidad

Los modelos de aprendizaje automático están cada vez más presentes en decisiones de alto impacto, como la detección de tumores, la concesión de libertad bajo fianza o la aprobación de préstamos. De hecho, al menos 581 modelos de IA han sido autorizados por la Administración de Alimentos y Medicamentos de EE.UU. para decisiones médicas, muchos de ellos para ayudar a los radiólogos a detectar anomalías en imágenes médicas. Sin embargo, muchos de estos algoritmos siguen siendo «cajas negras» debido a su complejidad o su carácter propietario.

«Me pone muy nerviosa. Todo el marco del aprendizaje automático debe cambiar cuando se trata de decisiones de alto riesgo.»

Dice Rudin

Esto es particularmente notable, cuando tenemos una tendencia muy marcada con el uso de las herramientas de Inteligencia Artificial, y por la moda, se quiere implementar de forma rápida, sin sopesar mucho cuales son las implicaciones que puedan impactar en las estrategias de una organización o desarrollo particular.

El Camino hacia los Modelos Transparentes

Rudin y su equipo han demostrado que incluso los modelos de aprendizaje automático más complejos, como las redes neuronales utilizadas en tareas de visión por computadora, pueden transformarse en «cajas de cristal» interpretables que muestren su proceso de decisión a los médicos. Rudin, quien creció en las afueras de Buffalo, Nueva York, desarrolló un amor por la física y las matemáticas, influenciada por su padre, un físico médico que calibraba máquinas de rayos X. Sin embargo, ella prefirió resolver problemas con computadoras, lo que la llevó a liderar el laboratorio de Aprendizaje Automático Interpretable en Duke.

Aprendizaje Automático

La Importancia de Comprender el Proceso

Para confiar en una predicción, es esencial entender cómo funcionan los cálculos. En el campo de la salud, por ejemplo, es vital saber si el modelo es aplicable a un paciente específico. Además, es difícil solucionar problemas en los modelos si no se sabe qué están haciendo. Rudin destaca un caso en el que su equipo proporcionó un modelo a una compañía eléctrica de Nueva York que dependía del número de cables neutrales, un factor que no debía estar en el modelo debido a un error en la base de datos. «Si no hubiéramos podido identificar el problema, habríamos tenido un problema grave

Modelos Interpretables en la Medicina

Rudin comenzó a preocuparse por los modelos no transparentes en la medicina cuando su padre, asistiendo a conferencias de física médica y radiología, notó que la IA estaba tomando un papel prominente en la radiología sin modelos interpretables. Decidieron demostrar que se podían construir modelos interpretables para la mamografía sin perder precisión en comparación con sus contrapartes de «caja negra».

Leer VIDNOZ: Genera VÍDEOS en segundos con IA y gratis

El equipo utilizó el razonamiento basado en casos, donde se compara una nueva instancia con casos anteriores similares. Esta técnica permite que los modelos expliquen su razonamiento de una manera que los humanos pueden entender. Aplicaron esta metodología a redes neuronales complejas sin perder precisión en comparación con los puntos de referencia en la visión por computadora.

» image 2 Aprendizaje Automático

Ampliando el Enfoque a Otras Áreas

El éxito en la mamografía llevó al equipo a aplicar el razonamiento basado en casos a otros campos médicos, como los escaneos de EEG para pacientes gravemente enfermos. Usaron una arquitectura neuronal similar y lograron entrenar el modelo en unos pocos meses.

Desafíos y Oportunidades

Entrenar un modelo interpretable es más difícil que entrenar uno de «caja negra» porque requiere pensar en el proceso de razonamiento y asegurarse de su corrección. Para decisiones de bajo riesgo, como la publicidad, no suele valer la pena el esfuerzo adicional. Sin embargo, para decisiones de alto riesgo, Rudin cree que vale la pena el esfuerzo extra.

Problemas con la «Explicabilidad»

En 2017, algunos investigadores comenzaron a trabajar en la «explicabilidad», que busca explicar las predicciones de una «caja negra». Sin embargo, estas explicaciones tienen que estar equivocadas en cierto modo, porque si siempre fueran correctas, se podría reemplazar la «caja negra» con las explicaciones. Esto es problemático en decisiones de alto riesgo, donde una explicación incorrecta puede tener consecuencias graves.

La Evolución del Campo

Rudin ha notado un cambio en la actitud hacia la interpretabilidad. Anteriormente, sus conferencias solían generar oposición, pero ahora más personas están de acuerdo y trabajan en este campo. Sin embargo, los enfoques de «explicabilidad» siguen siendo predominantes debido a su menor dificultad comparativa.

Aplicaciones de Bajo Riesgo

Incluso en aplicaciones de bajo riesgo, como el procesamiento del lenguaje natural, la interpretabilidad es valiosa. Modelos como ChatGPT, que pueden generar lenguaje natural, son difíciles de entender y controlar. Rudin señala que la interpretabilidad puede ayudar a controlar la propagación de desinformación.

Aprendizaje Automático

Intersección entre Música y Aprendizaje Automático

Rudin también ha explorado la generación de poesía por computadora, utilizando modelos que siguen ciertas plantillas. Antes de ChatGPT, estos modelos eran difíciles de controlar, pero la experiencia subraya la importancia de la interpretabilidad incluso en aplicaciones creativas.

Rudin y su equipo han desarrollado un algoritmo de generación musical de cuatro partes totalmente interpretable, incorporando teoría musical. Aunque no es una red neuronal, produce música hermosa y demuestra cómo la interpretabilidad puede aplicarse a diversas áreas.

En resumen, la interpretación de modelos en el aprendizaje automático es crucial, especialmente en decisiones de alto riesgo. La transparencia no solo mejora la confianza en las predicciones, sino que también facilita la resolución de problemas y asegura la aplicabilidad de los modelos. Cynthia Rudin y su equipo están liderando el camino hacia una nueva era de modelos de aprendizaje automático que son tanto precisos como comprensibles, abriendo nuevas posibilidades para la tecnología y la inteligencia artificial.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio
×