Una
vez que hemos hablado de la IA explicable y la IA ética, conoce en esta entrega
los dos principios restantes de la IA responsable.
Por:
Scott Zoldi, Director de Analítica (CAO) de FICO
El
uso de la IA ha aumentado drásticamente para informar y definir estrategias y
servicios en una multitud de industrias, desde salud hasta comercio minorista,
e incluso ha desempeñado un papel significativo en la lucha contra el COVID-19.
Sin embargo, la adopción masiva y los volúmenes crecientes de la IA generada
digitalmente están generando nuevos desafíos para las empresas y los gobiernos,
además de convertir a la IA responsable en una consideración fundamental para
garantizar no solo precisión, sino también imparcialidad.
La
IA responsable asegura que los sistemas de IA y los modelos de machine
learning sean explicables, éticos, robustos y auditables, gracias a los
cuatro principios que la sostienen. La semana pasada, en la primera parte de este
artículo, hablamos de la IA explicable y la IA ética. En esta entrega,
exponemos los últimos dos principios, concluyendo con una guía sobre los pasos
para una IA responsable exitosa.
Principio
3: IA robusta
La
IA robusta es una metodología de desarrollo bien definida; el uso adecuado de
datos históricos, de entrenamiento y de prueba; una definición sólida de
rendimiento; una selección cuidadosa de la arquitectura de los modelos, y
procesos para las pruebas de estabilidad, simulación y gobernabilidad de los
modelos. Es importante que las organizaciones de ciencia de los datos se
adhieran a estos factores y los apliquen como una norma de la IA.
Principio
4: IA auditable
La
IA auditable significa "desarrollarla bien desde el principio" y
conforme a las normas corporativas definidas para el desarrollo de modelos de
IA, cuyo cumplimiento debe demostrarse. Los modelos deben crearse con base en
un estándar de desarrollo de modelos aplicable a toda la empresa, con
repositorios de código compartidos, arquitecturas de modelo aprobadas,
variables sancionadas y normas establecidas para pruebas de sesgo y estabilidad
de modelos. Esto reduce considerablemente los errores en el desarrollo de
modelos que, de otro modo, se expondrían en la producción, reduciendo el valor
comercial anticipado y afectando a los clientes negativamente.
Cuando
las condiciones cambian, la IA auditable permite a los científicos de datos
determinar cómo responderán las operaciones, así como verificar si la IA sigue
siendo imparcial y confiable o si deben ajustarse las estrategias que hacen uso
del modelo. La IA auditable se ejecuta y codifica a través de una cadena de
bloques de gobernanza del desarrollo de modelos de IA formada durante el
proceso de desarrollo del modelo, la cual conserva todos los detalles del
modelo y está disponible de inmediato cada vez que cambian los entornos de los
datos. La IA auditable no es una serie de "buenas intenciones", sino
un registro inalterable del cumplimiento del estándar para el desarrollo de
modelos de IA, que permite a las organizaciones desarrollarlos correctamente
con base en ese estándar, brindar pruebas inmutables de su cumplimiento y
producir activos que cumplan con los requisitos regulativos y de
gobernanza.
A
medida que el mundo empresarial pasa del uso teórico de la IA a la toma de
decisiones a escala de producción, la IA auditable se vuelve esencial, enfatizando
la implementación (y uso) de un estándar claramente definido para el desarrollo
de modelos de IA que asegura que ningún modelo se lance a producción sin
cumplir todos los aspectos y requisitos de dicho estándar.
La
IA auditable permite que la IA responsable sea una realidad, ya que establece
un riguroso proceso de auditoría que documenta el cumplimiento del estándar de
gobernanza de desarrollo de una compañía durante la producción del modelo. Esto
evita investigaciones aleatorias y retrospectivas después de concluido el
desarrollo del modelo. Además, ofrece beneficios adicionales: si las empresas
identifican con precisión y lo antes posible cuándo un modelo empieza a fallar,
y lo detienen al momento, pueden ahorrarse innumerables problemas, así como
evitar el daño reputacional y las demandas legales que surgen cuando la IA
falla fuera del laboratorio de ciencia de datos.
Manual
de la IA responsable
No
cabe duda de que la comunidad empresarial está comprometida a impulsar la
transformación por medio de la automatización basada en la IA. Sin embargo, los
altos ejecutivos y los consejos de administración deben ser conscientes de los
riesgos asociados con esta tecnología y de las mejores prácticas para
mitigarlos de manera proactiva. Las decisiones tomadas por algoritmos de IA
pueden parecer insensibles e incluso negligentes, ya que el uso de la IA aleja
el proceso de toma de decisiones de las personas a las que dichas decisiones
afectan.
El
equipo de IA de FICO cuenta con décadas de experiencia en el desarrollo de
innovación analítica en un entorno sumamente regulado. Para ayudar a nuestros
clientes, desarrollamos un manual de la IA responsable que explora:
- Uso
adecuado de datos históricos de entrenamiento y evaluación
- Métricas
bien definidas para rendimiento aceptable
- Selección
minuciosa de la arquitectura del modelo
- Procesos
para la evaluación, interpretación, eliminación de sesgo y gobernanza de
los modelos
Este
manual de IA ofrece un panorama de los ocho pasos más importantes:
No hay comentarios:
Publicar un comentario