La llegada de ChatGPT y otros modelos de lenguaje extenso (LLM) ha llevado la noción de la ética de la IA al debate general. Esto es bueno porque arroja luz sobre el espacio de trabajo que ha estado lidiando con estos problemas durante algún tiempo. Este es el dominio de la IA responsable, y se aplica no solo a ChatGPT y LLM, sino a cualquier aplicación de IA o aprendizaje automático que pueda afectar a los humanos en el mundo real. Por ejemplo, los modelos de IA pueden decidir si aprobar su solicitud de préstamo, enrutarlo a la siguiente ronda de entrevistas, sugerirlo como candidato para atención médica o determinar si reincide mientras está en libertad condicional.
A medida que el área de la IA responsable gana terreno en las empresas (en parte impulsada por las próximas regulaciones, como la ley de IA de la UE), existen problemas con los enfoques actuales para implementar la IA responsable. Posiblemente debido a la IA y el analfabetismo de datos en las grandes organizaciones, la tarea de la IA responsable a menudo se delega a los equipos de ciencia de datos. Estos equipos generalmente están formados por científicos encargados de diseñar y construir modelos de IA efectivos y precisos (principalmente utilizando técnicas de aprendizaje automático).
El punto clave aquí es que encargar a los equipos (y, por extensión, las tecnologías que utilizan) que crean los modelos la tarea de evaluarlos objetivamente, no es el enfoque correcto.
Las áreas fuera de AI tienen una larga y exitosa historia de requerir independencia en las auditorías. Según lo exige la Comisión de Bolsa y Valores (SEC) de los Estados Unidos, el auditor de una empresa debe ser completamente independiente de la empresa en cuestión. De la SEC: «Asegurar la independencia del auditor es tan importante como asegurar que los ingresos y gastos se contabilicen y clasifiquen adecuadamente.”
La independencia también es un requisito clave en el proceso de Gestión de riesgos de modelos (MRM), un proceso mediante el cual los modelos estadísticos desarrollados en las instituciones financieras se prueban y verifican de forma independiente. Los tres niveles de MRM (desarrollo de modelos, validación de modelos y auditoría interna) deben mantener una estricta independencia entre sí.
Por lo tanto, no debemos ignorar este valioso historial de independencia de auditoría al implementar la IA responsable. En esta área, los modelos y datos de IA deben medirse para que aspectos como la equidad, la desigualdad, la privacidad, la solidez, etc. puedan cuantificarse y evaluarse frente a los procesos, principios y marco de una organización.
La independencia en la IA responsable debe aplicarse tanto a las personas que realizan las evaluaciones como a la tecnología que utilizan para realizarlas. Esto es importante porque:
- Las personas pueden defender los modelos que construyeron. Eso es bastante comprensible, ya que probablemente dedicaron mucho tiempo y esfuerzo a la construcción de este modelo; En este contexto, sin embargo, son incapaces de evaluar su propio trabajo de manera objetiva.
- Los modelos de IA a menudo se construyen y entrenan utilizando código personalizado escrito por científicos de datos. Los humanos cometemos errores en todos los espacios de trabajo, en este contexto daría lugar a errores o errores en el código. Las buenas prácticas de software fomentan la reutilización del código, por lo que es probable que se utilice el mismo código para evaluar los modelos.
- Al diseñar un modelo de IA y mantener los datos, los humanos hacen suposiciones y juicios (y estos a menudo están codificados en software) durante el proceso. Un proceso independiente completo no debe basarse en estas suposiciones.
- Las herramientas de software automatizadas pueden crear modelos para un científico de datos (estas tecnologías a menudo se denominan herramientas AutoML). Se venden como hacer un modelo más rápido, más fácil y más barato que un enfoque manual. Sin embargo, cuando proporcionan el estudio de ingeniería de los modelos que acaban de construir, solo están calificando su propia tarea.
- Es probable que una empresa (u organización gubernamental) tenga muchos modelos, no solo uno. Para tener una gobernanza efectiva de estos modelos a escala, las métricas cuantitativas deben ser comparables entre modelos. Cuando los equipos de modelado crean nuevas métricas que consideran apropiadas para cada uno de sus modelos, es casi imposible compararlas con los estándares empresariales a escala.
Al traer equipos y tecnologías más amplios al proceso de IA responsable, también se beneficia al traer diversas habilidades y puntos de vista a la mesa. La misión de la IA responsable requiere habilidades en ética, derecho, gobernanza, cumplimiento y derecho (por nombrar algunas), y los profesionales de estas habilidades deben estar armados con métricas cuantitativas independientes en las que confiar.
A medida que tecnologías como ChatGPT crean conciencia sobre los problemas éticos que rodean a la IA, más ejecutivos se dan cuenta de las consecuencias no deseadas de su propia IA. Si bien no comprenderán los tecnicismos de su IA, un proceso efectivo de rendición de cuentas de la IA les da la tranquilidad de saber que se han implementado las medidas de protección adecuadas.
Si bien los campos de la IA y el aprendizaje automático están evolucionando rápidamente y los equipos recién comienzan a lidiar con los problemas éticos y regulatorios involucrados, los principios de una auditoría efectiva no son nuevos. A medida que los equipos diseñan sus procesos de IA responsable, vale la pena tomarse un momento para ver lo que ya se sabe.
Sobre el Autor

dr. Stuart Battersby es el Director de Tecnología de Chatterbox Labs y tiene un doctorado en Ciencias Cognitivas. Chatterbox Labs es una empresa de software de IA responsable cuya plataforma AI Model Insights valida de forma independiente modelos y datos de IA empresarial.
Regístrese para recibir el boletín gratuito insideBIGDATA.
Síganos en Twitter: https://twitter.com/InsideBigData1
Visítenos en LinkedIn: https://www.linkedin.com/company/insidebigdata/
Únase a nosotros en Facebook: https://www.facebook.com/insideBIGDATANOW