Estudio deja expuesta la falta de urgencia en torno al uso responsable de I.A que pone en riesgo a más empresas

 

 

 

FICO, compañía global de analítica predictiva y la ciencia de los datos, publicó recientemente su informe “State of Responsible AI” (El estado de la IA responsable) de la compañía de inteligencia de mercado Corinium, el cual muestra que, pese a la mayor demanda y uso de herramientas de IA, casi dos tercios (65 %) de los participantes no pueden explicar la manera en que los modelos de IA toman decisiones y realizan predicciones.

El estudio encontró que la falta de consciencia sobre el uso responsable de la IA resulta preocupante, ya que el 39 % de los miembros del consejo de administración y el 33 % de los equipos ejecutivos, tienen un conocimiento limitado acerca de la ética en la IA.

Conducido por Corinium y patrocinado por FICO, el estudio State of Responsible AI consistió en entrevistar a 100 ejecutivos de datos y análisis de nivel C; así como a líderes de opinión del MIT, AI Truth, The Alan Turing Institute, el Fondo Económico Mundial y FinRegLab, para conocer cómo las organizaciones están implementando la IA, y si la están utilizando de forma ética, transparente, segura y en beneficio de sus clientes.  

Mientras que el personal de cumplimiento (80 %) y el equipo de TI y análisis de datos (70 %) tienen un mayor conocimiento de la ética en la IA y del uso responsable de IA, el resto de la organización tiene un conocimiento limitado. Por lo tanto, a la mayoría de los participantes (73 %) se les ha dificultado obtener apoyo de los ejecutivos para priorizar la ética en la IA y las prácticas responsables de la misma.

¿Quiénes son los responsables?

Por otra parte, casi la mitad (49 %) de los participantes señalaron que han asignado un mayor número de recursos a los proyectos de IA en los últimos 12 meses, seguido por la productividad del equipo (46 %) y la capacidad predictiva de los modelos de IA (41 %). En contraste, solo el 39 % ha dirigido más recursos a la gobernanza de la IA durante el desarrollo de los modelos, y el 28 % ha priorizado el mantenimiento y supervisión constante de los modelos de IA.

A pesar de la adopción de la IA, sigue habiendo falta de conocimiento sobre este tema. El estudio muestra que no hay consenso en los ejecutivos respecto a las responsabilidades de la compañía en materia de IA.

La mayoría de los participantes (55 %) coinciden en que los sistemas de IA para el consumo de datos deben cumplir con normas éticas básicas y que los sistemas utilizados para las operaciones back-office también deben ser explicables. Sin embargo, esto puede reflejar, en parte, el desafío de lograr que los empleados utilicen tecnologías nuevas, así como cuestiones éticas mayores.

Aún más preocupante, cerca de la mitad (43 %) de los participantes afirman no tener más responsabilidad que cumplir las normas sobre la gestión ética de los sistemas de IA, cuyas decisiones pueden afectar de manera indirecta el sustento de las personas —p. ej., los modelos de segmentación de audiencia, los modelos de reconocimiento facial y los sistemas de recomendaciones—.

Qué pueden hacer las empresas para cambiar esta situación? Combatir la imparcialidad de los modelos de IA es un primer paso esencial, pero muchas empresas no lo hacen de forma eficaz: el 80 % de los ejecutivos enfrentan dificultades para establecer procesos que garanticen el uso responsable de la IA.

En la actualidad, solo una quinta parte de los participantes (20 %) supervisan activamente la imparcialidad y ética en sus modelos en desarrollo, mientras que menos de una cuarta parte (22 %) afirman que su organización cuenta con un consejo de ética en la IA para considerar las cuestiones de imparcialidad y ética en la IA. Uno de cada tres (33 %) cuenta con un equipo de verificación para evaluar los modelos recién desarrollados, y solo el 38 % ha integrado medidas de mitigación de imparcialidad en sus procesos de desarrollo de modelos.

Sin embargo, evaluar la imparcialidad de los resultados del modelo es la salvaguardia más popular en la comunidad empresarial: el 59 % de los participantes afirman que la utilizan para aislar y evaluar las funciones latentes del modelo y detectar imparcialidades; la mitad (50 %) asegura que cuenta con una definición matemática codificada para la imparcialidad de los datos, y que revisa activamente las fuentes de datos desestructurados para detectar imparcialidades.

La copia de la versión completa del estudio patrocinado por FICO, “State of Responsible AI”, está disponible aquí.

Please follow and like us:
0
fb-share-icon0
Tweet 44
, , ,