La Equidad en Machine Learning se Vuelve “Mainstream”

Jairo Mejía y Roberto Maestre

d&a blog

Las consideraciones de equidad o “fairness” en el desarrollo de soluciones basadas en Machine Learning (aprendizaje automático) están cobrando fuerza como aspecto clave de la inteligencia artificial y la modelación de comportamientos sociales. Esta semana, el Harvard Business Review publicó un artículo escrito por los responsables de un proyecto de análisis en sanidad que utiliza Machine Learning para detectar a las personas con propensión a tener una enfermedad cardiovascular.

Los investigadores detrás del Stroke Belt Project han detallado algunos consejos útiles para aquellos que quieren evitar los prejuicios sociodemográficos, raciales o de cualquier otro tipo introducidos por aquellos que preparan los datos, construyen el modelo o optimizan los resultados.

En un esfuerzo por promover el concepto “Fairness by Design”, que desde BBVA Data & Analytics tratamos de tener siempre presente a la hora de modelar y muestrear datos, prescriben algunos consejos:

  1. Unir científicos de datos con expertos en ciencias sociales para introducir una perspectiva humanista a los datos y a la solución a implementar.
  2. Anotar los datos con precaución. Hacer que los responsables de anotar los datos que van a alimentar un modelo de aprendizaje de la máquina sean conscientes de sus posibles sesgos.
  3. Medir la equidad. Utilizando métricas para medir la imparcialidad que ayuden a corregir el sesgo.
  4. No  concentrarse sólo en la representatividad. Una vez que se hayan establecido las medidas de equidad, encontrar un equilibrio entre la representatividad de los casos futuros y la infrarrepresentación de las minorías.
  5. Tener en cuenta la eliminación del sesgo y, si es necesario, evitar la categorización basada principalmente en variables sociodemográficas.

La equidad es uno de los principales conceptos que BBVA Data & Analytics viene trabajando para incorporar a modelización financiera. Hemos publicado recientemente un artículo científico, “Reinforcement Learning for Fair Dynamic Pricing (Maestre, 2018)”, sobre la importancia de integrar la imparcialidad como principio de diseño algorítmico cuando se confía en la Inteligencia Artificial para hacer proyecciones financieras (véase la Sección B del documento):

Además, hemos propuesto métricas para cuantificar la equidad, como señala el artículo de HBR (punto 3 del artículo de HBR):

También hemos escrito varios artículos, asistido a conferencias para hablar sobre este tema y ayudar a introducir este debate en la transformación digital que está experimentando BBVA. Se debe prestar especial atención a la segmentación de los grupos (puntos 4,5 del artículo del HBR). Intentamos conseguirlo con nuestros modelos client2vec.

Como se ha subrayado en el mencionado artículo de HBR, la introducción de “Fairness by Design” no es un obstáculo para la innovación, sino una forma de hacer que la analítica avanzada sea más sólida, más fiable y con mejores resultados en los diferentes segmentos socio-demográficos.