Lo que Vimos (y nos Gustó) en 2017 — Parte 3

BBVA Data & Analytics Team

d&a blog

Un campo más amplio para el Machine Learning: desde los análisis de redes hasta las nuevas interacciones con máquinas

Interacciones entre máquinas y humanos

por Iskra Velitchkova

A la ciencia, que tradicionalmente ha vivido cómoda en la complejidad, se le exige, por parte de la sociedad en general y de las legislaciones que de forma natural surgen en paralelo a los avances en la algoritmia que subyace al Machine Learning, la habilidad de hacer comprensibles los procesos. Hablamos de cajas negras, de modelos interpretables o de transparencia en las técnicas, pero por encima de todo, de un lenguaje común entre humanos y máquinas.

Lo que a continuación queremos compartir, no son necesariamente contribuciones de 2017, pero sí son referencias que a lo largo del año nos han servido de referencia, de inspiración y de punto reflexionar en esta charla sobre las formas en las que hoy en día interactuamos con las máquinas.

“¿Qué es una píldora anticonceptiva? Es una píldora. Pero también es un conjunto de componentes químicos. Pero también es un cambio en el papel en la estructura de la sociedad y el papel de la mujer dentro de ella.”

Con este ejemplo, y alguno más, George Whitesides nos invita a reflexionar sobre la simplicidad en la ciencia. Algo que hoy, más que nunca, en un momento en el que esta permea, sin precedentes, en prácticamente todos los espacios de la sociedad. Y nos preguntamos, por ejemplo: ¿Qué es un algoritmo? Es una instrucción. Pero también es una conjunto de reglas. ¿Puede ser algo más?

En esta línea, Ben Cerveny, reconocido diseñador y experto en interacción de usuario, nos vuelve a provocar con una reflexión sobre el tiempo que dedicamos a estas nuevas aplicaciones y sobre las necesidades que cubren (o no) los servicios que crean estos algoritmos. Es más, nos obliga a rendir cuentas a los científicos, a exigirles ser capaces de saber explicar los algoritmos detrás de los procesos que desarrollan. Y nos deja abierta la puerta a cómo lograrlo. ¿Necesitamos nuevas formas de comunicación? ¿Necesitamos crear un lenguaje común? ¿Necesitamos nuevas narrativas?

Siguiendo en la misma dirección, Cathy O’Neil, a la que muchos conoceréis por su conocido libro “Weapons of Math Destruction”, nos habla en esta charla sobre ética y honestidad. Y es que asumir que algunos algoritmos son cajas negras, implica fe, a veces ciega, y es lo que no somos capaces de solucionar; esto es, saber interpretar la opacidad de ciertos procesos, perdemos algo tan crucial como es la confianza.

Por último, nos gustaría destacar el material que podemos encontrar en la galería de NIPS Machine Learning for Creativity and Design Workshop 2017. Pues desde el punto de vista de visualización, el arte y la abstracción se están convirtiendo en herramientas muy útiles que acompañan de cerca la exploración científica.

Datos relacionales, descubriendo el contexto de nuestros clientes

por Jordi Nin, Elena Tomás y Pablo Fleurquin

Vivimos en un mundo cada vez más interconectado. En la era digital casi no hay piezas de información aisladas. Los datos hoy son dinámicos y están conectados en una rica red de relaciones complejas que van desde IoT y dispositivos inteligentes hasta redes sociales o empresariales, por nombrar sólo algunos. Desde una perspectiva analítica o científica, la Teoría de Redes Complejas (también conocida como Teoría de Grafos) ha estado floreciendo (otra vez) desde principios del siglo XXI. El campo es vasto y los avances son difíciles de seguir. Para entrar en contacto con los fundamentos teóricos se podría seguir el informe Redes complejas: Estructura y dinámica. Centrándonos en 2017 y haciendo especial hincapié en el subdominio económico y financiero este año, hemos sido testigos de un cambio importante en la perspectiva del modelado macroeconómico con el documento científico premio Nobel de Joseph Stiglitz admitiendo Dónde se equivocó la Macroeconomía Moderna y señalando el camino a seguir para considerar la estructura subyacente en red de los sistemas financieros y económicos: “comprender las estructuras que son más propicias para la estabilidad y las compensaciones centrales (ej. entre la capacidad de resistir choques pequeños y grandes) representa una de las áreas de importantes avances desde la crisis. Éstas eran cuestiones que ni siquiera se planteaban en el marco del DSGE, no podían plantearse porque no se planteaban en ausencia de un sector financiero bien especificado, y no surgirían dentro de un modelo con una institución financiera representativa”.

En este sentido, el artículo Caminos hacia la inestabilidad en las redes financieras aborda el modelado macroeconómico desde una perspectiva en red y documento científico del Banco de Inglaterra Un modelo interdisciplinario para la macroeconomía explora nuevas formas complementarias de hacerlo.

Algoritmos genéticos

por Israel Herraiz

Entrenar una Red Neural Profunda es un problema de optimización. La red óptima minimizará el valor de la función de pérdida. Tradicionalmente, los métodos de optimización aplicados a este problema de optimización se basan en el descenso de gradientes. Backpropagation, es decir, un método para calcular el gradiente de la función de pérdida contra los pesos en la red, ha sido un gran éxito en el entrenamiento de redes neuronales profundas. Gracias a esto, hemos visto grandes saltos hacia adelante en el aprendizaje supervisado (visión computacional, reconocimiento de voz), así como cuando se utilizan redes neuronales profundas en el aprendizaje por refuerzo.

Encontrar un valor óptimo en un distribuidor usando el descenso de gradiente tiene algunos problemas teóricos: por ejemplo, podemos quedarnos atascados en un mínimo local. En la práctica, hemos visto resultados lo suficientemente buenos como para hacernos creer que los mínimos locales no son un problema tan grande. Mediante el uso de métodos de optimización basados en gradiente, las máquinas pueden llegar a ser tan competentes como los seres humanos jugando a algunos juegos Atari clásicos. Sin mencionar los éxitos más grandes, como Alphago (ver El Aprendizaje por Refuerzo se supera a sí mismo en el primer post de estas series).

Pero, ¿son estos resultados realmente óptimos? ¿Podemos hacerlo mejor? No podemos decirlo, a menos que encontremos ejemplos empíricos que funcionen mejor. Uber AI Labs ha demostrado que la respuesta a la búsqueda de una mejor optimización puede estar en la forma en que la naturaleza encuentra el camino más óptimo para la selección natural. Mediante el uso de Estrategias de Evolución y Algoritmos Genéticos, estos investigadores han encontrado modelos que se desempeñan mejor jugando algunos juegos clásicos de Atari, en comparación con los resultados anteriores usando Aprendizaje de Refuerzo con Redes Neuronales Profundas (RL profundo). En algunos casos, incluso han encontrado que la búsqueda aleatoria puede funcionar mejor que los modelos RL profundos. ¿Eran estos juegos intrínsecamente duros? ¿O hemos estado usando los métodos de optimización equivocados? ¿La optimización sin gradientes se convertirá en otra herramienta en nuestra banda de aprendizaje profundo?

Programación probabilística

por María Hernández y César de Pablo

El año pasado no sólo hemos visto avances en el aprendizaje profundo, sino que también hemos sido testigos del nacimiento de nuevos marcos de programación probabilística como Edward y Uber Pyro, así como avances en algunos de los ya populares (Stan, PyMC3).

Este nuevo framework se adapta a estructuras DL como Tensorflow o PyTorch para implementar los recientes avances en el uso de algoritmos basados en el descenso de gradientes estocásticos como algoritmos de inferencia posterior, allanando el camino para la inferencia de cajas negras, pero también interesantes vías para la hibridación del aprendizaje profundo y bayesiano.

Como las aplicaciones financieras no sólo se benefician por predecir un valor, sino también por ser capaces de estimar la confianza en estas predicciones, esperamos sumergirnos más profundamente en él durante 2018.

Aprendizaje profundo bayesiano

por Axel Brando

Hoy en día, aunque los algoritmos de aprendizaje profundo han revolucionado en muchos campos como la visión computarizada, estos algoritmos son generalmente incapaces de saber cuán confiados están sobre sus predicciones. Esto tiene una implicación crítica: Si queremos utilizar las técnicas de aprendizaje profundo para una decisión arriesgada, donde preferimos no predecir si no tenemos la suficiente confianza, estos modelos no son una solución precisa. Para abordar este problema, una solución que ha ganado peso durante el último año y cada día más presente en las Conferencias de Aprendizaje Automático es mezclar el punto de vista Bayesiano (que nos da herramientas para entender el concepto de incertidumbre) con el poderoso poder predictivo de los modelos de Aprendizaje Profundo. Esta rama del conocimiento parece ser llamada Aprendizaje Profundo Bayesiano.

Para entender la evolución reciente de esta rama, un buen punto de partida es la tesis doctoral de Yarin Gal sobre la incertidumbre en el aprendizaje profundo y los tutoriales del framework Edward. En particular, algunos de los artículos más impresionantes sobre este campo fueron publicados el año pasado, por ejemplo, las propuestas Bayesianas de Aprendizaje Profundo de Alex Kendall para IA segura o la aplicación en un problema real de detección de enfermedades propuesto por Christian Leibig et al. en un artículo de Nature o incluso modelos más cercanos a conceptos como los procesos gaussianos como el tutorial de NIPS 2017 de Neil D. Lawrence. Todo parece indicar que esto no acabará aquí.