Optimización bayesiana con PyTorch y Ax

En un post pasado presentamos la optimización Bayesiana y las dos nuevas herramientas abiertas de Facebook, Ax y BoTorch. Ax es una herramienta de alto nivel para gestionar experimentos adaptativos y BoTorch una librería de optimización bayesiana. En este post vamos a ver un ejemplo de uso de Ax para gestionar un problema básico de... Leer más →

Nuevas herramientas de optimización bayesiana en PyTorch

Con frecuencia en machine learning queremos optimizar los hiperparámetros de un modelo. Por ejemplo, en una red neuronal queremos saber el número de capas, el número de unidades por capa o la tasa de aprendizaje (learning rate) que logran un mejor comportamiento. Este problema lo podemos representar como: $latex x_{m}=argmin_{x \in \mathcal{X}} f(x) &s=2 &bg=ffffff$... Leer más →

Optimización, complejidad computacional y deep learning

En la base de muchos algoritmos de machine learning está encontrar los parámetros del modelo que minimizan una función de coste dados los datos de entrenamiento. Este problema de optimización es clave ya que si tenemos garantizada su solución podremos encontrar los parámetros que minimizan el error. Las claves para que este problema de optimización... Leer más →

Machine learning, aportando valor a la inversión

En un post anterior de machine learning aplicado a las finanzas vimos cómo y en qué casos puede el machine learning aportar valor a la inversión. En el mundo de la inversión, cualquier herramienta que aporte una ventaja competitiva al inversor puede ser de gran ayuda.  El machine learning, unido a la disponibilidad de gran... Leer más →

Método de Monte Carlo basado en cadenas de Markov

Cuando aplicamos modelos probabilísticos a los datos normalmente es necesario integrar distribuciones de probabilidad complejas. El ejemplo más sencillo lo tenemos en el cálculo del valor esperado. En ocasiones estas integrales no se pueden calcular analíticamente y se usan métodos numéricos de muestreo para aproximar la integral. El conocido método de Monte Carlo genera muestras... Leer más →

Teoría de la Información en Deep Learning

Cuando hablábamos sobre información relevante y suficiente en machine learning describíamos el método del cuello de botella de la información (information bottleneck method) de Tishby. El método calcula cuánto resumir o reducir la variable X preservando la máxima información sobre la variable relevante objetivo Y usando la información mutua. En los últimos años Tishby y... Leer más →

Información relevante y suficiente en machine learning

En un problema de machine learning (aprendizaje automático) intentamos que las máquinas obtengan información y aprendizaje a partir de un conjunto de datos. Por ello la información que extraigamos de los datos es muy importante tanto si estamos en aprendizaje supervisado (los datos tiene etiquetas o valores objetivo), no supervisado o combinaciones de los mismos.... Leer más →

Los Hedge Funds y los mercados eficientes

En la última década hemos visto un gran desarrollo tanto en activos gestionados como en número, de los fondos de inversión alternativa (hedge funds). Estimaciones recientes cifran entorno a los 500.000 millones de dólares los activos gestionados por los hedge funds. Las características que diferencian los hedge funds de los fondos de inversión son las... Leer más →

Blog de WordPress.com.

Subir ↑