El potencial del aprendizaje no supervisado de representaciones

En los últimos años, gracias en parte al incremento de las capacidades de computación, hemos visto un gran progreso en el uso de algoritmos supervisados de machine learning. Reconocimiento de imágenes, procesamiento de lenguaje natural, detección de patrones, predicción de series temporales, etc. son algunas de las aplicaciones que han visto mejorada su eficiencia con... Leer más →

Word embeddings y skip-gram

En posts anteriores vimos que las representaciones distribuidas de las palabras permiten extraer mucha información y han mejorado el rendimiento de las aplicaciones de procesamiento de lenguaje natural. Los Word embeddings son un claro ejemplo de la importancia y el potencial del aprendizaje no supervisado de representaciones. A partir de un cuerpo de texto de... Leer más →

Neurociencias, inspiración para el machine learning

En un post pasado analizamos las relaciones entre el campo del machine learning y las neurociencias. Vimos, que de las relaciones existentes, un área bastante productiva y prometedora es el desarrollo de algoritmos de machine learning inspirados en el procesamiento de información en el cerebro. En la actualidad existe un debate sobre si hace falta... Leer más →

Las GPUs y el machine learning

Uno de los factores que más ha impulsado el deep learning en los últimos años ha sido el uso de las GPUs (graphics processing unit) para acelerar el entrenamiento y despliegue de los algoritmos. Las GPUs son circuitos electrónicos, popularizadas por Nvidia y especializadas en procesado de imágenes y gráficos. Cuentan con una estructura paralela... Leer más →

Optimización, complejidad computacional y deep learning

En la base de muchos algoritmos de machine learning está encontrar los parámetros del modelo que minimizan una función de coste dados los datos de entrenamiento. Este problema de optimización es clave ya que si tenemos garantizada su solución podremos encontrar los parámetros que minimizan el error. Las claves para que este problema de optimización... Leer más →

Ejemplo de Word Embeddings con Gensim

En posts anteriores vimos como las representaciones distribuidas permiten extraer mucha información de las palabras y mejorar el rendimiento de las aplicaciones de procesamiento de lenguaje natural. Uno de los modelos más usados es Word2vec, creado en 2013 por Tomas Mikolov en Google, que se basa en redes neuronales de varias capas y tiene dos... Leer más →

Machine learning, aportando valor a la inversión

En un post anterior de machine learning aplicado a las finanzas vimos cómo y en qué casos puede el machine learning aportar valor a la inversión. En el mundo de la inversión, cualquier herramienta que aporte una ventaja competitiva al inversor puede ser de gran ayuda.  El machine learning, unido a la disponibilidad de gran... Leer más →

Blog de WordPress.com.

Subir ↑