Word embeddings y skip-gram

En posts anteriores vimos que las representaciones distribuidas de las palabras permiten extraer mucha información y han mejorado el rendimiento de las aplicaciones de procesamiento de lenguaje natural. Los Word embeddings son un claro ejemplo de la importancia y el potencial del aprendizaje no supervisado de representaciones. A partir de un cuerpo de texto de... Seguir leyendo →

Neurociencias, inspiración para el machine learning

En un post pasado analizamos las relaciones entre el campo del machine learning y las neurociencias. Vimos, que de las relaciones existentes, un área bastante productiva y prometedora es el desarrollo de algoritmos de machine learning inspirados en el procesamiento de información en el cerebro. En la actualidad existe un debate sobre si hace falta... Seguir leyendo →

Las GPUs y el machine learning

Uno de los factores que más ha impulsado el deep learning en los últimos años ha sido el uso de las GPUs (graphics processing unit) para acelerar el entrenamiento y despliegue de los algoritmos. Las GPUs son circuitos electrónicos, popularizadas por Nvidia y especializadas en procesado de imágenes y gráficos. Cuentan con una estructura paralela... Seguir leyendo →

Ejemplo de Word Embeddings con Gensim

En posts anteriores vimos como las representaciones distribuidas permiten extraer mucha información de las palabras y mejorar el rendimiento de las aplicaciones de procesamiento de lenguaje natural. Uno de los modelos más usados es Word2vec, creado en 2013 por Tomas Mikolov en Google, que se basa en redes neuronales de varias capas y tiene dos... Seguir leyendo →

Blog de WordPress.com.

Subir ↑