Entradas por AndreaBacciu2018

Métodos para la reducción de la dimensionalidad manifold-based: el caso ISOMAP

Autor: Matteo Alberti         Entre metodologías principales  que hay en la  reducción lineal de dimensionalidad, tenemos las PCA o los componentes principales,estas son ciertamente las principales herramientas del Statistical Machine Learning. Nos enfocamos muy a menudo en instrumentos que capturan el componente no lineal, el análisis de los componentes principales es el punto de […]

Apache Scala y Machine Learning (MLlib)

Autor: Antonio Berti En este tutorial vamos a aprender el uso de la libreria de Apache Foundation para el Machine Learning llamada MLlib. MLIB forma parte de las API de Spark y es interoperable con NumPy de Python así como las librerias de R. implementado con Spark es posible utilizar cualquier tipo de datos de […]

Long-term memory neural network 1 – Introducción

Autor: Daniele D’armiento Las habilidades cognitivas como el reconocimiento, la predicción, la elección de respuestas y las acciones implican la recuperación de información previamente almacenada. El desafío para desarrollo de la inteligencia artificial es crear un modelo que pueda almacenar mucha información y que pueda rescatarse rápidamente. Pero no es una novedad que las computadoras […]

Instalación de Keras/Tensorflow-Theano en Windows

Autores: Francesco Pugliese & Matteo Testi En este post, veremos cómo abordar el abrumador problema de la instalación de Windows en el marco de framework para Deep Learning “Keras” y tambien veremos el stack de backend “Tensorflow / Theano”. La instalación parte descargando  paquete de Python 3. Elegimos la opcion Miniconda en el siguiente enlace: https://conda.io/miniconda.html   aparecerá la siguiente pantalla:   Seleccione Python […]

Creación de un Tensor

Autor: Andrea Mercuri Al igual que los otros Framework  para el deep learning, también en PyTorch son absolutamente esenciales los tensores. Cuando representamos los cálculos que son efectuados por una red neuronal  como operaciones  tensoriales obtenemos dos ventajas: utilizamos un  código matemático  compacto  y permitimos que la CPU haga cálculos paralelos. Los tensores pueden residir […]