Una breve mirada al Aprendizaje Profundo y el Aprendizaje Automático

Autores: Matteo Testi & Francesco Pugliese

 

En los últimos años la palabra en boga dentro del área de la inteligencia artificial era el aprendizaje profundo, más conocido por sus siglas en inglés como Deep Learning. Hay un gran interés en esta clase de área. En ambito lavorativo las compañías están llevando a cabo una búsqueda exhaustiva para encontrar expertos en aprendizaje automático (en inglés, Machine Learning), aprendizaje profundo (en inglés, Deep Learning) y también Ciencia de los Datos (en inglés, Data Scientist)

Veamos a continuación un ejemplo del desarrollo de la palabra “Deep Learning” usados con la herramienta Google Trends, podemos ver desde el 2011 hasta el 2017.

Desde el momento en que el celebre software de DeepMind´s AlphaGo derrotó al Master Sur Coreano Lee Se-dol en el juego de mesa Go a principios de este año, el termino “Aprendizaje profundo” ha venido popularizándose aún más. La forma en que el sistema de Deep Learning funcionaba era a través de una combinación entre un algoritmo tradicional de visita y búsqueda en una estructura de árbol llamada “Monte-Carlo Tree Search” (MTS)conocidas redes neuronales convolucionales (CNN). Hasta entonces, MTS   era uno de los programas mas utilizado y capacitados para jugar el juego de Go.  La novedad introducida por Deep Mind fue que la función de evaluación venia deducida automáticamente de las CNN a los entrenados en una primera fase a partir de un conjunto de entrenamiento supervisado formado por millones de movimientos conocidos. Posteriormente, un Sistema de “Deterministic Policy Gradients” basado en un tipo de modelo de aprendizaje de refuerzo, este tipo de modelo funciona como un “jugador critico” al cual se le dio la tarea de jugar contra versiones diferentes de sí mismo durante un largo tiempo. El resultado fue un “jugador” de GO artificial, aún invicto. DeepMind describió en detalle todo el sistema Alpha-GO en el conocido artículo científico publicado en Nature y titulado “Mastering the game of Go with deep neural networks and tree search”.

El siguiente diagrama ilustra las diferencias entre Inteligencia Artificial, Aprendizaje Automático y Aprendizaje Profundo.

 

Aprendizaje Automático (Machine Learning)

El aprendizaje automático (Machine Learning, ML) es esencialmente una forma de estadísticas aplicadas destinadas a usar computadoras para estimar estadísticamente una función compleja. Mitchell en 1997 proporcionó la siguiente definición de Machine Learning: “Un algoritmo aprende de la experiencia E con respecto a una clase de problemas T con una medida igual a P, sì su desempeño en problemas T, medido por P, aumenta con la experiencia E “. En esencia, ML es un conjunto de técnicas que permiten a las máquinas “aprender” de los datos y luego tomar decisiones o hacer una predicción sobre ellos. Un sistema de aprendizaje automático se puede aplicar a una base de “conocimiento” de múltiples fuentes para resolver diferentes tareas: clasificación facial, reconocimiento de voz, reconocimiento de objetos, etc. A diferencia de los algoritmos heurísticos, es decir, los algoritmos que siguen un conjunto específico de instrucciones para la solución de un problema dado, la máquina de aprendizaje permite a una computadora para aprender a reconocer las “configuraciones perceptivas” solo y hacer predicciones sobre ellos.

El Machine Learning está dividido en tres áreas:

  • Clasificación
  • Agrupamiento (Clustering)
  • Predicción

Una de las aplicaciones más populares de Machine Learning ha sido Computer Vision One, durante muchos años. La mayoría de los algoritmos del Aprendizaje automático se pueden dividir en dos categorías de Aprendizaje supervisado y Aprendizaje no supervisado, dependiendo de si el conjunto de entrenamiento está supervisado (es decir, con una información del target asociada con el capacitador, llamada etiqueta o etiqueta) o no supervisado.

– En el aprendizaje supervisado, las etiquetas (labels) están hechas por el humano para permitir que la maquina comprenda la relación entre la entrada (input) y la etiqueta.

– En el aprendizaje no supervisado, las etiquetas no están disponibles. En esta situación, le pedimos a la máquina que encuentre grupos o “clusters” dentro de los datos.

Es entonces como en el Machine Learning elimina la necesidad de alguien estar continuamente codificando y analizado los datos para resolver una solución o presentar un razonamiento. Corta una gran parte y hace la vida un poco más fácil.  El Machine Learning puede estar hecho con un grupo de diversos algoritmos como: Regresiones Lineales/Lógicas, Árbol de decisión, Bosques Aleatorios (Random Forest), Maquinas de vectores de soporte, Análisis de componentes principales (APC, en inglés PCA), K-means, Análisis de componentes independientes (ACI, en inglés ICA), Clasificador Bayesiano ingenuo (en inglés Naive Bayes) etc.

 

Aprendizaje Profundo (Deep Learning)

El aprendizaje profundo o Deep Learning es una subárea del Aprendizaje Automático que usa la “redes Neuronales profundas”, es decir, equipado con muchas capas y nuevos algoritmos para el procesamiento previo de datos para la regularización del modelo: incrustaciones de palabras, abandonos, aumento de datos, etc. El aprendizaje profundo se inspira en la neurociencia ya que las redes neuronales son un modelo de actividad neuronal cerebral. A diferencia del cerebro biológico, donde cualquier neurona se puede conectar a cualquier otra neurona bajo ciertas restricciones físicas, las Redes Neuronales Artificiales (ANN) tienen un número finito de capas y conexiones, y finalmente tienen una dirección predeterminada de propagación de la información. Hasta ahora, las redes neuronales artificiales han sido ignoradas tanto por la comunidad investigadora como por el principal problema de la industria, su costo computacional.

Sin embargo, entre 2006 y 2012, el equipo de investigación dirigido por Geoffrey Hinton, de la Universidad de Toronto fue finalmente capaz de paralelizar los algoritmos para la ANN en arquitecturas paralelas. El resultado principal fue un aumento significativo en el número de capas, neuronas y parámetros del modelo en general (incluso más de 10 millones de parámetros) que permite a las máquinas calcular una cantidad masiva de datos entrenándose en él.

Entonces, el primer requerimiento para entrenar un modelo de Deep Learning es una base de datos muy cuantiosa para que él mismo se entrene. Por esto es importante la figura del Bigdata.

 

Esto es porque existe un gran número de parámetros que necesitan ser entendidos por un algoritmo de aprendizaje, el cual inicialmente puede producir muchos falsos-positivos. La razón tras la popularidad del Deep Learning son el Big Data y la Unidad de procesamiento grafico (en inglés, Graphic Processing Unit (GPUs). Usando una gran porción de datos, los algoritmos y la red aprenden a cómo conseguir metas y mejorar sobre el proceso.

Ahora bien, tenemos que tener en cuenta que el Deep Learning es altamente susceptible al sesgo. Por lo tanto, del modo en el que el modelo de Deep Learning pueda aprender mejor que los humanos en un mismo sentido, puede estar equivocado. En un modelo supervisado si las etiquetas (lables) son establecidas de una manera incorrecta, el modelo va a aprender de los errores.

Cuando el sistema de reconocimiento facial de Google fue inicialmente dado a conocer, por ejemplo, tageó muchas caras negras cómo gorilas.

“Esto es un ejemplo de lo que sucede si no existen caras Afro Americanas en tu colección de entrenamiento”

Sostiene Anu Tewary, chief data officer en Mint at Intuit.

El Aprendizaje Profundo para negocios

El Deep Learning también tiene aplicaciones cuando se habla de negocio. Puede tomar una gran cantidad de datos —millones de imágenes, por ejemplo — y reconocer ciertas características. Búsquedas basadas en textos, detección de fraude, detección de spam, reconocimiento de escritura manuscrita, búsqueda de imágenes, reconocimiento de voz, Street View y traducción son todas las tareas que pueden ser desarrolladas mediante el Deep Learning. En Google, la red de Deep Learning ha reemplazado muchos “sistemas artesanales basados en reglas”, por ejemplo. Hoy en día, el reconocimiento de imágenes por maquinas entrenadas utilizando el Deep Learning en algunos escenarios es mejor que los humanos  por ejempo va desde el reconocimiento de imagines comunes como perro y gatos, hasta indicadores que dectectan el cáncer en la sangre, tumores detectados en imágenes de resonancia Magnética (IRM) .

Conclusiones

La teoría del aprendizaje automático sostiene que estos algoritmos pueden generalizarse muy bien a partir de un número finito de ejemplos de entrenamiento. Sin embargo, esto contradice los principios básicos de la lógica: derivar reglas generales de un conjunto limitado de ejemplos no es una afirmación lógicamente válida. En otras palabras, para inferir una regla que describa a cada miembro de un conjunto, deberíamos tener información sobre cada miembro del conjunto. En parte, ML aborda este problema con reglas probabilísticas en lugar de algunas reglas de razonamiento lógico. Desafortunadamente, esto no resuelve completamente el problema. De hecho, de acuerdo con el Teorema “No Free Lunch” (David Wolpert y William Macready, 1997): un promedio de todas las posibles distribuciones de la generación de los datos, cada algoritmo de clasificación se puede mostrar la misma tasa de errores en los datos observados, que tiene el mismo error de generalización (en el conjunto de pruebas). Esto significa que el mejor algoritmo de Aprendizaje Automático no puede existir: por lo tanto, nuestro objetivo debe ser comprender qué tipos de distribuciones son relevantes para el “mundo real” y qué tipo de algoritmos ML tienen un mejor rendimiento que otros una vez que funcionan en datos extraídos de las distribuciones en el que estamos focalizzando. incluso el aprendizaje profundo (que es una parte de la máquina de aprendizaje) no pueden tener el mejor rendimiento de la máquina de aprendizaje universalmente, pero todo depende del dominio de la tarea que nos enfrentamos. Aunque parece que, en un futuro cercano, Deep Learning resolverá muchos de los problemas que tenemos todos los días en el dominio de las computadoras, los negocios, la IA, el marketing, etc.

Como dice Andrew Yan-Tak Ng, científico jefe de Baidu, donde dirige el Equipo de Inteligencia Artificial:

Tal y como Andrew Yan-Tak Ng, ex jefe científico en Baidu, donde lideró el grupo de Inteligencia Artificial de la compañía, dijo:

“[Deep learning] IA es la nueva electricidad”.

 

Vamos a profundizar en los próximos tutoriales    el aprendizaje profundo, estad atento

Referencias

https://www.geospatialworld.net/blogs/difference-between-ai%EF%BB%BF-machine-learning-and-deep-learning/

http://www.machinedesign.com/industrial-automation/what-s-difference-between-ai-and-machine-learning

https://www.kairos.com/blog/the-best-explanation-machine-learning-vs-deep-learning

http://www.kdnuggets.com/2016/12/deep-learning-radically-different-machine-learning.html

http://www.techrepublic.com/article/understanding-the-differences-between-ai-machine-learning-and-deep-learning/

https://www.analyticsvidhya.com/blog/2017/04/comparison-between-deep-learning-machine-learning/

https://www.quora.com/What-is-the-difference-between-deep-learning-and-usual-machine-learning

https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai/

 

 

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Fornisci il tuo contributo!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *