Blog
Deep Learning
- Publicado por: Rafael Fernandez
- Categoría: Deep Learning
-Brevemente veremos lo que es el Deep Learning y todas sus capacidades.
El Deep Learning o Aprendizaje Profundo, es un subcampo del Machine Learning o Aprendizaje Automático que se ocupa de algoritmos inspirados en la estructura y función del cerebro llamados; redes neuronales artificiales. Si apenas estas comenzando en el campo del Deep Learning; o si has tenido alguna experiencia con redes neuronales hace algún tiempo, puedes estar un poco confundido.
Soy consciente de que al principio estaba algo confundido, y también lo estaban muchos de mis colegas y amigos que aprendieron y utilizaron redes neuronales en la década de los 90’s.
Los líderes y expertos en el campo tienen ideas de lo que es el Deep Learning, y estas perspectivas específicas y matizadas arrojan mucha luz sobre lo que define este concepto. En este capítulo, tu descubrirás exactamente lo que es el Deep Learning. Te aseguro que después de leer este capítulo, tu sabrás:
El Deep Learning es una gran Red Neuronal
En las primeras charlas sobre el aprendizaje profundo, Andrew Ng, de Coursera, ha logrado describir lo que es el Deep Learning; usando un contexto de las redes neuronales artificiales tradicionales; en la charla de 2013 titulada Deep Learning, Self-Taught Learning and Unsupervised Feature Learning (Aprendizaje profundo, aprendizaje autodidáctico y aprendizaje destacado no supervisado) describió la idea del aprendizaje profundo como:
Mediante el uso de simulaciones cerebrales, intentó hacer lo siguiente:
- Hacer que los algoritmos de aprendizaje sean mucho mejores y más fáciles de usar.
- Realizar avances revolucionarios en el aprendizaje de la máquina y la IA (inteligencia artificial).
El núcleo del Deep Learning, según Andrew, es que ahora tenemos computadoras y datos lo suficientemente rápidos como para entrenar grandes redes neuronales.
Andrew a menudo menciona que deberíamos buscar y veremos más beneficios provenientes del lado no supervisado de las vías, a medida que el campo madura para tratar con la abundancia de datos sin etiquetar, que estén disponibles.
El Deep Learning es un aprendizaje jerárquico de características
Además de la escalabilidad; otro beneficio a menudo citado de los modelos de Deep Learning, es su capacidad para realizar la extracción automática de características a partir de datos sin procesar; también llamado aprendizaje de características. Yoshua Bengio, describe el aprendizaje profundo en términos de la habilidad de los algoritmos para descubrir y aprender buenas representaciones usando el aprendizaje de características.
Peter Norvig es el Director de Investigación de Google y famoso por su libro de texto sobre IA titulado Inteligencia Artificial: Un enfoque moderno. En una charla en 2016 titulada Deep Learning and Understandability versus Software Engineering and Verification (Aprendizaje y Comprensión Profundos versus Ingeniería y Verificación de Software) definió el aprendizaje profundo de una manera muy similar a la de Yoshua, centrándose en el poder de abstracción, que permite el uso de una estructura de red más profunda.
El Deep Learning sobresale en dominios problemáticos donde las entradas (e incluso la salida) son analógicas. Es decir, no se trata de unas pocas cantidades en formato tabular, sino de imágenes de datos en píxeles, documentos de datos de texto o archivos de datos de audio. Yann LeCun es el director de Facebook Research y es el padre de la arquitectura de red que sobresale en el reconocimiento de objetos en datos de imagen llamada Red Neural Convolucional (CNN). Esta técnica está teniendo un gran éxito, ya que al igual que las redes neuronales de retroalimentación de perceptrones multicapa, la técnica se escala con datos y tamaños de modelo y la red puede ser entrenada con retropropagación.
El Aprendizaje Profundo como aprendizaje escalable en todos los dominios
Esto sesga su definición de Deep Learning como el desarrollo de CNN’s; o Convolutional Neural Networks (Redes Neuronales Convolucionales) muy grandes, que han tenido gran éxito en el reconocimiento de objetos en fotografías. En una charla en el 2016 en el Laboratorio Nacional Lawrence Livermore titulada Accelerating Understanding; Deep Learning, Intelligent Applications y GPUs, se describió el Deep Learning; en general como representaciones jerárquicas de aprendizaje. Y lo definió como un enfoque escalable para construir sistemas de reconocimiento de objetos.
Jurgen Schmidhuber es el padre de otro algoritmo popular que, al igual que los MLP y los CNN, también escalan con el tamaño del modelo y el tamaño del conjunto de datos; y puede ser entrenado con la retropropagación; pero que en su lugar está diseñado para el aprendizaje de datos de secuencias, llamado Red de Memoria a Corto Plazo Largo (LSTM, por sus siglas en inglés), un tipo de red neuronal recurrente. Vemos cierta confusión en la redacción del campo como un Deep Learning. En su artículo de 2014 titulado Deep Learning in Neural Networks; Una visión general comenta sobre la denominación problemática del campo y la diferenciación entre el Deep Learning y el aprendizaje superficial. También describe de manera interesante la profundidad en términos de la complejidad del problema; en lugar del modelo utilizado para resolverlo.
DeepMind hizo el gran avance de combinar técnicas de Deep Learning; con el aprendizaje de refuerzo para manejar problemas de aprendizaje complejos como el juego; esto fue demostrado en juegos Atari y el juego Go con Alpha Go. De acuerdo con el nombre, llamaron a su nueva técnica Deep Q-Network, combinando Deep Learning con Q-Learning. También nombran el campo de estudio más amplio del Deep Reinforcement Learning.
➡ Conoce mas de Deep Learning en nuestro curso: