¿Tienes alguna pregunta?
Mensaje enviado Cerrar

Curso de Deep Learning Python

4.4 de 5
4.4
10 valoraciones
curso-deep-learning

Introducción

El Aprendizaje Profundo o Deep Learning es parte de una familia más amplia de métodos de aprendizaje automático basados en redes neuronales artificiales. El aprendizaje puede ser supervisado, semi-supervisado o no supervisado.

Arquitecturas de aprendizaje profundo como redes neuronales profundas, redes neuronales recurrentes y redes neuronales convolucionales se han aplicado a campos que incluyen la visión por ordenador, el reconocimiento del habla, el procesamiento del lenguaje natural, el reconocimiento de audio, el filtrado de redes sociales, la traducción automática, la bioinformática, el diseño de fármacos, el análisis de imágenes médicas, la inspección de materiales y los programas de juegos de mesa, en los que se han obtenido resultados comparables y, en algunos casos, superiores a los de los expertos en el campo humano.

Las redes neuronales artificiales (RNA) se inspiraron en los nodos de procesamiento de información y comunicación distribuida de los sistemas biológicos. Las RNA tienen varias diferencias con respecto a los cerebros biológicos. Específicamente, las redes neuronales tienden a ser estáticas y simbólicas, mientras que el cerebro biológico de la mayoría de los organismos vivos es dinámico (plástico) y analógico.

¿Qué es el de Deep learning?

El aprendizaje profundo es una clase de algoritmos de aprendizaje automático que utiliza múltiples capas de redes neuronales para extraer progresivamente características de nivel superior a partir de los datos de entrada.

Salidas Profesionales

  • Analista Datos
  • Desarrollador de aplicaciones de IA
  • Data Science
  • Testeadores de Código
  • Ingeniero de Datos
  • Ingeniero de Vision Artificial
  • Desarrollador de microservicios de IA
  • Predicción de Datos y Tendencias

Perfil del alumno

Profesionales de todos los sectores que deseen desarrollar competencias en aprendizaje automático con redes neuronales y aquellos que desean beneficiarse de las oportunidades que brinda hoy en día la inteligencia artificial.

Gigantes como Google, Bosch, Microsoft, Facebook, Aliexpress, y Amazon están realizando una intensa inversión en las nuevas tecnologías inteligentes. A partir de 2020 todos veremos un aumento de la Inteligencia Artificial que provocará una auténtica revolución en la forma de trabajar y de hacer negocios.

Con este curso podrás

  • Desarrollar y evaluar modelos de redes neuronales de principio a fin.
  • Utilizar las técnicas más avanzadas necesarias para desarrollar modelos de Deep Learning de vanguardia.
  • Construir modelos grandes para datos de imagen y texto.
  • Utilizar técnicas avanzadas de aumento de imagen para elevar el rendimiento del modelo.
  • Testear modelos de redes neuronales a partir de datos reales con un 100% de enfoque en casos prácticos.
  • Familiarizarte con las herramientas y librerías de software utilizadas en la industria: Python, TensorFlow, Keras, SciPy (pandas, numpy, matplotlib, seaborn), Anaconda o Jupyter notebook.
  • Entender los fundamentos y las técnicas más avanzadas de Deep Learning para el desarrollo de aplicaciones.

Aplicaciones del Deep learning

  • Reconocimiento de imágenes
  • Reconocimiento automático de voz
  • Procesamiento de artes visuales
  • Procesamiento del lenguaje natural
  • Descubrimiento de fármacos y toxicología
  • Gestión de las relaciones con los clientes
  • Sistemas de recomendación
  • Bioinformática
  • Análisis de imágenes médicas
  • Publicidad móvil
  • Restauración de imágenes
  • Detección de fraude financiero
  • Militar

¿Que piensan de nuestro Curso de Deep Learning?

Anais Padilla

Los algoritmos de redes neuronales me han abierto una puerta en mi carrera gracias a este curso.

Juan Antonio

Tengo la membresía profesional para realizar todos los cursos de IA y hasta ahora he realizado el curso de NLP, mi nota para el curso es un 9.

Historia del Deep learning

El término Aprendizaje Profundo fue introducido a la comunidad de aprendizaje de máquinas por Rina Dechter en 1986, y a las redes neuronales artificiales por Igor Aizenberg y sus colegas en el año 2000, en el contexto de las neuronas del umbral booleano.

El primer algoritmo general de aprendizaje de trabajo para percepciones supervisadas, profundas, feedforward y multicapas fue publicado por Alexey Ivakhnenko y Lapa en 1965. Un artículo de 1971 describía una red profunda con 8 capas entrenadas por el método de grupo del algoritmo de manejo de datos.

En 1989, Yann LeCun et al. aplicaron el algoritmo de retropropagación estándar, que había existido como modo inverso de diferenciación automática desde 1970, a una red neuronal profunda con el propósito de reconocer códigos postales escritos a mano en el correo. Mientras el algoritmo funcionaba, el entrenamiento requería 3 días

En 1991, estos sistemas se utilizaban para reconocer dígitos aislados escritos a mano en 2-D, mientras que el reconocimiento de objetos en 3-D se hacía haciendo coincidir imágenes en 2-D con un modelo de objetos en 3-D hecho a mano. Weng et al. sugirieron que un cerebro humano no utiliza un modelo monolítico de objetos 3D y en 1992 publicaron Cresceptron, un método para realizar el reconocimiento de objetos 3D en escenas desordenadas. Debido a que utiliza directamente imágenes naturales, Cresceptron comenzó el principio del aprendizaje visual de propósito general para mundos 3D naturales. Cresceptrón es una cascada de capas similares al Neocognitrón. Pero mientras que Neocognitron requería un programador humano para fusionar a mano las características, Cresceptron aprendió un número abierto de características en cada capa sin supervisión, donde cada característica está representada por un núcleo de convolución. Cresceptron segmentó cada uno de los objetos aprendidos a partir de una escena desordenada a través de un análisis retrospectivo a través de la red. El pooling máximo, ahora adoptado a menudo por las redes neuronales profundas (por ejemplo, las pruebas de ImageNet), se utilizó por primera vez en Cresceptron para reducir la resolución de posición en un factor de (2×2) a 1 a través de la cascada para una mejor generalización.

En 1994, André de Carvalho, junto con Mike Fairhurst y David Bisset, publicó los resultados experimentales de una red neural booleana de varias capas, también conocida como red neural ingrávida, compuesta por un módulo de red neural de extracción de características (SOFT) auto-organizado de tres capas, seguido de un módulo de red neural de clasificación de varias capas (GSN), que fueron entrenados de forma independiente. Cada capa del módulo de extracción de características extrajo características con una complejidad creciente con respecto a la capa anterior.

En 1995, Brendan Frey demostró que era posible entrenar (durante dos días) una red que contenía seis capas completamente conectadas y varios cientos de unidades ocultas utilizando el algoritmo wake-sleep, desarrollado conjuntamente con Peter Dayan y Hinton. Muchos factores contribuyen a la lentitud de la velocidad, incluyendo el problema del gradiente de desaparición analizado en 1991 por Sepp Hochreiter.

Los modelos más sencillos que utilizan características artesanales específicas para cada tarea, como los filtros Gabor y las máquinas vectoriales de soporte (SVM), fueron una opción popular en los años 90 y 2000, debido al coste computacional de las redes neuronales artificiales (RNA) y a la falta de comprensión de la forma en que el cerebro conecta sus redes biológicas.

Estos métodos nunca superaron a la tecnología no uniforme del modelo de mezcla gaussiano de artesanía interna/modelo de Markov oculto (GMM-HMM) basada en modelos generativos de habla entrenados de forma discriminatoria. Se han analizado las principales dificultades, entre las que se incluyen la disminución del gradiente y la debilidad de la estructura de correlación temporal en los modelos de predicción neural. Las dificultades adicionales fueron la falta de datos de entrenamiento y la limitada potencia de cálculo.

 

 

 

La mayoría de los investigadores en reconocimiento de voz se alejaron de las redes neuronales para buscar el modelado generativo. Una excepción fue en SRI International a finales de la década de 1990. Financiado por el NSA y el DARPA del gobierno de los Estados Unidos, el SRI estudió las redes neuronales profundas en el reconocimiento del habla y de los oradores. El equipo de reconocimiento de hablantes dirigido por Larry Heck logró el primer éxito significativo con redes neuronales profundas en el procesamiento del habla en la evaluación de reconocimiento de hablantes del Instituto Nacional de Estándares y Tecnología (National Institute of Standards and Technology Speaker Recognition) de 1998, mientras que el SRI experimentó éxito con redes neuronales profundas en el reconocimiento de hablantes, no tuvo éxito en demostrar un éxito similar en el reconocimiento del habla. El principio de elevar las características “brutas” por encima de la optimización artesanal se exploró por primera vez con éxito en la arquitectura del autoencoder profundo en el espectrograma “bruto” o en las características del banco de filtros lineales a finales de la década de 1990, demostrando su superioridad sobre las características Mel-Cepstral que contienen etapas de transformación fija a partir de los espectrogramas. Las características en bruto del habla, las formas de onda, más tarde produjeron excelentes resultados a mayor escala.

Muchos aspectos del reconocimiento del habla fueron asumidos por un método de aprendizaje profundo llamado memoria a corto plazo (LSTM), una red neuronal recurrente publicada por Hochreiter y Schmidhuber en 1997. Los RNNs de LSTM evitan el problema del gradiente de desaparición y pueden aprender tareas de “aprendizaje muy profundo” que requieren memorias de eventos que ocurrieron miles de pasos de tiempo discretos antes, lo cual es importante para el habla. En 2003, LSTM comenzó a ser competitivo con los reconocedores de voz tradicionales en ciertas tareas y luego se combinó con la clasificación temporal conexionista (CTC) en pilas de RNN LSTM. En 2015, según se informa, el reconocimiento de voz de Google experimentó un drástico salto de rendimiento del 49% a través de LSTM capacitado en CTC, que se puso a disposición a través de la Búsqueda de Voz de Google.

En 2006, publicaciones de Geoff Hinton, Ruslan Salakhutdinov, Osindero y Teh mostraron cómo una red neuronal de retroalimentación de varias capas podía ser efectivamente pre-entrenada una capa a la vez, tratando cada capa a su vez como una máquina Boltzmann restringida no supervisada, y luego afinándola usando retropropagación supervisada. Los documentos se referían al aprendizaje de redes de creencias profundas.

El aprendizaje profundo es parte de sistemas de vanguardia en varias disciplinas, en particular la visión por computador y el reconocimiento automático del habla (ASR). Los resultados de los conjuntos de evaluación más utilizados, como TIMIT (ASR) y MNIST (clasificación de imágenes), así como una serie de tareas de reconocimiento de voz de gran vocabulario, han mejorado constantemente Las redes neuronales convolucionales (CNN) fueron sustituidas por CTC para LSTM, pero tienen más éxito en la visión por ordenador.

Los avances en hardware han permitido un renovado interés en el aprendizaje profundo. En 2009, Nvidia participó en lo que se llamó el “big bang” del aprendizaje profundo, “ya que las redes neuronales de aprendizaje profundo se formaron con las unidades de procesamiento gráfico (GPU) de Nvidia”. Ese año, Google Brain utilizó las GPU de Nvidia para crear DNNs capaces. Andrew Ng determinó que las GPU pueden aumentar la velocidad de los sistemas de aprendizaje profundo unas 100 veces. En particular, las GPU son adecuadas para los cálculos matriciales/vectoriales que intervienen en el aprendizaje en máquina. Las GPU aceleran los algoritmos de entrenamiento en órdenes de magnitud, reduciendo los tiempos de ejecución de semanas a días. Además, se pueden utilizar optimizaciones de hardware y algoritmos especializados para el procesamiento eficiente de modelos de aprendizaje profundo.

Solo necesitas un ordenador y conexión a internet para seguir el curso. Una vez realizado el pago tendrás acceso al curso para que lo realices cuando quieras con 100% de disponibilidad.
No, solo necesitarás tener el sistema operativo Windows o cualquier distribución de Linux.
Sí, al finalizar las pruebas y el proyecto tendrás el certificado Unipython del Curso de Deep Learning Python, el cual puedes anexar a tu currículum.
Recomendamos haber superado nuestro Curso de Python en vivo o el Curso de python desde 0 o tener un nivel medio en Python.
Sí, en muchos aspectos. Las principales aplicaciones son: reconocimiento de imágenes, reconocimiento automático de voz, procesamiento del lenguaje natural, análisis de imágenes médicas, publicidad móvil,...
Puedes escribir tus dudas en el apartado de preguntas de cada lección.
Se recomienda que entre cuatro o seis semanas ya deberías haber finalizado este curso si le dedicas unas 2 horas al día. Todo dependerá de tu perseverancia e interés para aprender.
4.4
4.4 de 5
10 Clasificaciones

Valoración detallada

Estrellas 5
5
Estrellas 4
4
Estrellas 3
1
Estrellas 2
0
Estrellas 1
0

{{ review.user }}

{{ review.time }}
 

Mostrar más
Por favor, accede para dejar una valoración