¿Tienes alguna pregunta?
Mensaje enviado Cerrar

Curso de NLP con Deep Learning

4.6 de 5
4.6
9 valoraciones
curso NLP python

Introducción

El Natural Language Processing (NLP) o Procesamiento del Lenguaje Natural (PNL) es un subcampo de la lingüística, la informática, la ingeniería de la información y la inteligencia artificial que se ocupa de las interacciones entre los ordenadores y los lenguajes humanos (naturales). Particularmente se encarga de cómo programar los ordenadores para procesar y analizar datos del lenguaje natural (gran cantidades de textos).

Los desafíos en el procesamiento del lenguaje natural frecuentemente involucran el reconocimiento del habla, la comprensión del lenguaje natural y la generación del lenguaje natural.

Según las grandes empresas como Amazon o Google el Natural Language Processing es uno de los campos con más futuro a corto plazo dentro de la IA.

Con este curso podrás

  • Comprender bien el PNL y sus algoritmos con redes neuronales
  • Realizar el procesamiento previo de texto mediante tokenización, derivación, lematización, etiquetado pos y reconocimiento de entidad con nombre.
  • Utilizar los algoritmos / técnicas más relevantes en PNL
  • Resolver problemas de PNL del mundo real
  • Implementar el análisis de sentimientos
  • Clasificación de documentos
  • Identificar similitudes de documentos
  • Procesar estructuras complejas

Perfil del alumno

Profesionales de todos los sectores que deseen desarrollar competencias en aprendizaje automático enfocado en el procesamiento del lenguage natural con redes neuronales y aquellos que desean beneficiarse de las oportunidades que brinda hoy en día la inteligencia artificial.

Aplicaciones del Natural Language Processing (PNL)

  • Sintaxis
    • Inducción gramatical
    • Lemmatización
    • Segmentación morfológica
    • Etiquetado de parte de la voz
    • Determinacion del árbol de análisis (análisis gramatical) de una frase dada.
    • Infracción de la sentencia (también conocida como desambiguación del límite de la sentencia)
    • Frenando: el proceso de reducir las palabras inflexionadas (o a veces derivadas) a su forma de raíz. (por ejemplo, “cerrar” será la raíz de “cerrado”, “cerrar”, “cerrar”, “cerrar”, “más cerca”, etc.).
    • Segmentación de palabras
    • Extracción de terminología
  • Semántica
    • Semántica léxica
    • Semántica de distribución
    • Traducción automática
    • Reconocimiento de entidades con nombre (NER).
    • Generación de lenguaje natural
    • Comprensión del lenguaje natural
    • Reconocimiento óptico de caracteres (OCR)
    • Respuesta a preguntas
    • Reconocer la vinculación textual
    • Extracción de relaciones
    • Análisis de sentimientos (ver también análisis de sentimientos multimodales)
    • Segmentación y reconocimiento de temas
    • Desambiguación del sentido de la palabra
  • Discurso
    • Integración automática: producir un resumen legible de un trozo de texto.
    • Resolución de referencia: dada una oración o un trozo más grande de texto, determine qué palabras (“menciones”) se refieren a los mismos objetos (“entidades”).
    • Análisis del discurso: incluye una serie de tareas relacionadas. Una tarea es identificar la estructura del discurso del texto conectado, es decir, la naturaleza de las relaciones del discurso entre las oraciones (por ejemplo, elaboración, explicación, contraste). Otra tarea posible es reconocer y clasificar los actos de habla en un trozo de texto (por ejemplo, pregunta sí-no, pregunta de contenido, declaración, afirmación, etc.).
  • Habla
    • Reconocimiento del habla
    • Segmentación del habla
      Con un clip de sonido de una persona o personas que hablan, sepárelo en palabras. Una subtarea de reconocimiento de voz y típicamente agrupada con ella.
    • Texto a voz
      A partir de un texto, se transforman esas unidades y se produce una representación oral. El texto a voz puede ser utilizado para ayudar a los discapacitados visuales.
  • Diálogo: el primer trabajo publicado por una inteligencia artificial fue publicado en 2018, 1 the Road, comercializado como novela, contiene sesenta millones de palabras.

¿Qué piensan de nuestro Curso de Natural Language Processing (PNL)?

Laura Diaz

Muy recomendable este curso por la calidad y los ejemplos que tiene.

Juan Antonio

Tengo la membresía profesional para realizar todos los cursos de IA y hasta ahora he realizado el curso de NLP, mi nota para el curso es un 9.

Felipe Gallardo

Hay pocos cursos sobre Natural Language Processing, este me ha ayudado y lo he disfrutado mucho.

Historia del Procesamiento del Lenguaje Natural

La historia del procesamiento del lenguaje natural (PNL) generalmente comenzó en la década de 1950, aunque se pueden encontrar trabajos de períodos anteriores. En 1950, Alan Turing publicó un artículo titulado “Computing Machinery and Intelligence” que proponía lo que ahora se llama el test de Turing como criterio de inteligencia.

El experimento de Georgetown en 1954 implicó la traducción completamente automática de más de sesenta frases rusas al inglés. Los autores afirmaron que en tres o cinco años, la traducción automática sería un problema resuelto. Sin embargo, el progreso real fue mucho más lento, y después del informe de ALPAC en 1966, que encontró que la investigación de diez años de duración no había cumplido con las expectativas, los fondos para la traducción automática se redujeron drásticamente. Se realizaron pocas investigaciones sobre la traducción automática hasta finales de la década de 1980, cuando se desarrollaron los primeros sistemas estadísticos de traducción automática.

Algunos de los sistemas de procesamiento del lenguaje natural desarrollados en los años sesenta fueron SHRDLU, un sistema de lenguaje natural que trabaja en “mundos de bloques” restringidos con vocabularios restringidos, y ELIZA, una simulación de un psicoterapeuta Rogeriano, escrita por Joseph Weizenbaum entre 1964 y 1966. Usando casi ninguna información sobre el pensamiento o la emoción humana, ELIZA a veces proporcionaba una interacción sorprendentemente humana. Cuando el “paciente” excedió la muy pequeña base de conocimientos, ELIZA podría proporcionar una respuesta genérica, por ejemplo, respondiendo a “Me duele la cabeza” con “¿Por qué dices que te duele la cabeza?

Durante la década de 1970, muchos programadores comenzaron a escribir “ontologías conceptuales”, que estructuraban la información del mundo real en datos comprensibles por ordenador. Algunos ejemplos son MARGIE (Schank, 1975), SAM (Cullingford, 1978), PAM (Wilensky, 1978), TaleSpin (Meehan, 1976), QUALM (Lehnert, 1977), Politics (Carbonell, 1979) y Plot Units (Lehnert 1981). Durante este tiempo, muchos chatterbots fueron escritos incluyendo PARRY, Racter, y Jabberwacky.

Hasta la década de 1980, la mayoría de los sistemas de procesamiento de lenguaje natural se basaban en complejos conjuntos de reglas escritas a mano. Sin embargo, a partir de finales de los años ochenta se produjo una revolución en el procesamiento del lenguaje natural con la introducción de algoritmos de aprendizaje automático para el procesamiento del lenguaje. Esto se debió tanto al aumento constante de la potencia computacional (véase la ley de Moore) como a la disminución gradual del dominio de las teorías chomskianas de la lingüística (por ejemplo, la gramática transformacional), cuyos fundamentos teóricos desalentaban el tipo de lingüística de corpus que subyace en el enfoque de aprendizaje automático del procesamiento del lenguaje. Algunos de los algoritmos de aprendizaje automático más utilizados anteriormente, como los árboles de decisión, producían sistemas de reglas duras, aunque no muy comunes, similares a las reglas escritas a mano existentes. Sin embargo, el etiquetado parcial introdujo el uso de modelos Markov ocultos en el procesamiento del lenguaje natural y, cada vez más, la investigación se ha centrado en modelos estadísticos, que toman decisiones suaves y probabilísticas basadas en la asignación de pesos de valor real a las características que componen los datos de entrada. Los modelos de lenguaje de caché en los que se basan muchos sistemas de reconocimiento de voz son ejemplos de estos modelos estadísticos. Estos modelos son generalmente más robustos cuando se les da una entrada desconocida, especialmente si contienen errores (como es muy común en los datos del mundo real), y producen resultados más confiables cuando se integran en un sistema más grande que comprende múltiples subtareas.

Muchos de los éxitos iniciales notables se produjeron en el campo de la traducción automática, debido especialmente al trabajo en IBM Research, donde se desarrollaron sucesivamente modelos estadísticos más complicados. Estos sistemas pudieron aprovechar los corpus textuales multilingües existentes que habían sido producidos por el Parlamento de Canadá y la Unión Europea como resultado de las leyes que exigían la traducción de todos los procedimientos gubernamentales a todos los idiomas oficiales de los sistemas de gobierno correspondientes. Sin embargo, la mayoría de los demás sistemas dependían de corpus desarrollados específicamente para las tareas implementadas por estos sistemas, lo que fue (y a menudo sigue siendo) una limitación importante en el éxito de estos sistemas. Como resultado, se ha investigado mucho sobre los métodos para aprender de manera más efectiva a partir de cantidades limitadas de datos.

Las investigaciones recientes se han centrado cada vez más en algoritmos de aprendizaje no supervisados y semisupervisados. Estos algoritmos pueden aprender de datos que no han sido anotados a mano con las respuestas deseadas, o utilizando una combinación de datos anotados y no anotados. Generalmente, esta tarea es mucho más difícil que el aprendizaje supervisado, y típicamente produce resultados menos precisos para una cantidad dada de datos de entrada. Sin embargo, hay una enorme cantidad de datos no comentados disponibles (incluyendo, entre otras cosas, todo el contenido de la World Wide Web), que a menudo pueden compensar los resultados inferiores si el algoritmo utilizado tiene una complejidad temporal lo suficientemente baja como para ser práctico.

En la década de 2010, el aprendizaje de la representación y los métodos de aprendizaje de máquinas de estilo de red neural profunda se generalizaron en el procesamiento del lenguaje natural, debido en parte a una avalancha de resultados que muestran que tales técnicas pueden lograr resultados de vanguardia en muchas tareas de lenguaje natural, por ejemplo, en el modelado del lenguaje, el análisis, y muchas otras. Las técnicas populares incluyen el uso de incrustaciones de palabras para capturar las propiedades semánticas de las palabras, y un aumento en el aprendizaje de punta a punta de una tarea de nivel superior (por ejemplo, respuesta a preguntas) en lugar de depender de una serie de tareas intermedias separadas (por ejemplo, etiquetado de parte del habla y análisis de dependencias). En algunas áreas, este cambio ha conllevado cambios sustanciales en el diseño de los sistemas de PNL, de manera que los enfoques basados en redes neuronales profundas pueden ser vistos como un nuevo paradigma distinto del procesamiento estadístico del lenguaje natural. Por ejemplo, el término traducción automática neural (NMT) enfatiza el hecho de que los enfoques basados en el aprendizaje profundo de la traducción automática aprenden directamente las transformaciones de secuencia a secuencia, evitando la necesidad de pasos intermedios como la alineación de palabras y el modelado del lenguaje que se utilizaban en la traducción automática estadística (SMT).

Solo necesitas un ordenador y conexión a internet para seguir el curso. Una vez realizado el pago tendrás acceso al curso para que lo realices cuando quieras con 100% de disponibilidad.
No, solo necesitarás tener el sistema operativo Windows o cualquier distribución de Linux.
Sí, al finalizar las pruebas y el proyecto tendrás el certificado Unipython del Curso de NLP con Deep Learning el cual puedes anexar a tu currículum.
Recomendamos haber superado nuestro Curso de Python en vivo o el Curso de python desde 0 o tener un nivel medio en Python.
Sí, en muchos aspectos. Las principales aplicaciones son: síntesis del discurso, análisis del lenguaje, comprensión del lenguaje, reconocimiento del habla, traducción automática ...
Puedes escribir tus dudas en el apartado de preguntas de cada lección.

Se recomienda que entre cuatro o seis semanas ya deberías haber finalizado este curso si le dedicas unas 4 horas al día. Todo dependerá de tu perseverancia e interés para aprender.
4.6
4.6 de 5
9 Clasificaciones

Valoración detallada

Estrellas 5
5
Estrellas 4
4
Estrellas 3
0
Estrellas 2
0
Estrellas 1
0

{{ review.user }}

{{ review.time }}
 

Mostrar más
Por favor, accede para dejar una valoración