Blog
La inteligencia artificial (IA) es aquella inteligencia manifestada por máquinas, en contraste con la inteligencia natural de los seres vivos.
Conceptualización según el punto de vista
En informática, la investigación de la IA se define como el estudio de los “agentes inteligentes“.
Es decir, cualquier dispositivo que percibe su entorno y emprende acciones que maximizan sus posibilidades de alcanzar sus objetivos.
Coloquialmente se aplica el término “inteligencia artificial” cuando una máquina imita las funciones “cognitivas” de los seres humanos; como el “aprendizaje” y la “resolución de problemas”.
Objetivos de la inteligencia artificial
La investigación de la IA básicamente busca resolver problemas relacionados con:
- El razonamiento,
- La representación del conocimiento,
- La planificación,
- El aprendizaje,
- El procesamiento del lenguaje natural,
- La percepción,
- Y la capacidad de mover y manipular objetos.
En otras palabras, conseguir la inteligencia general.
Los enfoques incluyen métodos estadísticos, inteligencia computacional y la IA simbólica tradicional.
Herramientas utilizadas en la IA
El campo de la IA se basa en: la informática, la ingeniería de la información, las matemáticas, la psicología, la lingüística, la filosofía y muchos otros.
Por lo tanto, algunas de las herramientas que se necesitan son:
- Versiones de optimización matemática y de búsqueda,
- Redes neuronales artificiales,
- Métodos basados en estadísticas, probabilidad y economía.
Opiniones sobre la inteligencia artificial
Algunas personas consideran que la IA es un peligro para la humanidad si progresa sin cesar.
Otros creen que la IA, a diferencia de las anteriores revoluciones tecnológicas, creará un riesgo de desempleo masivo.
No obstante, las técnicas de IA se han convertido en una parte esencial de la industria de la tecnología. Además está ayudando a resolver muchos problemas difíciles en la ciencia informática, la ingeniería de software y la investigación de operaciones.
Origen de la IA
Los seres artificiales con capacidad de pensamiento aparecieron en la antigüedad y han sido comunes en la ficción. Por ejemplo, “Frankenstein” de Mary Shelley o “Robots Universales de Rossum” de Karel Capek.
Estos personajes y sus destinos plantearon muchas cuestiones que ahora se discuten en la ética de la inteligencia artificial.
Incluso el estudio del razonamiento mecánico o “formal” comenzó con filósofos y matemáticos de la antigüedad.
Como es el caso de “Alan Turing”. Este famoso matemático creo la teroría de que una máquina podía simular cualquier acto concebible de deducción matemática; solamente barajando símbolos tan simples como “0” y “1”, .
La idea de que los ordenadores digitales pueden simular cualquier proceso de razonamiento formal se conoce como “la tesis de la gira de la Iglesia”.
Gracias a esta tesis junto a los descubrimientos simultáneos en neurobiología, los investigadores consideraron la posibilidad de construir un cerebro electrónico.
Turing propuso que: “si un humano no podía distinguir entre las respuestas de una máquina y las de un humano, la máquina podía considerarse “inteligente”.
El primer trabajo reconocido IA fue: el diseño formal de McCullouch y Pitts para las “neuronas artificiales” de Turing-completas.
Nacimiento del campo de investigación IA
El campo de investigación de la IA nació en un taller en Dartmouth College en 1956. Los asistentes Allen Newell (CMU), Herbert Simon (CMU), John McCarthy (MIT), Marvin Minsky (MIT) y Arthur Samuel (IBM) se convirtieron en los fundadores y líderes de la investigación de la IA.
Ellos y sus estudiantes produjeron programas que la prensa calificó de “asombrosos”; ordenadores estaban aprendiendo estrategias de juego de damas (c. 1954), resolviendo problemas de palabras en álgebra, probando teoremas lógicos y hablando inglés.
A mediados de la década de 1960, la investigación en los EE.UU. estaba fuertemente financiada por el Departamento de Defensa y había laboratorios en todo el mundo.
Los fundadores de la IA eran optimistas sobre el futuro. Herbert Simon predijo que en 20 años “las máquinas serán capaces de hacer cualquier trabajo que el hombre haga”.
Sin embargo, no reconocieron la dificultad de algunas de las tareas pendientes. El progreso se ralentizó y los gobiernos de Estados Unidos y Gran Bretaña cortaron la investigación exploratoria en Inteligencia Artificial.
Posteriormente, a comienzos de 1980, la investigación de la IA fue reactivada por el éxito comercial de los sistemas expertos; una forma de programa de IA que simulaba el conocimiento y las habilidades analíticas de los expertos humanos.
Al mismo tiempo, el proyecto informático japones de quinta generación impulso el reestablecimiento financiero de Estados Unidos y Gran Bretaña. Sin embargo, el colapso del mercado de las máquinas Lisp en 1987, hizo que AI volviera al descrédito.
Progresos de la IA
A finales de la década de 1990 y principios del siglo XXI, la IA comenzó a utilizarse para la logística, la minería de datos, el diagnóstico médico y otras áreas.
El éxito se debió al aumento de la potencia computacional, al mayor énfasis en la resolución de problemas específicos, a los nuevos vínculos entre la IA y otros campos (como la estadística, la economía y las matemáticas) y al compromiso de los investigadores con los métodos matemáticos y los estándares científicos.
Deep Blue se convirtió en el primer juego de ajedrez por ordenador en derrotar al campeón mundial de ajedrez actual.
En 2011, el sistema de respuesta de preguntas de IBM, Watson, derrotó por un margen significativo a los dos mayores campeones de Jeopardy, Brad Rutter y Ken Jennings.
Computadoras más rápidas, mejoras algorítmicas y acceso a grandes cantidades de datos permitieron avances en el aprendizaje y percepción; los métodos de aprendizaje profundo y ávidos de datos comenzaron a dominar los puntos de referencia de precisión en 2012.
Demostraciones sobre la inteligencia Artificial
El Kinect, que proporciona una interfaz de movimiento corporal en 3D para la Xbox 360 y la Xbox One utiliza algoritmos que surgieron de una larga investigación de la IA, así como los asistentes personales inteligentes en los teléfonos inteligentes.
Seguidamente, en marzo de 2016, AlphaGo ganó 4 de los 5 juegos de Go contra el campeón Lee Sedol; convirtiéndose en el primer sistema de juego de Go por ordenador en vencer a un profesional.
En la Cumbre del Futuro del Go de 2017, AlphaGo ganó un partido de tres juegos con Ke Jie; quien en ese momento ocupó continuamente el primer lugar en el ranking mundial durante dos años.
Según Jack Clark, de Bloomberg, 2015 fue un año histórico para la inteligencia artificial, ya que el número de proyectos de software que utilizan la IA en Google aumentó de un “uso esporádico” en 2012 a más de 2.700 proyectos.
Clark también indican que las tasas de error en tareas de procesamiento de imágenes han caído significativamente desde 2011.
Este hecho atribuye un aumento de las redes neuronales asequibles; debido al aumento de la infraestructura de computación en la nube y al aumento de las herramientas de investigación y los conjuntos de datos.
Otros ejemplos incluyen el sistema de Skype que traduce automáticamente de un idioma a otro; y el sistema de Facebook que describe imágenes a invidentes.
Dado el rápido aumento de su producción, algunos observadores creen que podría convertirse en una “superpotencia de IA”.
Fundamentos de la IA
La IA a menudo gira en torno al uso de algoritmos. Un algoritmo es un conjunto de instrucciones inequívocas que un ordenador mecánico puede ejecutar.
Muchos algoritmos de IA son capaces de aprender de los datos; pueden mejorarse aprendiendo nuevas estrategias o “reglas generales” o pueden escribir ellos mismos otros algoritmos.
Los algoritmos de aprendizaje funcionan sobre la base de que las estrategias. Algoritmos e inferencias que funcionaron bien en el pasado probablemente seguirán funcionando bien en el futuro.
Estas inferencias pueden ser obvias, como “puesto que el sol ha salido todas las mañanas durante los últimos 10.000 días, probablemente también saldrá mañana por la mañana”.
Sin embargo, en comparación con los humanos, la IA existente carece de varias características del “razonamiento con sentido común humano”; más notablemente, los humanos poseen mecanismos para razonar sobre la “física ingenua”, como el espacio, el tiempo e interacciones físicas.
Esto permite que incluso los niños pequeños puedan hacer fácilmente inferencias como “Si tiro este bolígrafo de una mesa, caerá”.
Esta falta de “conocimiento común” significa que el IA frecuentemente comete errores diferentes de los que cometen los seres humanos.
Por ejemplo, los automóviles que se conducen por cuenta propia no pueden razonar sobre la ubicación ni sobre las intenciones de los peatones; sino que deben utilizar modos de razonamiento no humanos para evitar accidentes.
Problemas
El objetivo de la investigación IA, es crear tecnología que permita que las computadoras y máquinas funcionen de manera inteligente.
El problema general de simular (o crear) inteligencia se ha dividido en subproblemas. Estos consisten en rasgos o capacidades particulares que los investigadores esperan que muestre un sistema inteligente. Los rasgos que se describen a continuación son los que han recibido más atención:
-
Razonamiento, resolución de problemas
Los primeros investigadores desarrollaron algoritmos que imitaban el razonamiento paso a paso que los humanos usan cuando resuelven rompecabezas o hacen deducciones lógicas.
A finales de los años ochenta y noventa, la investigación de la IA había desarrollado métodos para tratar información incierta o incompleta, empleando conceptos de probabilidad y economía.
Estos algoritmos resultaron ser insuficientes para resolver grandes problemas de razonamiento; porque se volvieron exponencialmente más lentos a medida que los problemas crecían.
De hecho, los humanos rara vez utilizan la deducción paso a paso que la investigación IA fue capaz de modelar. Resuelven la mayoría de sus problemas usando juicios rápidos e intuitivos.
-
Representación del conocimiento
Algunos “sistemas expertos” intentan reunir el conocimiento explícito que poseen los expertos en un ámbito limitado.
Además, algunos proyectos intentan reunir el “conocimiento de sentido común” conocido por la persona promedio en una base de datos que contiene un amplio conocimiento sobre el mundo.
Entre las cosas que una base de conocimiento de sentido común comprensivo contendría están:
- Objetos, propiedades, categorías y relaciones entre objetos,
- Situaciones, eventos, estados y tiempo;
- Causas y efectos,
- Conocimiento sobre el conocimiento (lo que sabemos sobre lo que otras personas saben,
- y muchos otros dominios, menos investigados.
Una representación de “lo que existe” es una ontología. Es decir, el conjunto de objetos, relaciones, conceptos y propiedades formalmente descritos para que los agentes software puedan interpretarlos.
Problemas más difíciles:
- Razonamiento por defecto y el problema de calificación.
Muchas de las cosas que la gente sabe, toman la forma de “suposiciones de trabajo”. Por ejemplo, si un ave aparece en una conversación, la gente se imagina un animal pequeño que canta y vuela.
Ninguna de estas cosas es verdad sobre todos los pájaros. John McCarthy identificó este problema como “problema de calificación”: para cualquier regla de sentido común que los investigadores IA quieran representar, tiende a haber excepciones.
Casi nada es simplemente verdadero o falso en la forma en que la lógica abstracta lo requiere.
- La amplitud del conocimiento con sentido común
El número de hechos atómicos que una persona promedio conoce es muy grande. Los proyectos de investigación que intentan construir una base completa de conocimiento de sentido común requieren enormes cantidades de laboriosa ingeniería ontológica; deben construirse, a mano, un concepto complicado a la vez.
- La forma subsímbola de un conocimiento con sentido común
Mucho de lo que la gente sabe no se representa como “hechos” o “declaraciones” que puedan expresar verbalmente.
Por ejemplo, un maestro de ajedrez evitará mover una pieza porque “se siente demasiado expuesto” o un crítico de arte puede mirar una estatua y darse cuenta de que es falsa.
Estas son intuiciones o tendencias no conscientes y subsímbolas en el cerebro humano.
Conocimientos como este informan, apoyan y proporcionan un contexto para el conocimiento simbólico y consciente. Al igual que con el problema relacionado del razonamiento subsimbólico, se espera que la IA situada, la inteligencia computacional o la IA estadística proporcionen formas de representar este tipo de conocimiento.
-
Planificación
Los agentes inteligentes deben ser capaces de fijar metas y alcanzarlas. Necesitan una manera de visualizar el futuro y ser capaces de tomar decisiones.
En los problemas clásicos de planificación, el agente puede asumir que es el único sistema que actúa en el mundo, lo que le permite estar seguro de las consecuencias de sus acciones. Sin embargo, si el agente no es el único actor, entonces requiere que el agente pueda razonar bajo incertidumbre.
La planificación multiagente utiliza la cooperación y la competencia de muchos agentes para lograr un objetivo determinado.
-
Aprender
El aprendizaje automático es el estudio de algoritmos informáticos que mejoran automáticamente a través de la experiencia.
El aprendizaje supervisado incluye tanto la clasificación como regresión numérica, que requiere que un humano etiquete los datos de entrada.
La teoría del aprendizaje computacional puede evaluar a los estudiantes por la complejidad computacional, por la complejidad de la muestra (cuántos datos se requieren), o por otras nociones de optimización.
En el aprendizaje de refuerzo el agente es recompensado por las buenas respuestas y castigado por las malas. El agente utiliza esta secuencia de recompensas y castigos para formar una estrategia para operar en su espacio problemático.
-
Procesamiento del lenguaje natural
El procesamiento del lenguaje natural les da a las máquinas la habilidad de leer y entender el lenguaje humano.
Un potente sistema PNL permitiría interfaces en lenguaje natural y adquisición de conocimientos de fuentes escritas por el hombre. Algunas aplicaciones sencillas incluyen la recuperación de información, la minería de textos, la respuesta a preguntas y la traducción automática.
Más allá de la PNL semántica, el objetivo final de la PNL “narrativa” es encarnar una comprensión completa del razonamiento con sentido común.
-
Percepción
La percepción de la máquina es la capacidad de utilizar la entrada de los sensores; tales como cámaras (de espectro visible o infrarrojo), micrófonos, señales inalámbricas y sensores para deducir aspectos del mundo.
Las aplicaciones incluyen el reconocimiento de voz, el reconocimiento facial y el reconocimiento de objetos.
Tal entrada suele ser ambigua; un peatón de cincuenta metros de altura y muy lejos, puede producir exactamente los mismos píxeles que un peatón cercano de tamaño normal; lo que requiere que la IA juzgue la probabilidad relativa y lo razonable de las diferentes interpretaciones.
-
Movimiento y manipulación
Los brazos robóticos avanzados y otros robots industriales, pueden aprender de la experiencia cómo moverse eficientemente.
Un robot móvil moderno, cuando se le da un entorno pequeño, estático y visible, puede determinar fácilmente su ubicación y trazar un mapa de su entorno; sin embargo, los entornos dinámicos, como (en la endoscopia) el interior del cuerpo respiratorio de un paciente, plantean un reto mayor.
La paradoja de Moravec generaliza que las habilidades sensomotrices de bajo nivel que los humanos dan por sentadas son, contra intuición, difíciles de programar en un robot.
-
Inteligencia social
La paradoja de Moravec puede extenderse a muchas formas de inteligencia social.
La computación afectiva es un paraguas interdisciplinario que comprende sistemas que reconocen, interpretan, procesan o simulan los afectos humanos.
Entre los éxitos moderados en este aspecto, se incluyen el análisis de sentimientos textuales y el análisis de afectos multimodales; en el que la inteligencia artificial clasifica los afectos que se muestran en un sujeto videograbado.
A largo plazo, las habilidades sociales y la comprensión de las emociones humanas y la teoría del juego serían valiosas para un agente social.
Algunos sistemas informáticos imitan las emociones y expresiones humanas para que parezcan más sensibles a la dinámica emocional de la interacción humana, o para facilitar de otro modo la interacción hombre-computadora.
-
Inteligencia general
Históricamente, proyectos como la base de conocimientos Cyc (1984) y la iniciativa japonesa masiva de Sistemas Informáticos de Quinta Generación (1982-1992) intentaron cubrir la amplitud de la cognición humana.
Estos primeros proyectos no lograron escapar a las limitaciones de los modelos lógicos simbólicos no cuantitativos. Hoy en día, la gran mayoría de los investigadores actuales de la IA trabajan en aplicaciones de “IA estrecha” manejables (como el diagnóstico médico o la navegación en automóviles).
Muchos investigadores predicen que este trabajo de “IA estrecha” en diferentes dominios individuales será eventualmente incorporado a una máquina con inteligencia general artificial (AGI).
Enfoques
No existe una teoría o paradigma unificador establecido que guíe la investigación de la IA. Por lo tanto los distintos enfoques que abarca son:
-
Cibernética y simulación cerebral
En 1940 y 1950, varios investigadores exploraron la conexión entre la neurobiología, la teoría de la información y la cibernética.
Algunos de ellos construyeron máquinas que utilizaban redes electrónicas para exhibir inteligencia rudimentaria; como las tortugas de W. Grey Walter y la Bestia de Johns Hopkins.
-
Simbólico
Cuando el acceso a las computadoras digitales se hizo posible a mediados de la década de 1950, la investigación de la IA comenzó a explorar la posibilidad de que la inteligencia humana pudiera reducirse a la manipulación de símbolos.
La investigación se centró en tres instituciones: Carnegie Mellon University, Stanford y MIT; y cada una desarrolló su propio estilo de investigación.
Durante 1960, los enfoques simbólicos lograron éxito en la simulación del pensamiento de alto nivel en pequeños programas de demostración.
Los investigadores de los años sesenta y setenta estaban convencidos de que los enfoques simbólicos lograrían finalmente crear una máquina con inteligencia general artificial.
-
Simulación cognitiva
El economista Herbert Simon y Allen Newell estudiaron las habilidades de resolución de problemas humanos e intentaron formalizarlas.
Su trabajo fundamentó la IA, así como de la ciencia cognitiva, la investigación operativa y la ciencia de la gestión.
Su equipo de investigación utilizó resultados de experimentos psicológicos para desarrollar programas que simularan las técnicas que la gente usaba para resolver problemas.
Esta tradición, centrada en la Universidad Carnegie Mellon, culminaría eventualmente en el desarrollo de la arquitectura Soar.
-
Basado en la lógica
John McCarthy sentía que las máquinas no necesitaban simular el pensamiento humano, sino procurar encontrar la esencia del razonamiento abstracto y la resolución de problemas; independientemente de si las personas utilizaban los mismos algoritmos.
Su laboratorio en Stanford (SAIL) se centró en el uso de la lógica formal para resolver una amplia variedad de problemas; incluyendo la representación del conocimiento, la planificación y el aprendizaje.
-
Basado en el conocimiento
El componente clave para los sistemas expertos es la base de conocimiento (almacenando hechos y reglas que ilustran la IA).
La revolución del conocimiento también fue impulsada por la comprensión de que se necesitarían enormes cantidades de conocimiento para muchas aplicaciones simples de IA.
-
Inteligencia encarnada
Investigadores del campo relacionado de la robótica, como Rodney Brooks, se centraron en los problemas básicos de ingeniería que permitirían a los robots moverse y sobrevivir.
Su trabajo revivió el punto de vista no simbólico de los primeros investigadores de la cibernética de la década de 1950 y reintrodujo el uso de la teoría de control en la IA.
Esto coincidió con el desarrollo de la tesis de la mente encarnada en el campo relacionado de la ciencia cognitiva; idea de que aspectos del cuerpo (como el movimiento, la percepción y la visualización) son necesarios para la inteligencia superior.
-
Inteligencia computacional y soft computing
El interés por las redes neuronales y el “conexionismo” fue reavivado por David Rumelhart y otros alrededor de los 80.
Las redes neuronales artificiales son un ejemplo de computación blanda. Son soluciones a problemas que no pueden resolverse con total certeza lógica, en los que una solución aproximada es suficiente.
Otros enfoques de computación suave para la IA incluyen sistemas difusos, computación evolutiva y muchas herramientas estadísticas.
Herramientas
AI ha desarrollado un gran número de herramientas para resolver los problemas más difíciles de la informática.
A continuación, se examinan algunos de los métodos más generales:
-
Búsqueda y optimización
El razonamiento puede reducirse a realizar una búsqueda. Por ejemplo, algoritmos de planificación de la búsqueda a través de árboles de objetivos y subobjetivos, intentando encontrar un camino hacia un objetivo; un proceso llamado análisis de fines de medios.
Los algoritmos de robótica para mover extremidades y agarrar objetos utilizan búsquedas locales en el espacio de configuración.
Sin embargo, las simples búsquedas exhaustivas rara vez son suficientes; el espacio de búsqueda crece rápidamente hasta convertirse en números astronómicos.
La solución: utilizar “heurística” (reglas generales) para priorizar opciones en favor de aquellas con más probabilidades de alcanzar una meta.
Un tipo muy diferente de búsqueda se basa en la teoría matemática de la optimización.
Estos algoritmos se pueden visualizar como una escalada ciega:
- Comenzamos la búsqueda en un punto aleatorio del paisaje.
- Y luego, mediante saltos o escalones, seguimos moviéndonos cuesta arriba, hasta llegar a la cima.
-
Lógica
En la investigación de la IA se utilizan varias formas diferentes de lógica:
- La lógica propositiva: implica funciones de verdad como “o” y “no”.
- La lógica de primer orden: añade cuantificadores y predicados; puede expresar hechos sobre objetos, sus propiedades y sus relaciones entre sí.
- La teoría de conjuntos difusos: asigna un “grado de verdad” (entre 0 y 1) a afirmaciones vagas; como “Alicia es vieja” (o rica, o alta, o hambrienta) que son demasiado imprecisas lingüísticamente para ser completamente verdaderas o falsas.
- La lógica difusa: se utiliza con éxito en los sistemas de control para permitir que los expertos aporten reglas vagas como “si estás cerca de la estación de destino y te mueves rápido, aumenta la presión de frenado del tren”; estas reglas vagas pueden ser refinadas numéricamente dentro del sistema.
- La lógica por defecto, la lógica no monótona y la circunscripción: son formas de lógica diseñadas para ayudar con el razonamiento por defecto y el problema de la calificación.
Se han diseñado varias extensiones de la lógica para manejar dominios específicos del conocimiento.
-
Métodos probabilísticos para el razonamiento incierto
Muchos problemas en la IA requieren que el agente opere con información incompleta o incierta.
Los investigadores de la IA han ideado una serie de herramientas poderosas para resolver estos problemas utilizando métodos de la teoría de la probabilidad y la economía.
Las redes bayesianas son una herramienta muy general que puede ser utilizada para un gran número de problemas:
- Razonamiento (usando el algoritmo de inferencia bayesiana),
- Aprendizaje (usando el algoritmo de maximización de expectativas),
- Planificación (usando redes de decisión) y
- Percepción (usando redes bayesianas dinámicas).
Los algoritmos probabilísticos también pueden ser usados para filtrar, predecir, suavizar y encontrar explicaciones para las corrientes de datos
Las redes bayesianas se utilizan en Xbox Live para clasificar y emparejar a los jugadores. AdSense utiliza una red bayesiana con más de 300 millones de bordes para saber qué anuncios servir.
-
Clasificadores y métodos de aprendizaje estadístico
Las aplicaciones de IA más sencillas se pueden dividir en dos tipos:
- Clasificadores (“si brillan, entonces diamante”) y
- Controladores (“si brillan, entonces se recogen”).
Sin embargo, los controladores también clasifican las condiciones antes de inferir acciones, y por lo tanto la clasificación forma una parte central de muchos sistemas de IA.
Por otro lado, los clasificadores son funciones que utilizan la coincidencia de patrones para determinar la coincidencia más cercana. Se pueden ajustar según los ejemplos, lo que los hace muy atractivos para su uso en la IA.
Un clasificador puede ser entrenado de varias maneras; hay muchos enfoques estadísticos y de aprendizaje automático:
- El árbol de decisión, es quizás el algoritmo de aprendizaje de máquina más ampliamente utilizado.
- Métodos de núcleo como la máquina vectorial de apoyo (SVM),
- El modelo de mezcla gaussiano y
- El muy popular e ingenuo clasificador de Bayes.
-
Redes neuronales artificiales
Una simple “neurona” N acepta la entrada de otras múltiples neuronas; cada una de las cuales, cuando se activan (o “disparan”), emiten un “voto” ponderado a favor o en contra de si la neurona N debe activarse o no.
El aprendizaje requiere un algoritmo para ajustar estas ponderaciones basado en los datos del entrenamiento.
Un algoritmo simple (apodado “disparar juntos, alambrar juntos”) es aumentar el peso entre dos neuronas conectadas cuando la activación de una desencadena la activación exitosa de la otra.
Las redes neuronales modernas pueden aprender tanto funciones continuas como, sorprendentemente, operaciones lógicas digitales. Los primeros éxitos de las redes neuronales incluyeron:
- La predicción del mercado de valores y
- Un coche que en su mayor parte era autopropulsado
Las principales categorías de redes son las redes neuronales acíclicas o de retroalimentación (donde la señal pasa en una sola dirección) y las redes neuronales recurrentes (que permiten la retroalimentación y las memorias a corto plazo de eventos de entrada anteriores).
-
Redes neurales de retroalimentación profunda
El aprendizaje profundo es cualquier red neural artificial que puede aprender una larga cadena de eslabones causales.
El aprendizaje profundo ha transformado muchos subcampos importantes de la inteligencia artificial; incluyendo la visión artificial, el reconocimiento del habla, el procesamiento del lenguaje natural y otros.
El aprendizaje profundo a menudo utiliza redes neuronales convolucionales (CNNs), cuyos orígenes se remontan al Neocognitrón introducido por Kunihiko Fukushima en 1980. En 1989, Yann LeCun y sus colegas aplicaron la retropropagación a dicha arquitectura.
Las CNNs con 12 capas convolucionales fueron usadas en conjunto con el aprendizaje de refuerzo por “AlphaGo Lee” de Deepmind; el programa que venció a un campeón de Go en 2016.
Aplicaciones
La IA es relevante para cualquier tarea intelectual. Las técnicas modernas de inteligencia artificial son omnipresentes y son demasiado numerosas.
Ejemplos destacados de la IA son:
- Los vehículos autónomos (como los aviones no tripulados, camiones, buses o coches),
- El diagnóstico médico,
- La creación de arte (como la poesía),
- La demostración de teoremas matemáticos,
- Los juegos (como el ajedrez o el Go),
- Los motores de búsqueda (como la búsqueda en Google),
- Asistentes en línea (como Siri),
- El reconocimiento de imágenes en fotografías,
- Filtrado de spam,
- La predicción de retrasos en los vuelos,
- Predicción de decisiones judiciales y autobuses voladores
- La selección de anuncios en línea como blanco.
Cuidado de la salud
En 2016, un estudio pionero en California encontró que una fórmula matemática desarrollada con la ayuda de AI determinó correctamente la dosis exacta de medicamentos inmunosupresores para administrar a los pacientes.
La inteligencia artificial está irrumpiendo en la industria de la salud al ayudar a los médicos. Según Bloomberg Technology, Microsoft ha desarrollado IA para encontrar tratamientos contra el cáncer.
Otro estudio está usando la inteligencia artificial para tratar de monitorear a múltiples pacientes de alto riesgo; haciendo a cada paciente numerosas preguntas basadas en los datos adquiridos de interacciones entre médicos y pacientes.
-
Automotriz
Avances en la IA han contribuido al crecimiento de la industria automotriz con la creación y evolución de vehículos autoconducción.
Desde 2016, hay más de 30 empresas que utilizan la IA en la creación de coches sin conductor. Algunas de las compañías involucradas con la IA son Tesla, Google y Apple.
Los recientes desarrollos en automóviles autónomos han hecho posible la innovación de los camiones autopropulsados, aunque todavía están a pruebas.
Un factor principal que influye en la capacidad de funcionamiento de un automóvil sin conductor es la cartografía. En general, el vehículo se preprogramaría con un mapa de la zona que se está conduciendo.
Este mapa incluiría datos sobre las aproximaciones de las alturas de las farolas y de las aceras para que el vehículo conozca su entorno. Sin embargo, Google ha estado trabajando en un algoritmo para crear un dispositivo capaz de ajustarse a nuevos entornos.
-
Finanzas y economía
Los bancos utilizan sistemas de inteligencia artificial hoy en día para organizar operaciones, mantener la contabilidad, invertir en acciones y administrar propiedades.
La IA puede reaccionar a los cambios de la noche a la mañana o cuando el negocio no está en marcha.
La IA también ha reducido el fraude y los delitos financieros, monitoreando patrones de comportamiento de usuarios al buscar anomalías.
Además, las máquinas de IA reducen la asimetría de información en el mercado y, por lo tanto, hacen que los mercados sean más eficientes, a la vez que reducen el volumen de operaciones.
-
Videojuegos
La IA se utiliza rutinariamente para generar un comportamiento dinámico y con un propósito en los personajes no jugadores (NPC).
Además, se utilizan rutinariamente técnicas de IA bien entendidas para la búsqueda de pistas.
Los juegos con IA más atípicos incluyen el director de IA de Left 4 Dead (2008) y el entrenamiento neuroevolutivo de los pelotones en Supreme Commander 2 (2010).
-
Militar
Los aviones teledirigidos militares capaces de actuar de forma autónoma se consideran en general un activo útil.
En 2017, Vladimir Putin declaró: “Quienquiera que se convierta en líder de IA se convertirá en el gobernante del mundo”.
Muchos investigadores de inteligencia artificial tratan de distanciarse de las aplicaciones militares de la inteligencia artificial.
-
Auditoría
Las herramientas de IA pueden analizar muchos conjuntos de información diferente de forma inmediata.
El beneficio potencial sería reducir el riesgo general de auditoría, aumentar el nivel de seguridad y disminuir la duración.
-
Publicidad
Es posible utilizar la IA para predecir o generalizar el comportamiento de clientes a partir de sus huellas digitales; el objetivo es dirigirlos con promociones personalizadas.
Un caso documentado informa de que las compañías de juegos de azar en línea estaban utilizando la IA para mejorar la captación de clientes.
Además, la aplicación de modelos de Inteligencia Artificial de Personalidad puede ayudar a reducir el costo de las campañas publicitarias.
-
Arte
La Inteligencia Artificial ha inspirado numerosas aplicaciones creativas, incluyendo su uso para producir arte visual.
Exposiciones recientes que muestran el uso de la IA para producir arte incluyen el beneficio patrocinado por Google y la subasta en la Gray Area Foundation en San Francisco, donde los artistas experimentaron con el algoritmo deepdream y la exposición “Unhuman.
En la primavera de 2018, la Asociación de Maquinaria Informática dedicó un número especial de la revista al tema de las computadoras y el arte; destacando el papel de la máquina de aprendizaje en las artes.