Blog
Campo interdisciplinario que permite a los computadores una comprensión de alto nivel a partir de imágenes o vídeos digitales.
Desde la perspectiva de la ingeniería, busca automatizar las tareas que el sistema visual humano puede realizar.
Las tareas de la visión por computador incluyen métodos para adquirir, procesar, analizar y comprender imágenes digitales; así como también la extracción de datos de alta dimensión del mundo real para producir información numérica o simbólica.
¿De qué se trata?
La acción del ser humano denominada “Comprender” implica la transformación de imágenes visuales (la entrada de la retina) en descripciones del mundo real que pueden interactuar con otros procesos de pensamiento y provocar la acción apropiada.
Ahora bien desde el punto de vista científico, la visión por computador se ocupa de la teoría detrás de los sistemas artificiales que extraen información de las imágenes. A su vez, los datos de imagen pueden tomar muchas formas, como secuencias de vídeo, vistas de múltiples cámaras o datos multidimensionales de un escáner médico.
Por otro lado, como disciplina tecnológica, la visión por computador busca aplicar dichas teorías y modelos para construir sistemas avanzados. En este sentido, los subdominios de la visión por ordenador incluyen:
- La reconstrucción de escenas,
- La detección de eventos,
- El seguimiento por vídeo,
- El reconocimiento de objetos,
- La estimación de poses en 3D,
- El aprendizaje,
- La indexación,
- La estimación del movimiento y
- La restauración de imágenes.
Origen
La visión por computador comenzó en universidades pioneras en inteligencia artificial, a finales de la década de 1960.
Más tarde, en 1966, se creía que esto podía lograrse a través de un proyecto de verano, conectando una cámara a un ordenador y haciendo que “describiera lo que veía”.
Lo que distinguía a la visión por computador del campo predominante del procesamiento digital de imágenes en aquella época era el deseo de extraer la estructura tridimensional de las imágenes con el objetivo de lograr una comprensión completa de la escena.
Mas tarde, estudios en los años 70 formaron los primeros cimientos de muchos algoritmos de visión por computador que existen actualmente; a saber:
- La extracción de bordes de imágenes,
- El etiquetado de líneas,
- El modelado no poliédrico y poliédrico,
- La representación de objetos como interconexiones de estructuras más pequeñas,
- El flujo óptico y
- La estimación del movimiento.
Posteriormente, se realizaron estudios basados en un análisis matemático más riguroso y en aspectos cuantitativos de la visión por computador. Es decir:
- El concepto de escala-espacio,
- La inferencia de la forma a partir de varias claves como el sombreado,
- La textura y el enfoque y
- Los modelos de contorno conocidos como serpientes.
Antecedentes
En la década de 1990, algunos de los temas de investigación anteriores se volvieron más activos que otros. Por ejemplo:
- La investigación en reconstrucciones proyectivas en 3-D condujo a una mejor comprensión de la calibración de la cámara.
- Los métodos de optimización para la calibración de cámaras, dejo ver que ya se habían explorado muchas de las ideas en la teoría del ajuste de paquetes desde el campo de la fotogrametría. Esto condujo a métodos para reconstrucciones tridimensionales dispersas de escenas a partir de múltiples imágenes.
- Se avanzó en el problema de la correspondencia estereoscópica densa y en otras técnicas estereoscópicas multivisión.
- Durante esta década se emplearon técnicas de aprendizaje estadístico en la práctica para reconocer rostros en imágenes.
- Se utilizaron variaciones de corte de gráficos para resolver la segmentación de imágenes.
- Finalizando los años 90, se produjo un cambio significativo con el aumento de la interacción entre los campos de la infografía y la visión por computador. Esto incluía el renderizado basado en imágenes, el morphing de imágenes, la interpolación de vistas, el cosido panorámico de imágenes y el renderizado temprano del campo luminoso.
Campos de estudio relacionados
-
Inteligencia Artificial
La inteligencia artificial se ocupan de la planificación o deliberación autónoma para que los sistemas robóticos naveguen en un entorno. Se requiere un conocimiento detallado de estos entornos para navegar a través de ellos.
Por ejemplo, la información sobre el medio ambiente puede ser proporcionada por un sistema de visión por ordenador, que actúa como un sensor de visión y proporciona información de alto nivel sobre el entorno y el robot.
La inteligencia artificial y la visión artificial comparten otros temas como el reconocimiento de patrones y las técnicas de aprendizaje. En consecuencia, la visión por computador se considera parte de la inteligencia artificial o de la informática en general.
-
Ingeniería de la Información
La visión por computador se considera a menudo parte de la ingeniería de la información.
-
Física de estado sólido
La física del estado sólido es otro campo que está estrechamente relacionado con la visión por ordenador.
La mayoría de los sistemas de visión por ordenador se basan en sensores de imagen, que detectan la radiación electromagnética, que suele ser en forma de luz visible o infrarroja.
Cabe destacar que los sensores están diseñados usando física cuántica.
El proceso por el cual la luz interactúa con las superficies se explica mediante la física. La física explica el comportamiento de la óptica, parte esencial de la mayoría de los sistemas de imágenes.
Además, la visión por ordenador en ocasiones es usado para resolver problemas de medición en física; por ejemplo, el movimiento en los fluidos.
-
Neurobiología
Un tercer campo que juega un papel importante es la neurobiología, específicamente el estudio del sistema de visión biológica.
Durante el último siglo, se ha realizado un extenso estudio de los ojos, las neuronas y las estructuras cerebrales dedicadas al procesamiento de estímulos visuales tanto en humanos como en varios animales.
Esto ha llevado a una descripción tosca, pero complicada, del funcionamiento de los sistemas de visión “reales” para resolver tareas.
Estos resultados han llevado a un subcampo dentro de la visión artificial donde los sistemas artificiales están diseñados para imitar el procesamiento y el comportamiento de los sistemas biológicos, a diferentes niveles de complejidad.
Además, algunos de los métodos basados en el aprendizaje desarrollados dentro de la visión por ordenador tienen sus antecedentes en la biología.
Por ejemplo, la red neuronal y el aprendizaje profundo basado en imagen, el análisis y clasificación de características.
Así como muchas líneas de investigación sobre la IA están estrechamente relacionadas con la investigación de la conciencia humana, algunas líneas de investigación sobre la visión por computador están estrechamente relacionadas con el estudio de la visión biológica.
El campo de la visión biológica estudia y modela los procesos fisiológicos detrás de la percepción visual en humanos y animales.
El intercambio interdisciplinario entre la visión biológica y la visión por computador ha demostrado ser fructífero en ambos campos.
-
Procesamiento de señales
Otro campo relacionado con la visión por computador es el procesamiento de señales.
Muchos métodos de procesamiento de señales monovariables, típicamente señales temporales, pueden extenderse de forma natural al procesamiento de señales de dos variables o de señales multivariables en visión por computador.
Sin embargo, debido a la naturaleza específica de las imágenes, existen muchos métodos desarrollados dentro de la visión artificial que no tienen contrapartida en el procesamiento de señales univariables junto con la multidimensionalidad de la señal; esto define un subcampo en el procesamiento de la señal como parte de la visión por computador.
-
Otros campos
Adicional a los puntos de vista antes mencionados sobre la visión por computador, cabe señalar que muchos de los temas de investigación relacionados también pueden ser estudiados desde un punto de vista puramente matemático.
Por ejemplo, diversos métodos de visión por computador se basan en estadísticas, optimización o geometría.
Sin duda es un área que se encuentra en casi todo aspecto de la vida; pues la visión por computador incluso se utiliza en el comercio electrónico de moda, gestión de inventarios, búsqueda de patentes, muebles e industria de la belleza.
Distinciones entre áreas similares
Los campos más estrechamente relacionados con la visión por computador son el procesamiento de imágenes y el análisis de imágenes. Existe un solapamiento significativo en la gama de técnicas y aplicaciones que éstas cubren.
Por tal motivo, parece necesario que los grupos de investigación, revistas científicas, congresos y empresas se presenten o comercialicen como pertenecientes específicamente a uno de estos campos.
De allí que se presenten varias caracterizaciones que distinguen a cada uno de ellos.
Caracterizaciones:
-
El procesamiento de imágenes y el análisis de imágenes
Estos campos tienden a centrarse en las imágenes 2D, en cómo transformar una imagen en otra.
Por ejemplo, mediante operaciones en píxeles como la mejora del contraste, operaciones locales como la extracción de bordes o la eliminación de ruido, o transformaciones geométricas como la rotación de la imagen.
Esta caracterización implica que el procesamiento/análisis de imágenes no requiere suposiciones ni produce interpretaciones sobre el contenido de la imagen.
-
Visión por ordenador
Incluye el análisis 3D de imágenes 2D. Este analiza la escena 3D proyectada en una o varias imágenes.
Por ejemplo, cómo reconstruir la estructura u otra información sobre la escena 3D a partir de una o varias imágenes.
La visión por computador a menudo se basa en suposiciones más o menos complejas sobre la escena representada en una imagen.
-
Visión artificial
Es el proceso de aplicación de una gama de tecnologías y métodos para proporcionar inspección automática basada en imágenes, control de procesos y guía robótica en aplicaciones industriales.
La visión artificial suele centrarse en aplicaciones, principalmente en la fabricación; por ejemplo, robots basados en visión y sistemas para la inspección basada en visión, la medición o la preparación de pedidos (como la preparación de pedidos).
Esto implica que las tecnologías de sensores de imagen y la teoría de control a menudo se integran con el procesamiento de datos de imagen para controlar un robot y que el procesamiento en tiempo real se enfatiza mediante implementaciones eficientes en hardware y software.
-
Imagenología
Este campo se centra principalmente en el proceso de producción de imágenes, pero que a veces también se ocupa del procesamiento y análisis de imágenes.
Por ejemplo, las imágenes médicas incluyen un trabajo sustancial en el análisis de datos de imágenes en aplicaciones médicas.
-
Reconocimiento de patrones
Es un campo que utiliza varios métodos para extraer información de las señales en general, basados principalmente en enfoques estadísticos y redes neuronales artificiales. Una parte significativa de este campo se dedica a aplicar estos métodos a los datos de imagen.
-
Fotogrametría
Esta área también se superpone con la visión por ordenador; por ejemplo, la estereofotogrametría frente a la visión estereoscópica por ordenador.
Usos y aplicaciones
Las aplicaciones van desde tareas como los sistemas industriales de visión artificial, como la inspección de botellas en una línea de producción, hasta la investigación en inteligencia artificial y ordenadores o robots que pueden comprender el mundo que les rodea.
El campo de visión por computador cubre la tecnología central del análisis automatizado de imágenes que se utiliza en muchos campos. A saber:
- Análisis automático de imágenes con inspección automatizada y guía robótica en aplicaciones industriales.
- Modelos capaces de generar y reconstruir formas en 3D a partir de mapas de profundidad o siluetas de una o varias vistas de forma transparente y eficiente.
- Ayudar a los seres humanos en las tareas de identificación, por ejemplo, un sistema de identificación de especies.
- Control de procesos: robot industrial.
- Detección de eventos: para vigilancia visual o conteo de personas.
- Modelado de objetos o entornos: análisis de imágenes médicas o modelado topográfico.
- Navegación: mediante un vehículo autónomo o un robot móvil.
- Organización de la información: para indexar bases de datos de imágenes y secuencias de imágenes.
- Soporte para la creación de efectos visuales para cine y televisión, por ejemplo, seguimiento de cámaras (matchmoving).
Visión médica por computador
El procesamiento de imágenes médicas se caracteriza por la extracción de información de datos de imágenes para diagnosticar a un paciente.
- Detección de tumores, arteriosclerosis u otros cambios malignos.
- Medición de las dimensiones de los órganos, el flujo sanguíneo, etc.
También por brindar apoyo en la investigación médica proporcionando nueva información:
- Estructura del cerebro y calidad de los tratamientos médicos.
Y al proporcionar mejora en las imágenes interpretadas por el ser humano:
- Reducción de influencia del ruido en imágenes ultrasónicas o de rayos X.
Visión por computador en la industria
Tal como se indicó anteriormente la visión por computador permite extraer información utilizada con el propósito de apoyar un proceso de fabricación. Por ejemplo:
- Control de calidad que consiste en la inspección automática para encontrar defectos en productos finales.
- Medición de la posición y orientación de los detalles que debe recoger un brazo robot.
- La visión artificial también se utiliza mucho en los procesos agrícolas para eliminar productos alimenticios indeseables del material a granel, un proceso llamado clasificación óptica.
Aplicaciones militares
Las aplicaciones militares son probablemente una de las áreas más grandes para la visión por computador.
Los ejemplos obvios son la detección de soldados o vehículos enemigos y la guía de misiles. Los sistemas más avanzados de orientación de misiles envían el misil a una zona en vez de a un objetivo específico, y la selección del objetivo se realiza cuando el misil llega a la zona sobre la base de datos de imágenes obtenidos localmente.
Los conceptos militares modernos, como la “conciencia del campo de batalla“, implican que varios sensores, incluidos los sensores de imagen, proporcionan un rico conjunto de información sobre una escena de combate que puede utilizarse para apoyar las decisiones estratégicas.
Vehículos autónomos
Una de las nuevas áreas de aplicación son los vehículos autónomos. Estos incluyen sumergibles, vehículos terrestres (pequeños robots con ruedas, coches o camiones), vehículos aéreos y los vehículos aéreos no tripulados (UAV).
El nivel de autonomía varía desde vehículos totalmente autónomos (no tripulados) hasta vehículos en los que los sistemas basados en la visión por computador apoyan a un conductor o a un piloto en diversas situaciones.
Los vehículos totalmente autónomos suelen utilizar la visión por ordenador para la navegación, es decir, para saber dónde está o para elaborar un mapa de su entorno (SLAM) y para detectar obstáculos.
También se puede utilizar para detectar ciertos eventos específicos de la tarea, por ejemplo, un vehículo aéreo no tripulado en busca de incendios forestales. Ejemplos de sistemas de apoyo son los sistemas de alerta de obstáculos en los automóviles y los sistemas para el aterrizaje autónomo de aeronaves.
Varios fabricantes de automóviles han sacado a la luz sistemas para la conducción autónoma de automóviles, pero esta tecnología todavía no ha alcanzado un nivel que permita su comercialización.
Por otro lado, existen numerosos ejemplos de vehículos militares autónomos que van desde misiles avanzados hasta vehículos aéreos no tripulados para misiones de reconocimiento u orientación de misiles.
Y, la exploración espacial ya se está realizando vehículos autónomos que utilizan la visión por ordenador; por ejemplo, el Mars Exploration Rover de la NASA y el ExoMars Rover de la ESA.
Tareas comunes
Cada una de las áreas de aplicación descritas anteriormente emplea una serie de tareas de visión por ordenador: problemas de medición o problemas de procesamiento más o menos bien definidos, que pueden resolverse utilizando una variedad de métodos. Por ejemplo:
- Métodos para adquirir, procesar, analizar y comprender imágenes digitales, y
- La extracción de datos de alta dimensión del mundo real para producir información numérica o simbólica, por ejemplo, en forma de decisiones.
Reconocimiento
El problema clásico en la visión por computador es determinar si los datos de la imagen contienen o no algún objeto, característica o actividad específica.
En la literatura se describen diferentes variedades del problema de reconocimiento:
- Reconocimiento de objetos (también llamado clasificación de objetos):
Se pueden reconocer uno o varios objetos o clases de objetos previamente especificados o aprendidos, normalmente junto con sus posiciones 2D en la imagen o poses 3D en la escena.
- Identificación:
Se reconoce una instancia individual de un objeto. Los ejemplos incluyen la identificación de la cara o huellas dactilares de una persona específica, la identificación de dígitos escritos a mano o la identificación de un vehículo específico.
- Detección:
Los datos de la imagen son escaneados para una condición específica. Los ejemplos incluyen:
- Detección de posibles células o tejidos anormales en imágenes médicas.
- Detección de un vehículo en un sistema automático de peaje de carretera.
La detección basada en cálculos relativamente simples y rápidos se utiliza a veces para encontrar regiones más pequeñas de datos de imagen interesantes. Estas imágenes pueden ser analizados más a fondo mediante técnicas más exigentes desde el punto de vista computacional para producir una interpretación correcta.
Actualmente, los mejores algoritmos para estas tareas se basan en redes neuronales convolucionales; una clase de redes neuronales artificiales profundas y avanzadas aplicadas comúnmente en el análisis de imágenes visuales.
El Desafío de Reconocimiento Visual a Gran Escala de ImageNet.
Este es un punto de referencia en la clasificación y detección de objetos, con millones de imágenes y cientos de clases de objetos.
El rendimiento de las redes neuronales convolucionales, en las pruebas de ImageNet, se acerca ahora al de los humanos.
Los mejores algoritmos siguen luchando con objetos pequeños o delgados, como una pequeña hormiga en el tallo de una flor o una persona con una pluma en la mano.
También tienen problemas con las imágenes que han sido distorsionadas con filtros (un fenómeno cada vez más común con las cámaras digitales modernas).
Sin embargo, a la hora de clasificar objetos en clases de grano fino, o identificar la raza particular de perro lo manejan con facilidad.
Existen varias tareas especializadas basadas en el reconocimiento, tales como:
-
Estimación de posición
Estimar la posición u orientación de un objeto específico en relación con la cámara. Un ejemplo de aplicación de esta técnica sería ayudar a un brazo robótico a recuperar objetos de una cinta transportadora en una situación de línea de montaje o a recoger piezas de un contenedor.
-
Reconocimiento óptico de caracteres (OCR)
Caracteres de identificación en imágenes de texto impreso o manuscrito; normalmente con el fin de codificar el texto en un formato más susceptible de edición o indexación (por ejemplo, ASCII).
-
Lectura de códigos 2D
Lectura de códigos 2D como matriz de datos y códigos QR.
-
Reconocimiento facial
Aplicación manejada por computadora que identifica de forma automática a una persona a través de una imagen digital.
-
Tecnología de reconocimiento de formas (SRT)
Sistemas de contador de personas que diferencian a los seres humanos (patrones de cabeza y hombros) de los objetos.
Análisis de movimiento
Varias tareas se relacionan con la estimación del movimiento cuando se procesa una secuencia de imágenes para producir una estimación de la velocidad en cada punto de la imagen, en la escena 3D, o incluso de la cámara que produce las imágenes .
Ejemplos de estas tareas son:
-
Egomotion:
Determinación del movimiento rígido 3D (rotación y traslación) de la cámara con la secuencia de imágenes producida por la cámara.
-
Rastreo:
Seguimiento de movimientos de un conjunto más pequeño de puntos u objetos de interés en la secuencia de imágenes; por ejemplo, vehículos, seres humanos u otros.
-
Flujo óptico:
Para determinar, por cada punto de imagen, cómo se mueve ese punto en relación con el plano de la imagen, es decir, su movimiento aparente.
Este movimiento es el resultado de cómo se mueve el punto 3D correspondiente en la escena y de cómo se mueve la cámara en relación con la escena.
-
Reconstrucción de escenas:
La reconstrucción de escenas calcula un modelo 3D de la escena, usando mínimo una imágen de una escena o video. En el caso más simple el modelo puede ser un conjunto de puntos 3D.
La llegada de las imágenes 3D que no requieren movimiento o escaneo y los algoritmos de procesamiento relacionados, están permitiendo avances rápidos en este campo.
La detección 3D basada en cuadrícula se puede utilizar para adquirir imágenes 3D desde múltiples ángulos.
-
Restauración de imágenes:
El objetivo de la restauración de imágenes es eliminar el ruido (ruido del sensor, movimiento borroso, etc.) de las imágenes.
El enfoque más simple posible para lograrlo son los diversos tipos de filtros: filtros de paso bajo o filtros medianos.
Métodos sofisticados asumen un modelo de cómo se ven las estructuras de imagen locales, un modelo para distinguirlas del ruido. Por lo tanto, la obtención de un mejor nivel de eliminación de ruido se logra haciendo lo siguiente:
Primero analizando datos de imagen mediante estructuras locales de la imagen (líneas/bordes). Y luego controlando el filtrado basado en la información local del paso de análisis.
Métodos del sistema
La organización de un sistema de visión artificial depende en gran medida de la aplicación.
Algunos sistemas son aplicaciones autónomas que resuelven un problema específico de medición o detección.
Otros constituyen un subsistema de diseño más amplio que también contiene subsistemas para el control de actuadores mecánicos, planificación, bases de datos de información, interfaces hombre-máquina, etc.
La implementación específica de un sistema de visión por computador también depende de si su funcionalidad está previamente especificada o si alguna parte de ella puede ser aprendida o modificada durante su funcionamiento.
-
Adquisición de imágenes:
Una imagen digital es producida por uno o varios sensores de imagen que, además de varios tipos de cámaras sensibles a la luz, incluyen sensores de alcance, dispositivos de tomografía, radar, cámaras ultrasónicas, etc.
Dependiendo del sensor, los datos de imagen resultantes son una imagen 2D, un volumen 3D o una secuencia de imágenes. Los valores de los píxeles corresponden típicamente a la intensidad de la luz en una o varias bandas espectrales (imágenes grises o imágenes en color).
También se relacionan con diversas medidas físicas, como la profundidad, la reflectancia de ondas sónicas (electromagnéticas) o resonancia magnética nuclear.
-
Pre-procesamiento:
Antes de que un método de visión por computador pueda ser aplicado a los datos de imagen para extraer alguna información específica, normalmente es necesario procesar los datos para asegurar que satisfacen ciertas suposiciones implícitas por el método. Algunos ejemplos son:
- Re-muestreo para asegurar que el sistema de coordenadas de la imagen es correcto.
- Reducción de ruido para asegurar que el ruido del sensor no introduzca información falsa.
- Mejora del contraste para asegurar que la información relevante pueda ser detectada.
- Escalar la representación del espacio para mejorar las estructuras de la imagen a escalas locales apropiadas.
-
Extracción de características:
Las características de la imagen en varios niveles de complejidad se extraen de los datos de la imagen. Ejemplos típicos de tales características son:
- Líneas, bordes y crestas.
- Puntos de interés localizados, como esquinas, manchas o puntos.
Las características más complejas pueden estar relacionadas con la textura, la forma o el movimiento.
-
Detección/segmentación:
En algún momento del procesamiento se decide qué puntos o regiones de la imagen son relevantes para el procesamiento posterior. Ejemplos de ello son
- Selección de un conjunto específico de puntos de interés
- Segmentación de una o varias áreas de imagen que contienen un objeto de interés específico.
- La segmentación de la imagen en una arquitectura de escena anidada.
- Segmentación o co-segmentación de uno o varios vídeos en una serie de máscaras de primer plano por fotograma, manteniendo su continuidad semántica temporal.
- Toma de decisiones:
Tomar la decisión final requerida para la aplicación, por ejemplo:
- Pasa/falla en aplicaciones de inspección automática.
- Match / no-match en aplicaciones de reconocimiento.
- Bandera para una mayor revisión humana en aplicaciones médicas, militares, de seguridad y de reconocimiento.
Sistemas de comprensión de imágenes
Los sistemas de comprensión de imágenes (IUS) incluyen tres niveles de abstracción como sigue:
- Bajo nivel: primitivas de imagen como bordes, elementos de textura o regiones.
- Nivel intermedio: límites, superficies y volúmenes.
- Alto nivel: objetos, escenas o eventos.
Los requisitos de representación en el diseño de las IUS para estos niveles son: representación de conceptos prototípicos, organización de conceptos, conocimiento espacial, conocimiento temporal, escalamiento y descripción por comparación y diferenciación.
- La inferencia:
Se refiere al proceso de derivar hechos nuevos, no representados explícitamente, de hechos actualmente conocidos.
- El control:
Consiste en el proceso que selecciona cuál de las muchas técnicas de inferencia, búsqueda y comparación debe aplicarse en una etapa particular del procesamiento.
- Requisitos de inferencia y control para el SIU:
Activación de la búsqueda y de la hipótesis, pruebas de correspondencia e hipótesis, generación y uso de expectativas, cambio y enfoque de la atención, certeza y fuerza de la creencia, inferencia y satisfacción del objetivo.
Hardware
Existen muchos tipos de sistemas de visión por computador, sin embargo, todos ellos contienen estos elementos básicos:
- Una fuente de alimentación,
- Mínimo un dispositivo de adquisición de imágenes (por ejemplo, una cámara, un ccd, etc.),
- Un procesador,
- Cables de control y comunicación o algún tipo de mecanismo de interconexión inalámbrica.
- Una pantalla para monitorizar el sistema.
Sistemas de visión para espacios interiores
La mayoría de los sistemas de visión por computador utilizan cámaras de luz visible que ven pasivamente una escena a velocidades de fotogramas de hasta 60 fotogramas por segundo (generalmente mucho más lentas).
Algunos sistemas de visión artificial utilizan hardware de adquisición de imágenes con iluminación activa o distinto a la luz visible. Por ejemplo:
- Un escáner 3D de luz estructurada,
- Una cámara termográfica,
- Un generador de imágenes hiperespectrales,
- Imágenes de radar,
- Un escáner lidar,
- Una imagen de resonancia magnética,
- Un sonar de barrido lateral,
- Un sonar de apertura sintética, etc.
Este hardware captura “imágenes”, para luego procesarlas con los algoritmos de visión por ordenador utilizados en imágenes de luz visible.
Sistemas tradicionales de transmisión y consumo de video
Operan a una velocidad de 30 cuadros por segundo. Los avances en el procesamiento de la señal digital y el hardware de gráficos de consumo han hecho posible la adquisición, procesamiento y visualización de imágenes a alta velocidad para sistemas en tiempo real del orden de cientos a miles de cuadros por segundo.
Aplicaciones en robótica,
Los sistemas de vídeo rápidos y en tiempo real son importantes para simplificar el procesamiento necesario para ciertos algoritmos. Combinarlo con un proyector de alta velocidad, la adquisición rápida de imágenes permite realizar mediciones 3D y seguimiento de características.
Sistemas de visión egocéntricos
Se componen de una cámara portátil que toma automáticamente fotografías desde una perspectiva de primera persona.
Quieres aprender más sobre este tema?
➡ Te invitamos al Curso de Visión Artificial