Descripción
En Percepción visual aplicada a la robótica se presentan los conceptos y técnicas fundamentales relacionados con la digitalización de imágenes, el procesamiento de señales en dos dimensiones, además de una introducción a la transformada Wavelet y la transformada de Hough. Se expone la cinemática de los robots manipuladores y móviles, y se presentan detalladas aplicaciones como control de robots móviles por medio de percepción visual, detección y ubicación de objetos usando sensores infrarrojos, ultrasónicos, de rango laser y cámaras, así como construcción de mapas simples y navegación, así como el filtrado en la secuencia, detección de movimiento, procesamiento de imágenes en el dominio espacial, cinemática de robots manipuladores, visión artificial, control de Hardware mediante FPGAs y sistemas de visión en base a FPGAs.
Conozca
Las técnicas de navegación utilizando los diferentes tipos de mapas y sensores, y la diferencia entre robots móviles y
manipuladores.
Aprenda
Sobre el procesamiento de imágenes en el dominio espacial con diferentes sensores utilizando diferentes tipos de señales.
Desarrolle sus habilidades para:
Aplicaciones de los dispositivos de arreglo de compuertas programables en campo y el sistema de visión en base a FPGAs.
Índice
Prefacio XIII
Introducción XV
Capítulo 1
Conceptos básicos de procesamiento de imágenes 1
1.1 Modelo de visión por computadora 2
1.2 Digitalización de imágenes 3
1.3 Adquisición de imagen 4
1.4 Relaciones básicas entre pixeles 4
1.5 Procesamiento de imágenes en el domino espacial 5
1.5.1 Tipos de procesamiento de imagen 6
1.5.2 Mejoramiento de imagen 8
1.5.3 Contraste y brillo 10
1.5.4 Realce de rangos de nivel de gris 12
1.5.5 Procesamiento de histograma 13
1.5.6 Operaciones aritméticas y lógicas 15
1.5.7 Promedio para reducción de ruido 18
1.5.8 Filtros espaciales 19
1.5.9 Filtros de suavizado 21
1.5.10 Filtros estadísticos 22
1.5.11 Filtros de nitidez 24
1.6 Procesamiento de señales en dos dimensiones 28
1.6.1 Conceptos básicos 28
1.6.2 Transformada discreta de Fourier 30
1.6.3 Correlación en dos dimensiones 34
1.7 Filtrado en la frecuencia y transformada Walevet 35
1.7.1 Método en el dominio de la frecuencia 35
1.7.2 Filtros espaciales en la frecuencia 36
1.7.3 Filtros puntuales 40
1.7.4 Introducción a la transformada Wavelet 43
1.7.5 Análisis con onduletas 46
1.7.6 Onduleta discreta 47
1.7.7 Transformada Wavelet discreta 48
1.7.8 Análisis con onduletas multinivel 50
1.7.9 Análisis con paquetes de onduletas 51
1.7.10 Transformada Wavelet en dos dimensiones 52
1.7.11 Aplicación de la transformada Wavelet 54
1.8 Segmentación de imágenes 55
1.8.1 Introducción a la segmentación de imágenes 55
1.8.2 Detección de bordes 57
1.8.3 Operador gradiente 58
1.8.4 Operador laplaciano 59
1.8.5 Encadenado de bordes 61
1.8.6 Detector de bordes Canny 62
1.8.7 Transformada de Hough 63
1.8.8 Segmentación por umbral 66
1.8.9 Segmentación por umbral sobre bordes 67
1.8.10 Segmentación basada en regiones 69
1.8.11 Crecimiento de región 71
1.9 Detección de movimiento 73
1.9.1 Introducción 73
1.9.2 Esquema genérico de detección de movimiento 73
1.9.3 Imagen de referencia 75
1.10 Resumen 78
1.11 Problemas 78
Capítulo 2
Teoría de robótica 81
2.1 Cinemática de robots manipuladores y robots móviles 82
2.1.1 Cinemática directa de robots manipuladores 82
2.1.2 Cinemática inversa de robots manipuladores 105
2.1.3 Cinemática de robots móviles 116
2.2 Tipos de sensores 134
2.2.1 Sensores para brazos manipuladores y robots móviles 134
2.2.2 Sensor de rango láser Hokuyo 141
2.3 Tipos de Mapas 148
2.3.1 Introducción 148
2.3.2 Representación de mapas geométricos 150
2.3.3 Mapas topológicos 157
2.4 Técnicas de navegación 163
2.4.1 Introducción 163
2.4.2 Algoritmos bug 163
2.4.3 Implementación de un nuevo algoritmo bug 167
2.4.4 Diagrama de flujo de datos del algoritmo bug 173
2.4.5 Desarrollo de la interfaz gráfica 178
2.5 Resumen 182
2.6 Problemas 182
Capítulo 3
Hardware para procesamiento de imágenes en robots 185
3.1 Introducción 186
3.2 Sensores para percepción visual 186
3.2.1 Sensor de luz CCD 187
3.2.2 Sensor de luz CMOS 189
3.2.3 Comparación de sensores CCD y CMOS 191
3.3 La cámara y formatos de video 192
3.3.1 Formatos y cámaras analógicas 192
3.3.2 Formatos y cámaras digitales 193
3.4 La adquisición y formación de la imagen 196
3.5 Despliegue de señales de video VGA 199
3.5.1 Señales de sincronía para pantallas VGA 200
3.5.2 Activación de pixeles en la pantalla 203
3.6 Dispositivos de arreglo de compuertas programables en campo (FPGA) 206
3.6.1 Dispositivos FPGA 208
3.6.2 FPGA Cyclone II de Altera 209
3.6.3 Arquitectura del Cyclone II 211
3.7 Resumen 213
3.8 Problemas 214
Capítulo 4
Aplicaciones 217
4.1 Detección de fugas de gas y fuego 218
4.1.1 Detección de fugas de gas 218
4.1.2 Detección de fuego 225
4.2 Control de robot móvil por medio de percepción visual 236
4.2.1 Descripción de la base de datos 236
4.2.2 Algoritmo de Detección de Señas 237
4.3 Detección y ubicación de objetos usando sensores infrarrojos, ultrasónicos, de rango láser y cámaras 256
4.3.1 Detección de objetos usando sensores ultrasónicos 256
4.3.2 Detección de objetos usando cámara de video 264
4.4 Construcción de mapas simples y navegación 273
4.4.1 Detección de objetos usando un sensor de rango láser 273
4.5 Sistema de visión en base a FPGAs 283
4.5.1 Convertidor de imágenes bayer a rgb basado en fpga 283
4.5.2 Controlador digital para monitor vga en fpga 296
4.5.3 Procesamiento de imágenes con FPGA 306
4.6 Resumen 312
Apéndice 313
Referencias Bibliográficas 319
Capítulo 1 319
Capítulo 2 319
Capítulo 3 320
Capítulo 4 321
Índice analítico 327