Asignatura: Reconocimiento de Patrones y Aprendizaje de Máquina para Visión Computacional
Profesores:
Dr. Boris Escalante Ramírez
Dra. Olveres Montiel Jimena
Ayudante:
Erik Carbajal Degante
Tema | Título | Lectura |
---|---|---|
I | Conceptos básicos de reconocimiento de patrones | Statistical Pattern Recognition: A Review |
1 | Introducción al reconocimiento de patrones | |
2 | Problemas fundamentales en el diseño de un sistema de reconocimiento de patrones. | |
3 | Ejemplos de sistemas automáticos de reconocimiento de patrones. | |
II | Funciones de decisión | |
1 | Funciones de decisión lineales y generalizadas | |
1.1 | Espacio generado por los patrones y las constantes de peso. Vectores y espacios de características | |
1.2 | Propiedades geométricas | |
1.3 | Instrumentación de las funciones de decisión | |
1.4 | Sistemas de funciones ortogonales | |
2 | Clasificación y regresión | Regresión Lineal y Gradiente |
3 | Bases de datos en imágenes y su importancia en el área de reconocimiento de patrones y aprendizaje de máquina | Bases de datos |
III | Clasificación de patrones por medio de funciones estadísticas | Teoría de detección y Bayes Estimación Bayesiana |
1 | Revisión de probabilidad: densidad y momentos de una variable aleatoria. Densidad, correlación y covarianzas de vectores de variables aleatorias. Densidades condicionales | |
2 | Teoría de detección y estimación | |
3 | Clasificación de patrones como un problema de decisión estadístico (Maxima verosimilitud) | |
4 | Clasificación de Bayes (Naive Bayes) | |
IV | Extracción y selección de características I | |
1 | Obtención de características y mejora de la imagen: filtrado y transformación | Filtros
Transformaciones |
2 | Texturas: procesamiento estadístico: 1er O: varianza covarianza y 2º O: matriz GLCM-coocurrencia | Teoría de detección y Bayes Estimación Bayesiana Textura Estadisticos Tutorial GLCM |
3 | * Práctica con clasificador bayesiano | Artículo Texturas |
4 | Texturas: Superpixeles y LBPs | Superpixeles LBPs |
5 | Emparejamiento de características: ej: distancias eucllidiana, Mahalanobis, histogramas | Distancias |
6 | * Práctica de histograma para generar vectores de características | |
V | Extracción y selección de características II | |
1 | Detección de características basadas en esquinas y bordes | Canny Introduction to Harris Corner Detector Harris Detector |
2 | * Práctica de Reconocimiento por texturas | |
3 | Pirámides: diferencias de gausianas y laplacianas | |
4 | SIFT- Scale Invariant Feature Transform | SIFT |
5 | * Práctica SVM | |
VI | Extracción de características por transformación | |
1 | Transformada de Fourier | |
2 | Transformada de Gabor | |
3 | Transformada de Hermite | |
4 | * Práctica árboles aleatorios | |
VIII | Experimentación y métricas de clasificación | |
1 | Errores, exactitud y precisión, error medio cuadrado | |
2 | Métodos de experimentación | |
3 | Matriz de confusión | |
4 | Curva ROC | |
5 | * Proyecto Final | |
VIII | * Aprendizaje de máquina (se intercalarán estos métodos dentro de cada tema desarrollado a partir del Tema II) | |
1 | Regresión lineal y logística | |
2 | Clasificador Bayesiano ingenuo | |
3 | Clasificadores supervisados: KNN y no supervisados: K–Means | |
4 | Máquinas de soporte vectorial (SVM) | |
5 | Árboles binarios – árboles aleatorios | |
6 | Redes neuronales artificiales y convolucionales |