Accesos directos a las distintas zonas del curso
Ir a los contenidos
Ir a menú navegación principal
Ir a menú pie de página
Subject's code : 31110130
En este tema abordaremos el estudio del método estadístico de bootstrap y su aplicación para reducir la varianza de algoritmos de aprendizaje automático, en la técnica de agregación de bootstrap llamada bagging. De ahí, introduciremos los bosques aleatorios, un modelo enormemente exitoso y sencillo de utilizar, pero con particularidades matemáticas que lo hacen muy interesante.
La intensificación o boosting es una familia de algoritmos que construyen modelos generales "fuertes" a partir de modelos parciales (o "aprendices débiles"). En este tema abordaremos este paradigma de agregación de modelos que permiten mejorar las predicciones de cualquier algoritmo de aprendizaje automático.
En este tema abordaremos las técnicas de reducción de varianza englobadas bajo el término ensemble learning. Para ello haremos uso de la idea de compromiso entre sesgo y varianza, y mostraremos cómo es posible reducir la varianza de modelos que suelen presentarla alta mediante la agregación de conjuntos de esos mismos modelos.
En este tema abordaremos el estudio de aquellas técnicas de aprendizaje automático que permiten abordar la búsqueda de patrones en conjuntos de datos no etiquetados. Veremos la taxonomía de estas técnicas y las diferentes métricas de evaluación interna y externa de los resultados.