Primavera 2024
Este semestre, el Seminario de Teoría de la Información, Machine Learning y Estadística se centra en
conceptos básicos de probabilidad y optimización esenciales para analizar algoritmos elementales de
aprendizaje de máquina, e.g., stochastic gradient descent (SGD). El seminario está diseñado para estu-
diantes de licenciatura y maestría, y ofrece oportunidades de participación en proyectos de servicio
social relacionados con la investigación numérica de estos algoritmos y sus extensiones.
Las sesiones del seminario tendrán lugar los lunes de 12:00 a 13:30 en el Salón B-204 del IIMAS.
Para ser agregado a la lista de distribución del seminario, por favor escriba un mensaje a
mario.diaz@sigma.iimas.unam.mx
Bitácora
Fecha
Temas cubiertos
12/Febrero
Reunión organizacional.
19/Febrero
Gradiente descendente (GD); funciones de pérdida en ML; gradiente descendente estocástico (SGD).
26/Febrero
Regresión lineal; regresión logística; soluciones exactas e iterativas (GD & SGD).
4/Marzo
Experimentos numéricos con el gradiente descendente (normalizado); gradiente descendiente truncado.
11/Marzo
Experimentos numéricos con regresión lineal (soluciones exactas e iterativas).
8/Abril
Redes neuronales de una capa oculta; ecuaciones de actualización para GD & SGD.
15/Abril
Redes neuronales profundas; ecuaciones de actualización y el algoritmo de retropropagación.
22/Abril
Experimentos numéricos con redes neuronales de una capa oculta (GD & SGD).
29/Abril
Experimentos numéricos acerca del efecto de diferentes hiperparámetros en el panorama de optimización.
Seminarios Anteriores
[2023]
[2022]
[2021F]
[2021S]
[2020]
Última Actualización: mayo de 2024