|
MATERIAL DE LAS CLASES TEÓRICAS
Clase 1. Jueves 14 de agosto de 2025
Parte única: El contexto histórico
y global del desarrollo de la IA. La cuarta transformación
tecnológica de la modernidad. Definicios de IA,
aprendizaje autom&aaucte;tico, redes neuronales y redes
neuronales profundas (aprendizaje profundo). Los pilares
de la IA: cómputo, datos y algoritmos.
¿Son las redes neuronales neuromóficas? Como funciona
una neurona. Cómo se comunican las neuronas. La
sinapsis. El paradigma conexionista.
Pizarrón
Video
Clase 2. Lunes 18 de agosto de 2025
- Parte 1:
La aceleración tecnológica. El carácter
exponencial de microelectrónica y los algoritmos
neuronales. La concentración de la riqueza en
la cuarta revolución tecnológica de la
modarnidad.
Pizarrón 1
Video 1
- Parte 2:
Sistemas dinámicos 1. Definiciones y generalidades.
La idea de ecuación diferecial y de sistema de
ecuaciones diferenciales. Ecuaciones de diferente orden.
Ecuaciones autónomas.
Pizarrón 2
Video 2
- Parte 3:
Ecuaciones diferenciales de orden superior. Ejemplos. Ecuaciones
autónomas.
Pizarrón 3
Video 3
Clase 3. Lunes 25 de agosto de 2025
- Parte 1:
Sistemas dinámicos unidimensionales. El flujo en la línea. Puntos fijos. Puntos
fijos estables e inestables. Interpretación geométrica.
Pizarrón 1
Video 1
- Parte 2:
Sistemas dinámicos 1. Definiciones y generalidades.
La idea de ecuación diferecial y de sistema de
ecuaciones diferenciales. Ecuaciones de diferente orden.
Ecuaciones autónomas.
Pizarrón 2
Video 2
Clase 4. Jueves 28 de agosto de 2025
- Parte 1:
Puntos fijos semi-estables. El problema de valor inicial. El método de
Euler para encontrar soluciones aproximadas a problemas de valor inicial bien
planteados.
Pizarrón 1
Video 1
- Parte 2:
Potenciales. Campo de velocidades o pendientes.
Pizarrón 2
Video 2
Clase 5. Lunes 1 de septiembre de 2025
- Parte 1:
Imposibilidad de soluciones oscilatorias.
Ejemplos de ecuaciones diferenciales ordinarias. Un ejemplo cuadrático. El caso lineal.
La ecuación logística.
Pizarrón 1
Video 1
- Parte 2:
Teoría de bifurcaciones.
Pizarrón 2
Video 2
Clase 6. Jueves 4 de septiembre de 2025
Clase 7. Lunes 8 de septiembre de 2025
- Parte 1:
Análisis de estabilidad lineal para sistemas
bidimensionales. Linealización y matriz jacobiana
.
Pizarrón 1
Video 1
- Parte 2:
Tipos de atractores en un sistema lineal. Autovalores y
autovectores y su interpretación dinámica.
Pizarrón 2
Video 2
- Parte 3:
Soluciones oscilatorios. Autovalores complejos conjugados.
Centros y espirales.
Pizarrón 3
Video 3
Clase 8. Lunes 15 de septiembre de 2025
- Parte 1:
Autovectores degenerados y su significado. La estabilidad a partir
del diagrama de fases traza vs. discriminante. Un ejemplo. Nullclines.
Pizarrón 1
Video 1
Clase 9. Jueves 18 de septiembre de 2025
- Parte 1:
Órbitas cerradas en el caso no lineal. Ejemplos.
El caso de potenciales.
Pizarrón 1
Video 1
- Parte 2:
Teoría de bifurcación en dos dimensiones.
Bifurcación de Hopf.
Pizarrón 2
Video 2
Clase 10. Jueves 25 de septiembre de 2025
- Parte 1:
Ecuaciones Diferenciales Ordinarias en tres dimensiones. El modelo de Lorentz.
Atractores caóticos. Exponente de Liapunov.
Pizarrón 1
Video 1
Clase 11. Lunes 29 de septiembre de 2025
- Parte 1:
Es posible reproducir el comportamiento mental en una máquina?
Analogía entre la física estadística y la
neurociencia teórica y computacional. La neurona binaria
de McCulloch y Pitts.
Pizarrón 1
Video 1
- Parte 2:
El cerebro, las neuronas y las sinapsis. El paradigma
conexionista. La neurona binaria.
Pizarrón 2
Video 2
- Parte 3:
Aprendizaje supervizado. Redes Feed-Forward. Conjunto de entrenamiento.
Pizarrón 3
Video 3
Clase 12. Jueves 2 de octubre de 2025
- Parte 1:
La contribuciones de Rosenblatt y Hopfield a las redes neuronales. La inspiración en la termodinámica
de equilibrio de sistemas vítreos. La aceleración de la IA neuronal.
Pizarrón 1
Video 1
- Parte 2:
El perceptrón simple, parte 1.
Pizarrón 2
Video 2
- Parte 3:
El perceptrón simple, parte 2.
Pizarrón 3
Video 3
Clase 13. Lunes 6 de octubre de 2025
- Parte 1:
El perceptrón simple, parte 3. El concepto de separabilidad lineal.
Pizarrón 1
Video 1
- Parte 2:
El perceptrán simple, parte 4. El algoritmo del perceptrón.
Pizarrón 2
Video 2
Clase 14. Jueves 9 de octubre de 2025
- Parte 1:
El perceptrón simple con neurona lineal. Deteminación
de los pesos sinápticos y umbral (parámetros) a partir
de un conjunto de entrenamiento. El error cuadrático medio.
El método de descenso por el gradiente. Una red neuronal
con N entradas y N salidas.
Pizarrón 1
Video 1
- Parte 2:
Repaso de la parte 1. El descenso por el gradiente determinista. La rugosidad
de la función error.
Pizarrón 2
Video 2
- Parte 3:
El perceptrón simple con neuronal no lineal. Generalización
de método de descenso por el gradiente determinista.
Pizarrón 3
Video 3
Clase 15. Lunes 13 de octubre de 2025
- Repaso:
Clase de repaso de la neuronal con salida no lineal.
Pizarrón
Video
- Parte 2:
El caso de la red feed-forward con una capa oculta. El
algoritmo de retropropagación del error.
Comparación con el caso de las ciencias naturales. Un
ejemplo simple.
Pizarrón 1
Video 1
Clase 16. Jueves 14 de octubre de 2025
- Parte 1:
Otro repaso del algoritmo de retropropagación del error
con una red feed-forward con una capa oculata.
El caso de una red neuronal feed-forward con un
número arbitrario de capas ocultas.
Actualización en línea (on-line) versus
actualización en lote (batch). Cómo la
inclusión de más capas complejiza la
función de ajuste.
Pizarrón 1
Video 1
- Parte 2:
La red neuronal como un artefacto capaz de ajustar
cualquier función continua arbitraria en forma
universal. El teorema de aproximación universal de
funciones con superposición de funciones de
activación sigmodeas.
Pizarrón 2
Video 2
Clase 17. Lunes 20 de octubre de 2025
- Parte 1:
Formalización del problema de aprendizaje supervizado.
El fenómeno de supresión del gradiente.
Pizarrón 1
Video 1
- Parte 2:
Hacia el aprendizaje profundo mejorando el descenso por el gradiente. El pre-entrenamiento con autoencoders.
Pizarrón 2
Video 2
Clase 18. Jueves 23 de octubre de 2025
- Parte 1:
El reemplazo de las funciones de activacón exponenciales por funciones ReLu. El descenso por el gradiente
estocástico (SGD): introducción de mini-lotes y dropout.
Pizarrón 1
Video 1
- Parte 2:
La incoroporación de memoria en el descenco por el gradiente: el método del momento. El
método del descenso acelerado de Nesterov.
Pizarrón 2
Video 2
Clase 19. Lunes 27 de octubre de 2025
Clase 20. Jueves 30 de octubre de 2025
- Parte 1:
Repaso de entropí cruzada. La entropía cruzada como
medida de distacia entre distribuciones y su utilidad como función
de pérdida para problemas de clasificación.
Pizarrón 1
Video 1
Clase 21. Lunes 3 de noviembre de 2025
- Parte 1:
Una analogía importante entre el aprendizaje automático y el ajuste polinomial.
El error en la muestra y el error fuera de la muestra. Error de aprendizaje versus error de testeo.
Sobreajuste y subajuste de datos.
El compromiso entre el sesgo y la varianza. El rol de la cantidad de ejemplos en el conjunto
de entrenamieto y el rol de la cantidad de parámetros (sinapsis más umbrales.
Pizarrón 1
Video 1
- Parte 2:
Las redes convolucionales para visión por computadora. La entrada como tensor.
El extractor de características. Los filtros convolucionales. Ejemplo.
Pizarrón 2
Video 2
Clase 22. Jueves 6 de noviembre de 2025
- Parte 1:
Las redes convolucionales. Segunda parte y final.
Pizarrón 1
Video 1
- Parte 2:
El origen de las redes neuronales. El problema de memoria
asociativa y la contribución de John Hopfield.
La relación entre los sistemas vítreos
y la memoria asociativa. La inspiración en los
vidrios de spín.
Pizarrón 2
Video 2
Clase 23. Lunes 10 de noviembre de 2025
Clase 24. Jueves 14 de noviembre de 2025
- Parte 1:
Aprendizaje profundo geométrico
Charla a cargo del Dr. Damián Barsotti y del Lic. Nahuel Seiler
Pizarrón 1
Video 1
Clase 25. Lunes 17 de noviembre de 2025
Clase 26. Jueves 20 de noviembre de 2025
- Parte 1:
Consideraciones finales y despedida.
Video 1
|