|
MATERIAL DE LAS CLASES TEÓRICAS
Clase 1. Jueves 14 de agosto de 2025
Parte única: El contexto histórico
y global del desarrollo de la IA. La cuarta transformación
tecnológica de la modernidad. Definicios de IA,
aprendizaje autom&aaucte;tico, redes neuronales y redes
neuronales profundas (aprendizaje profundo). Los pilares
de la IA: cómputo, datos y algoritmos.
¿Son las redes neuronales neuromóficas? Como funciona
una neurona. Cómo se comunican las neuronas. La
sinapsis. El paradigma conexionista.
Pizarrón
Video
Clase 2. Lunes 18 de agosto de 2025
- Parte 1:
La aceleración tecnológica. El carácter
exponencial de microelectrónica y los algoritmos
neuronales. La concentración de la riqueza en
la cuarta revolución tecnológica de la
modarnidad.
Pizarrón 1
Video 1
- Parte 2:
Sistemas dinámicos 1. Definiciones y generalidades.
La idea de ecuación diferecial y de sistema de
ecuaciones diferenciales. Ecuaciones de diferente orden.
Ecuaciones autónomas.
Pizarrón 2
Video 2
- Parte 3:
Ecuaciones diferenciales de orden superior. Ejemplos. Ecuaciones
autónomas.
Pizarrón 3
Video 3
Clase 3. Lunes 25 de agosto de 2025
- Parte 1:
Sistemas dinámicos unidimensionales. El flujo en la línea. Puntos fijos. Puntos
fijos estables e inestables. Interpretación geométrica.
Pizarrón 1
Video 1
- Parte 2:
Sistemas dinámicos 1. Definiciones y generalidades.
La idea de ecuación diferecial y de sistema de
ecuaciones diferenciales. Ecuaciones de diferente orden.
Ecuaciones autónomas.
Pizarrón 2
Video 2
Clase 4. Jueves 28 de agosto de 2025
- Parte 1:
Puntos fijos semi-estables. El problema de valor inicial. El método de
Euler para encontrar soluciones aproximadas a problemas de valor inicial bien
planteados.
Pizarrón 1
Video 1
- Parte 2:
Potenciales. Campo de velocidades o pendientes.
Pizarrón 2
Video 2
Clase 5. Lunes 1 de septiembre de 2025
- Parte 1:
Imposibilidad de soluciones oscilatorias.
Ejemplos de ecuaciones diferenciales ordinarias. Un ejemplo cuadrático. El caso lineal.
La ecuación logística.
Pizarrón 1
Video 1
- Parte 2:
Teoría de bifurcaciones.
Pizarrón 2
Video 2
Clase 6. Jueves 4 de septiembre de 2025
Clase 7. Lunes 8 de septiembre de 2025
- Parte 1:
Análisis de estabilidad lineal para sistemas
bidimensionales. Linealización y matriz jacobiana
.
Pizarrón 1
Video 1
- Parte 2:
Tipos de atractores en un sistema lineal. Autovalores y
autovectores y su interpretación dinámica.
Pizarrón 2
Video 2
- Parte 3:
Soluciones oscilatorios. Autovalores complejos conjugados.
Centros y espirales.
Pizarrón 3
Video 3
Clase 8. Lunes 15 de septiembre de 2025
- Parte 1:
Autovectores degenerados y su significado. La estabilidad a partir
del diagrama de fases traza vs. discriminante. Un ejemplo. Nullclines.
Pizarrón 1
Video 1
Clase 9. Jueves 18 de septiembre de 2025
- Parte 1:
Órbitas cerradas en el caso no lineal. Ejemplos.
El caso de potenciales.
Pizarrón 1
Video 1
- Parte 2:
Teoría de bifurcación en dos dimensiones.
Bifurcación de Hopf.
Pizarrón 2
Video 2
Clase 10. Jueves 25 de septiembre de 2025
- Parte 1:
Ecuaciones Diferenciales Ordinarias en tres dimensiones. El modelo de Lorentz.
Atractores caóticos. Exponente de Liapunov.
Pizarrón 1
Video 1
Clase 11. Lunes 29 de septiembre de 2025
- Parte 1:
Es posible reproducir el comportamiento mental en una máquina?
Analogía entre la física estadística y la
neurociencia teórica y computacional. La neurona binaria
de McCulloch y Pitts.
Pizarrón 1
Video 1
- Parte 2:
El cerebro, las neuronas y las sinapsis. El paradigma
conexionista. La neurona binaria.
Pizarrón 2
Video 2
- Parte 3:
Aprendizaje supervizado. Redes Feed-Forward. Conjunto de entrenamiento.
Pizarrón 3
Video 3
Clase 12. Jueves 2 de octubre de 2025
- Parte 1:
La contribuciones de Rosenblatt y Hopfield a las redes neuronales. La inspiración en la termodinámica
de equilibrio de sistemas vítreos. La aceleración de la IA neuronal.
Pizarrón 1
Video 1
- Parte 2:
El perceptrón simple, parte 1.
Pizarrón 2
Video 2
- Parte 3:
El perceptrón simple, parte 2.
Pizarrón 3
Video 3
Clase 13. Lunes 6 de octubre de 2025
- Parte 1:
El perceptrón simple, parte 3. El concepto de separabilidad lineal.
Pizarrón 1
Video 1
- Parte 2:
El perceptrán simple, parte 4. El algoritmo del perceptrón.
Pizarrón 2
Video 2
Clase 14. Jueves 9 de octubre de 2025
- Parte 1:
El perceptrón simple con neurona lineal. Deteminación
de los pesos sinápticos y umbral (parámetros) a partir
de un conjunto de entrenamiento. El error cuadrático medio.
El método de descenso por el gradiente. Una red neuronal
con N entradas y N salidas.
Pizarrón 1
Video 1
- Parte 2:
Repaso de la parte 1. El descenso por el gradiente determinista. La rugosidad
de la función error.
Pizarrón 2
Video 2
- Parte 3:
El perceptrón simple con neuronal no lineal. Generalización
de método de descenso por el gradiente determinista.
Pizarrón 3
Video 3
Clase 15. Lunes 13 de octubre de 2025
- Parte 1:
Clase de repaso de la neuronal con salida no lineal.
Pizarrón 1
Video 1
- Parte 2:
El caso de la red feed-forward con una capa oculta. El
algoritmo de retropropagación del error.
Comparación con el caso de las ciencias naturales. Un
ejemplo simple.
Pizarrón 2
Video 2
Clase 16. Jueves 14 de octubre de 2025
- Parte 1:
Otro repaso del algoritmo de retropropagación del error
con una red feed-forward con una capa oculata.
El caso de una red neuronal feed-forward con un
número arbitrario de capas ocultas.
Actualización en línea (on-line) versus
actualización en lote (batch). Cómo la
inclusión de más capas complejiza la
función de ajuste.
Pizarrón 1
Video 1
- Parte 2:
La red neuronal como un artefacto capaz de ajustar
cualquier función continua arbitraria en forma
universal. El teorema de aproximación universal de
funciones con superposición de funciones de
activación sigmodeas.
Pizarrón 2
Video 2
Clase 17. Lunes 20 de octubre de 2025
- Parte 1:
Formalización del problema de aprendizaje supervizado.
El fenómeno de supresión del gradiente.
Pizarrón 1
Video 1
- Parte 2:
Hacia el aprendizaje profundo mejorando el descenso por el gradiente. El pre-entrenamiento con autoencoders.
Pizarrón 2
Video 2
Clase 18. Jueves 23 de octubre de 2025
- Parte 1:
El reemplazo de las funciones de activacón exponenciales por funciones ReLu. El descenso por el gradiente
estocástico (SGD): introducción de mini-lotes y dropout.
Pizarrón 1
Video 1
- Parte 2:
La incoroporación de memoria en el descenco por el gradiente: el método del momento. El
método del descenso acelerado de Nesterov.
Pizarrón 2
Video 2
Clase 19. Lunes 27 de octubre de 2025
Clase 20. Jueves 30 de octubre de 2025
- Parte 1:
Repaso de entropí cruzada. La entropía cruzada como
medida de distacia entre distribuciones y su utilidad como función
de pérdida para problemas de clasificación.
Pizarrón 1
Video 1
- Parte 2:
Una analogía con el ajuste polinomial. Sobreajuste y subajuste.
Pizarrón 2
Video 2
|