REDES NEURONALES

Segundo semestre de 2025

Facultad de Matemática, Astronomía, Física y Computación
Universidad Nacional de Córdoba

ARN

MATERIAL DE LAS CLASES TEÓRICAS



Clase 1. Jueves 14 de agosto de 2025

    Parte única: El contexto histórico y global del desarrollo de la IA. La cuarta transformación tecnológica de la modernidad. Definicios de IA, aprendizaje autom&aaucte;tico, redes neuronales y redes neuronales profundas (aprendizaje profundo). Los pilares de la IA: cómputo, datos y algoritmos. ¿Son las redes neuronales neuromóficas? Como funciona una neurona. Cómo se comunican las neuronas. La sinapsis. El paradigma conexionista.
    Pizarrón     Video

Clase 2. Lunes 18 de agosto de 2025

  • Parte 1: La aceleración tecnológica. El carácter exponencial de microelectrónica y los algoritmos neuronales. La concentración de la riqueza en la cuarta revolución tecnológica de la modarnidad.
    Pizarrón 1     Video 1

  • Parte 2: Sistemas dinámicos 1. Definiciones y generalidades. La idea de ecuación diferecial y de sistema de ecuaciones diferenciales. Ecuaciones de diferente orden. Ecuaciones autónomas.
    Pizarrón 2     Video 2

  • Parte 3: Ecuaciones diferenciales de orden superior. Ejemplos. Ecuaciones autónomas.
    Pizarrón 3     Video 3

Clase 3. Lunes 25 de agosto de 2025

  • Parte 1: Sistemas dinámicos unidimensionales. El flujo en la línea. Puntos fijos. Puntos fijos estables e inestables. Interpretación geométrica.
    Pizarrón 1     Video 1

  • Parte 2: Sistemas dinámicos 1. Definiciones y generalidades. La idea de ecuación diferecial y de sistema de ecuaciones diferenciales. Ecuaciones de diferente orden. Ecuaciones autónomas.
    Pizarrón 2     Video 2


Clase 4. Jueves 28 de agosto de 2025

  • Parte 1: Puntos fijos semi-estables. El problema de valor inicial. El método de Euler para encontrar soluciones aproximadas a problemas de valor inicial bien planteados.
    Pizarrón 1     Video 1

  • Parte 2: Potenciales. Campo de velocidades o pendientes.
    Pizarrón 2     Video 2


Clase 5. Lunes 1 de septiembre de 2025

  • Parte 1: Imposibilidad de soluciones oscilatorias. Ejemplos de ecuaciones diferenciales ordinarias. Un ejemplo cuadrático. El caso lineal. La ecuación logística.
    Pizarrón 1     Video 1

  • Parte 2: Teoría de bifurcaciones.
    Pizarrón 2     Video 2

Clase 6. Jueves 4 de septiembre de 2025


Clase 7. Lunes 8 de septiembre de 2025

  • Parte 1: Análisis de estabilidad lineal para sistemas bidimensionales. Linealización y matriz jacobiana .
    Pizarrón 1     Video 1

  • Parte 2: Tipos de atractores en un sistema lineal. Autovalores y autovectores y su interpretación dinámica.
    Pizarrón 2     Video 2

  • Parte 3: Soluciones oscilatorios. Autovalores complejos conjugados. Centros y espirales.
    Pizarrón 3     Video 3

Clase 8. Lunes 15 de septiembre de 2025

  • Parte 1: Autovectores degenerados y su significado. La estabilidad a partir del diagrama de fases traza vs. discriminante. Un ejemplo. Nullclines.
    Pizarrón 1     Video 1

Clase 9. Jueves 18 de septiembre de 2025

  • Parte 1: Órbitas cerradas en el caso no lineal. Ejemplos. El caso de potenciales.
    Pizarrón 1     Video 1
  • Parte 2: Teoría de bifurcación en dos dimensiones. Bifurcación de Hopf.
    Pizarrón 2     Video 2


Clase 10. Jueves 25 de septiembre de 2025

  • Parte 1: Ecuaciones Diferenciales Ordinarias en tres dimensiones. El modelo de Lorentz. Atractores caóticos. Exponente de Liapunov.
    Pizarrón 1     Video 1


Clase 11. Lunes 29 de septiembre de 2025

  • Parte 1: Es posible reproducir el comportamiento mental en una máquina? Analogía entre la física estadística y la neurociencia teórica y computacional. La neurona binaria de McCulloch y Pitts.
    Pizarrón 1     Video 1

  • Parte 2: El cerebro, las neuronas y las sinapsis. El paradigma conexionista. La neurona binaria.
    Pizarrón 2     Video 2

  • Parte 3: Aprendizaje supervizado. Redes Feed-Forward. Conjunto de entrenamiento.
    Pizarrón 3     Video 3


Clase 12. Jueves 2 de octubre de 2025

  • Parte 1: La contribuciones de Rosenblatt y Hopfield a las redes neuronales. La inspiración en la termodinámica de equilibrio de sistemas vítreos. La aceleración de la IA neuronal.
    Pizarrón 1     Video 1

  • Parte 2: El perceptrón simple, parte 1.
    Pizarrón 2     Video 2

  • Parte 3: El perceptrón simple, parte 2.
    Pizarrón 3     Video 3


Clase 13. Lunes 6 de octubre de 2025

  • Parte 1: El perceptrón simple, parte 3. El concepto de separabilidad lineal.
    Pizarrón 1     Video 1

  • Parte 2: El perceptrán simple, parte 4. El algoritmo del perceptrón.
    Pizarrón 2     Video 2


Clase 14. Jueves 9 de octubre de 2025

  • Parte 1: El perceptrón simple con neurona lineal. Deteminación de los pesos sinápticos y umbral (parámetros) a partir de un conjunto de entrenamiento. El error cuadrático medio. El método de descenso por el gradiente. Una red neuronal con N entradas y N salidas.
    Pizarrón 1     Video 1

  • Parte 2: Repaso de la parte 1. El descenso por el gradiente determinista. La rugosidad de la función error.
    Pizarrón 2     Video 2

  • Parte 3: El perceptrón simple con neuronal no lineal. Generalización de método de descenso por el gradiente determinista.
    Pizarrón 3     Video 3


Clase 15. Lunes 13 de octubre de 2025

  • Parte 1: Clase de repaso de la neuronal con salida no lineal.
    Pizarrón 1     Video 1

  • Parte 2: El caso de la red feed-forward con una capa oculta. El algoritmo de retropropagación del error. Comparación con el caso de las ciencias naturales. Un ejemplo simple.
    Pizarrón 2     Video 2


Clase 16. Jueves 14 de octubre de 2025

  • Parte 1: Otro repaso del algoritmo de retropropagación del error con una red feed-forward con una capa oculata. El caso de una red neuronal feed-forward con un número arbitrario de capas ocultas. Actualización en línea (on-line) versus actualización en lote (batch). Cómo la inclusión de más capas complejiza la función de ajuste.
    Pizarrón 1     Video 1

  • Parte 2: La red neuronal como un artefacto capaz de ajustar cualquier función continua arbitraria en forma universal. El teorema de aproximación universal de funciones con superposición de funciones de activación sigmodeas.
    Pizarrón 2     Video 2


Clase 17. Lunes 20 de octubre de 2025

  • Parte 1: Formalización del problema de aprendizaje supervizado. El fenómeno de supresión del gradiente.
    Pizarrón 1     Video 1

  • Parte 2: Hacia el aprendizaje profundo mejorando el descenso por el gradiente. El pre-entrenamiento con autoencoders.
    Pizarrón 2     Video 2


Clase 18. Jueves 23 de octubre de 2025

  • Parte 1: El reemplazo de las funciones de activacón exponenciales por funciones ReLu. El descenso por el gradiente estocástico (SGD): introducción de mini-lotes y dropout.
    Pizarrón 1     Video 1

  • Parte 2: La incoroporación de memoria en el descenco por el gradiente: el método del momento. El método del descenso acelerado de Nesterov.
    Pizarrón 2     Video 2


Clase 19. Lunes 27 de octubre de 2025


Clase 20. Jueves 30 de octubre de 2025

  • Parte 1: Repaso de entropí cruzada. La entropía cruzada como medida de distacia entre distribuciones y su utilidad como función de pérdida para problemas de clasificación.
    Pizarrón 1     Video 1
  • Parte 2: Una analogía con el ajuste polinomial. Sobreajuste y subajuste.
    Pizarrón 2     Video 2


Facultad de Matemática, Astronomía, Física y Computación
Universidad Nacional de Córdoba


Haya de la Torre esq. Medina Allende
Ciudad Universitaria
5000 Córdoba
Argentina