Cálculo de variaciones

Hasta aquí vimos cómo deducir las ecuaciones de Lagrange a partir de las leyes de Newton, haciendo intervenir ecuaciones de vínculos que permitan reducir la dimensionalidad de un problema, mediante la hipótesis de que las fuerzas de vínculo son ideales, y por lo tanto se anulan los trabajos virtuales que realizan. Sin embargo, hay otra teoría que desemboca en las ecuaciones de Lagrange, y que nace del principio de Hamilton, que sostiene que para llevar un sistema desde el estado $\{q_j(t_1)\}$ al $\{q_j(t_2)\}$ prefijados para los instantes $t_1$ y $t_2$, la integral de acción

$\displaystyle S[q] = \int_{t_1}^{t_2} {\rm d}t\; L(q,\dot{q},t) \;,
$

donde $L=T-V$ es la lagrangiana del sistema, alcanza un valor extremo (mínimo). La condición de extremo implica que al realizar variaciones $\delta q(t)$ alrededor de las soluciones $q(t)$ que minimizan la expresión anterior debemos imponer la correspondiente condición de extremo

$\displaystyle \delta S = \delta \int_{t_1}^{t_2} {\rm d}t\; L(q,\dot{q},t) = 0 \;.
$

Antes de discutir en detalle este principio, notemos que la condición de extremo nos conduce al análisis de funcionales $J$ que dependen de integrales de alguna función $f\big(y(x),\dot{y}(x),x\big)$

$\displaystyle J = \int_{x_1}^{x_2} {\rm d}x\; f(y,\dot{y},x) \;,$ (7)

con $x_1$ y $x_2$ fijos, y lo mismo para los valores de $y(x_1)$ y $y(x_2)$. El objetivo de este análisis es encontrar un extremo para la integral $J$, de manera que alrededor de la solución $y(x)$ que extremiza esta integral se cumple

$\displaystyle \delta J = \delta \int_{x_1}^{x_2} {\rm d}x\; f(y,\dot{y},x) \;.
$

Para imponer esta condición imaginamos variaciones $\delta y(x)$ continuas y derivables en torno de la solución (desconocida). A menudo suelen pensarse estas variaciones como todas las alternativas de sumar a la solución $y(x,0)$ cualquier curva $\eta(x)$ (continua y derivable) multiplicada por un escalar $\alpha$, que es el que hacemos pequeño

$\displaystyle y(x,\alpha) = y(x,0) + \alpha\,\eta(x) \;.
$

De este modo, las variaciones que queremos evaluar dependen del parámetro $\alpha$, mediante el cual abarcamos todas las posibles curvas $y$ conectándolos con cualquier $\eta(x)$. Las posibles variaciones que contemplamos pueden escribirse como

$\displaystyle \delta y = \left(\frac{\partial y}{\partial\alpha}\right)_{\!\!\alpha=0} \delta\alpha \;.
$

Realizamos entonces las posibles variaciones $\delta y$, teniendo presente que cada una de ellas tiene asociada una variación para la derivada $\delta\dot{y}\,$; para ello, intercambiando el proceso de derivación con el de integración, en base a las hipótesis planteadas

$\displaystyle \delta J = \int_{x_1}^{x_2} {\rm d}x\; \left[ \frac{\partial f}{\...
...,\delta y +
\frac{\partial f}{\partial\dot{y}}\,\delta\dot{y} \right] = 0 \;.
$

Notando que en el segundo sumando interviene $\delta\dot{y}={\rm d}(\delta y)/{\rm d}x$% latex2html id marker 13446
\setcounter{footnote}{3}\fnsymbol{footnote} integramos por partes

$\displaystyle \int_{x_1}^{x_2} {\rm d}x\; \frac{\partial f}{\partial y}\,\delta...
...}{{\rm d}x}\!\left(\frac{\partial f}{\partial\dot{y}}\right)
\delta y = 0 \;.
$

El segundo término de la derecha se anula puesto que prefijamos tanto $y(x_1)$ como $y(x_2)$, lo que implica que $\delta y(x_1)\!=\!\delta y(x_2)\!=\!0\,$. Entonces la condición de extremo equivale a exigir

$\displaystyle \int_{x_1}^{x_2} {\rm d}x\; \left[\frac{\partial f}{\partial y} +...
...{\rm d}x}\!\left(\frac{\partial f}{\partial\dot{y}}\right)\right] \delta y = 0
$

para una variación $\delta y$ arbitraria: la única posibilidad para que esto ocurra es que se anule el corchete, de manera que concluimos que la integral $J$ (7) tiene un extremo si se cumple la ecuación de Euler

$\displaystyle \fbox{\ \ \ $\displaystyle \frac{\partial f}{\partial y} +
\frac...
...\partial f}{\partial\dot{y}}\right) = 0
\;. \rule[-1.75em]{0em}{4em} $\ \ \ }
$

Ilustremos esta idea con el cálculo de la mínima distancia entre dos puntos de un plano recorrida por una curva $y(x)$. En este caso podemos escribir

$\displaystyle J = \int_{x_1}^{x_2} {\rm d}s = \int_{x_1}^{x_2} \sqrt{({\rm d}x)...
...x_1}^{x_2}{\rm d}x\; \sqrt{{1+\left(\frac{{\rm d}y}{{\rm d}x}\right)\!}^2} \;,
$

donde identificamos $f(y,\dot{y},x)=\sqrt{1+\dot{y}^2}$. Procediendo con la ecuación de Euler arribamos al resultado esperado (ejercicio).

 

Un ejemplo menos sencillo es el de encontrar la superficie de revolución mínima (alrededor del eje $y$) entre dos puntos $(x_1,y_1)$ y $(x_2,y_2)$ de un plano. Cada diferencial de curva ${\rm d}s$ genera un diferencial de área

$\displaystyle 2\pi x\,{\rm d}s = 2\pi x \sqrt{1+\dot{y}^2} {\rm d}x \;,
$

de manera que podemos expresar el área como una integral

$\displaystyle A = 2\pi \int_{x_1}^{x_2}{\rm d}x\; x\,\sqrt{1+\dot{y}^2} \;.
$

 

\scalebox{0.44}{%
\input{sup-revol.pstex_t}}

Identificando el integrando como la $f(y,\dot{y},x)$ que involucra la ecuación de Euler, y teniendo los cuidados necesarios podemos resolver el problema, integrando para encontrar una curva catenaria

$\displaystyle x = a \cosh\frac{y-b}{a} \;,
$

donde las constantes $a$ y $b$ están relacionadas con las condiciones impuestas a los extremos de la curva.

Gustavo Castellano    16/11/2023