Notas de Matemática II VersiónPreliminar

Notas de
Matemática II
r
a
in
n
ó
i
rs
m
i
l
e
r
P
Ve
Javier Fernandez
Instituto Balseiro
4 de marzo de 2015
Índice general
Capítulo 1. Series de Fourier
1. Introducción a las Series de Fourier
2. Series de Fourier (trigonométricas)
3. Series de Fourier (exponenciales)
4. Interpretación Algebraica
5. Apéndice - Convergencia de sucesiones
6. Apéndice - Teoremas de convergencia de la serie de Fourier
1
1
3
12
15
20
22
Capítulo 2. Funciones Especiales
1. Algunas funciones especiales
2. Ecuación de Bessel
27
27
32
Capítulo 3. Introducción a las Ecuaciones Diferenciales
1. Generalidades
2. Notación
3. Algunas Ecuaciones Diferenciales
39
39
40
41
Capítulo 4. Ecuaciones de Primer Orden
1. Método de las curvas características
2. Datos iniciales
43
43
49
Capítulo 5. Ecuaciones de Segundo Orden
53
Capítulo 6. Ecuación de onda
1. Generalidades
2. Ecuación de onda en n = 1
3. Ecuación de onda en n > 1
59
59
59
71
Capítulo 7. La ecuación de Laplace
1. Generalidades
2. Nociones Básicas
3. Propiedades de las Funciones Armónicas
4. Regularización de funciones
75
75
76
79
83
i
1
Series de Fourier
1.
Introducción a las Series de Fourier
Vamos a discutir la ecuación diferencial ∆u = 0 en el dominio (0, π) × (0, π) ⊂ R2 .
Más aún, queremos que las soluciones se anulen sobre los bordes superior, izquierdo y
derecho del cuadrado considerado, mientras que sobre el borde inferior sea igual a alguna
función dada, que se anule en los extremos del segmento a fin de que la función en el borde
sea continua (por ejemplo, u(x, 0) = x(π − x)). La notación habitual para este problema
diferencial es


∆u(x, y) = 0, ∀(x, y) ∈ (0, π) × (0, π)
(1.1)
u(0, y) = u(π, y) = 0, ∀y ∈ [0, π]

u(x, π) = 0 y u(x, 0) = g(x), ∀x ∈ [0, π].
Un método explícito de resolución usado frecuentemente es el llamado separación de
variables y que consiste en buscar, en principio, soluciones u(x, y) en las que la dependencia
de las variables sea de la forma
u(x, y) = X(x)Y (y),
(1.2)
es decir que, de algún modo, las variables aparecen separadas. Normalmente no es de
esperar que este tipo de solución resuelva el problema por completo, pero suele ser un
paso intermedio para hallar la solución completa.
Si se reemplaza (1.2) en ∆u = 0 se obtiene
X 00 (x)Y (y) + X(x)Y 00 (y) = 0
⇒
X 00 (x)
Y 00 (y)
=−
X(x)
Y (y)
donde 0 denota a la derivada con respecto a la variable que corresponda. En particular,
en la última expresión vemos que el lado izquierdo es función únicamente de la variable x
mientras que el lado derecho lo es de la variable y. Siendo ambas variables independientes,
la única posibilidad es que ambos lados sean constantes:
X 00 (x)
Y 00 (y)
=−
= λ, con λ ∈ R.
X(x)
Y (y)
De aquí obtenemos dos ecuaciones ordinarias; X 00 (x) − λX(x) = 0 y Y 00 (y) + λY (y) = 0.
Notemos que estas ecuaciones involucran al parámetro desconocido λ.
Ahora bien, u satisface ciertas condiciones en la frontera. Por ejemplo, u(0, y) = 0
para todo y. Entonces, X(0)Y (y) = 0 para todo y. Si X(0) 6= 0, sería Y (y) = 0 para todo
y y u sería nula, cosa que no es compatible con una g no nula. Por lo tanto vemos que las
1
2
1. SERIES DE FOURIER
ecuaciones ordinarias que encontramos traen asociadas ciertas condiciones de contorno:
X(0) = 0 y, de un modo análogo, usando u(π, y) = 0 para todo y, X(π) = 0:
X 00 (x) − λX(x) = 0, con X(0) = X(π) = 0.
(1.3)
Siendo esta una ecuación lineal ordinaria de coeficientes constantes, hay básicamente, tres
tipos de soluciones: exponenciales (λ > 0), funciones trigonométricas (λ < 0) y funciones
lineales (λ = 0).
√
λ > 0: el polinomio característico tiene dos raíces distintas
±
λ, con
√
√ lo que
la solución general de la ecuación es X(x) = A exp( λx) + B exp(− √
λx). Al
imponer √
las condiciones de contorno obtenemos 0 = A + B y 0 = A exp( λπ) +
B exp(− λπ), de donde se concluye fácil que A = B = 0, con lo que la única
solución es la nula.
λ = 0, lleva a que X(x) = Ax + B y de las condiciones iniciales se deduce que
A = B = 0 y nuevamente la única solución es la nula.
√
λ < 0:√
las raíces son complejas y la solución es de la forma X(x) = A sin( −λx) +
B cos( −λx). Evaluando
√ en x = 0 se obtiene√que B = 0. Por último, evaluando
en x = π sale 0 =
√ sin( −λπ), con lo que −λπ = kπ para algún k ∈ Z; en
verdad, dado que −λ > 0, tiene que ser k ∈ N.
Del análisis de arriba vemos que, salvo que λ = −k 2 para algún k ∈ N el problema (1.3)
no tiene otra solución que la nula. En el caso “de interés”, es decir donde hay solución no
nula, X(x) = A sin(kx).
Volviendo a la ecuación para Y con λ = −k 2 y k ∈ N, tenemos: Y 00 (y) − k 2 Y (y) = 0,
con lo que Y (y) = Aeky + Be−ky . De u(x, π) = 0 se deduce que 0 = Y (π) = A exp(kπ) +
B exp(−kπ) de donde B = −A exp(2kπ). Entonces la forma general es
Y (y) = A(exp(ky) − exp(2kπ) exp(−ky)) = A exp(kπ)(exp(k(y − π)) − exp(−k(y − π)))
= 2A exp(kπ) sinh(k(y − π)).
Todo junto,
u(x, y) = Ck sin(kx) sinh(k(y − π)) con k ∈ N, Ck ∈ R,
(1.4)
donde hemos absorbido varias constantes (que dependían de k) en la constante Ck .
Revisemos: por construcción, (1.4) satisface la ecuación diferencial así como también
las condiciones de contorno nulas del problema. Sin embargo, salvo que g(x) tenga una
forma muy especial, la función (1.4) no se restringirá a g cuando y = 0.
Una condición “estructural” que no hemos usado es la linealidad de la ecuación ∆u = 0.
Debido a esto podemos considerar no sólo soluciones de la forma (1.4) sino también
combinaciones lineales suyas:
u(x, y) =
b
X
Ck sin(kx) sinh(k(y − π)).
k=a
Si bien esta expresión es más general que (1.4), aún no permite resolver el problema para
una función g suficientemente arbitraria, es decir, para una g que no sea una combinación
lineal finita de senos. Una idea razonable parece ser considerar no sólo sumas finitas sino
sumas infinitas:
∞
X
u(x, y) =
Ck sin(kx) sinh(k(y − π)).
(1.5)
k=1
Este último paso lleva a una cantidad de inconvenientes. Por ejemplo, mientras la
suma era finita, tomar derivadas conmutaba con la suma, lo que aseguraba que la función
2. SERIES DE FOURIER (TRIGONOMÉTRICAS)
3
propuesta era solución de la ecuación diferencial. Pero esto deja de ser cierto en general
para series. La gran ventaja de las series es que permiten mucha más flexibilidad en el tipo
de funciones de contorno g que se pueden utilizar. Este último punto es, precisamente, el
punto de partida de nuestro estudio de las series de Fourier1. El tipo de preguntas que nos
interesa responder es, por ejemplo, ¿bajo qué condiciones puede ser escrita una función
como una combinación lineal (infinita) de funciones del tipo sin(kx)? ¿Qué tan buena es
ésta aproximación? ¿Permite la conmutación de límites con derivadas?
Entre la muy extensa bibliografía sobre series de Fourier sugerimos la lector consultar
los libros de M. Balanzat [2] y R. Churchill [3].
2.
Series de Fourier (trigonométricas)
Vamos a considerar ahora una situación ligeramente más general: vamos a estudiar la
posibilidad de escribir
∞
X
f (t) = a0 +
(an cos(nt) + bn sin(nt))
(1.6)
n=1
para t ∈ [−π, π] y f : [−π, π] → R razonablemente arbitraria.
Suponiendo que la representación (1.6) es válida, podemos usarla para hallar las constantes an , bn ∈ R. La clave es recordar las fórmulas siguientes, válidas para n, m ∈ N:
Z π
0=
sin(nt) cos(mt)dt, para todo n, m
−π
Z π
Z π
(1.7)
πδn,m =
cos(nt) cos(mt)dt =
sin(nt) sin(mt)dt para todo m, n ∈ N.
−π
−π
Ejercicio 1.1. Escribir los senos y cosenos en términos de exponenciales complejas
para probar las identidades (1.7).
R
P
Para k ∈ N, intercambiando con
sin preocuparnos (ya que esto es sólo heurístico)
tenemos:
Z π
Z π
∞
X
(an cos(nt) + bn sin(nt))) sin(kt)dt
f (t) sin(kt)dt =
(a0 +
−π
−π
Z
n=1
π
=a0
sin(kt)dt +
−π
∞ X
Z
π
an
n=1
cos(nt) sin(kt)dt
−π
Z
π
+ bn
(1.8)
sin(nt) sin(kt)dt
−π
=πbk ,
de donde
1
bk =
π
Z
π
f (t) sin(kt)dt
(1.9)
−π
Análogamente se ve que
1
ak =
π
1Jean-Baptiste
Z
π
f (t) cos(kt)dt
si
k>0
(1.10)
−π
Joseph Fourier (1768-1830) fue un matemático y físico francés reconocido por su
trabajo en series de funciones (que hoy llevan su nombre) y sus aplicaciones a las ecuaciones en derivadas
parciales (transferencia de calor y vibraciones).
4
1. SERIES DE FOURIER
y
1
a0 =
2π
Z
π
f (t)dt.
(1.11)
−π
Definición 1.2. Dada f : [−π, π] → R se define su serie de Fourier como
∞
X
a0 +
(an cos(nt) + bn sin(nt))
(1.12)
n=1
con los coeficientes an y bn dados por las fórmulas (1.9), (1.10) y (1.11).
Nota 1.3. Para poder calcular la serie de Fourier de f hace falta poder evaluar las
integrales (1.9), (1.10) y (1.11). Éstas pueden ser calculadas si, por ejemplo, f es integrable
en [−π, π]. Una condición muy común es que f sea continua a trozos (ver Definición 1.11),
que implica que f es integrable.
Es importante tener en cuenta que aún cuando f es integrable y, por tanto, su serie
de Fourier se puede calcular, esta serie no tiene por qué converger a f . Condiciones para
que esto ocurra serán estudiadas más adelante.
Nota 1.4. Es equivalente tener una función f : [−π, π) → R que tener una función
f˜ : R → R periódica con período 2π.
Nota 1.5. En general, f tiene período 2T si vale f (x + 2T ) = f (x) para todo x ∈ R.
Es fácil ver que si f es 2T periódica se tiene
Z a+2T
Z 2T
f (t)dt ∀a ∈ R
f (t)dt =
0
a
(por ejemplo, derivar el lado derecho respecto de a para concluir que su valor es independiente de a). De aquí que, por ejemplo, si f es 2π-periódica,
Z
Z
1 π
1 2π
bk =
f (t) sin(kt)dt =
f (t) sin(kt)dt.
π −π
π 0
Más en general se tiene
Definición 1.6. Dada f : R → R periódica con período 2T se define su serie de
Fourier como
∞ X
π π a0 +
an cos n t + bn sin n t
T
T
n=1
con los coeficientes an y bn dados por las fórmulas:
Z T
1
f (t)dt,
a0 =
2T −T
Z
1 T
π
an =
f (t) cos(n t)dt
T −T
T
Z T
1
π
bn =
f (t) sin(n t)dt.
T −T
T
si
n > 0,
Usualmente, la notación
∞ X
π π f (t) ∼ a0 +
an cos n t + bn sin n t
T
T
n=1
significa que la serie del lado derecho es la serie de Fourier de la función f .
2. SERIES DE FOURIER (TRIGONOMÉTRICAS)
5
Nota 1.7. Cabe notar que la definición de coeficiente de Fourier puede aparecer, a
veces, con algún cambio. Por ejemplo, algunos autores definen el coeficiente
Z
1 T
a0 :=
f (t)dt
T −T
que sigue la misma forma que los otros coeficientes an con n ∈ N. En este caso, la
representación de la serie de Fourier asociada a f es
∞ a0 X
π π f (t) ∼
+
an cos n t + bn sin n t .
2
T
T
n=1
En estas notas usaremos únicamente la Definición 1.6.
Ejemplo 1.8. Sea f la función 2π-periódica que vale f (t) = 21 (π − t) si 0 < t ≤ 2π.
El gráfico de f se muestra en la Figura 1.1. Calculamos su serie de Fourier:
1.5
1
0.5
0
-2
0
2
4
6
8
x
-0.5
-1
-1.5
Figura 1.1. Gráfico de f del Ejemplo 1.8
1
a0 =
2π
y
Z
π
f (t)dt = 0,
−π
Z
1 π
ak =
f (t) cos(kt)dt = 0,
π −π
en ambos casos por tratarse de integrales de funciones impares sobre un dominio simétrico
respecto del origen. Por otro lado,
Z
Z
Z 2π
1 π
1 2π
1
bk =
f (t) sin(kt)dt =
f (t) sin(kt)dt =
(π − t) sin(kt)dt
π −π
π 0
2π 0
Z 2π
Z 2π
Z 2π
1
1
cos(kt)
=
(
π sin(kt)dt −
t sin(kt)dt) =
(0 +
t d(
))
2π 0
2π
k
0
0
2π Z 2π
1
cos(kt) cos(kt)
1
=
(t
) −
dt = .
2π
k
k
k
0
0
Por lo tanto
∞
X
1
f (t) ∼
sin(kt).
(1.13)
k
k=1
6
1. SERIES DE FOURIER
La Figura 1.2 muestra como las distintas sumas parciales aproximan f .
1.5
1
0.5
x
-2
0
2
4
6
8
0
-0.5
-1
-1.5
Figura 1.2. Gráfico de distintas sumas parciales de la serie de Fourier de f
Nota 1.9. La serie de Fourier de la función f del Ejemplo 1.8 converge a 0 para t = 0.
Este valor coincide, no con f (0) sino con el promedio de los límites laterales de f en 0.
Se puede apreciar en la Figura 1.2 como la serie de Fourier parece converger a f (t) en
los puntos t donde f es continua.
Otra cosa que se puede apreciar en la Figura 1.2 es que cerca de las discontinuidades de
f aparecen “picos” en las distintas aproximaciones. Se nota que los picos se desplazan hacia
la discontinuidad a medida que la aproximación mejora pero, sin embargo, no disminuyen
su altura. Este es un fenómeno general de la convergencia de la serie de Fourier de una
función discontinua y se lo conoce como fenómeno de Gibbs.
Ejercicio 1.10. Se define la función 2π-periódica f que satisface
(
π + t si − π ≤ t ≤ 0
f (t) =
.
π − t si 0 ≤ t ≤ π
Realizar un gráfico de f en un intervalo que incluya a [−2π, 2π] y probar que
∞
π 4 X cos((2k + 1)t)
f∼ +
.
2 π k=0 (2k + 1)2
Definición 1.11. Se dice que f es continua a trozos en [a, b] si los límites laterales
f (a+ ) := l´ım+ f (t)
t→a
y
f (b− ) := l´ım− f (t)
t→b
existen, son finitos y, además, f es continua en (a, b), salvo en, a lo sumo, finitos puntos
en los cuales los límites laterales existen y son finitos. Se dice que f : R → R es continua
2. SERIES DE FOURIER (TRIGONOMÉTRICAS)
7
a trozos si lo es en cada intervalo [a, b]. Se dice que f es suave a trozos si f y f 0 son
continuas a trozos.
Ejemplo 1.12. La función f del Ejemplo 1.8 es suave a trozos, g(t) :=
p
a trozos y h(t) := |t| es continua pero no es suave a trozos.
1
t
no es continua
Los siguientes resultados establecen condiciones suficientes para la convergencia de las
series de Fourier.
Teorema 1.13. Si f es periódica con período 2T , suave a trozos y
∞
X
π
π
f ∼ a0 +
(an cos(n t) + bn sin(n t)),
T
T
n=1
entonces vale
∞
X
f (t+ ) + f (t− )
π
π
= a0 +
(an cos(n t) + bn sin(n t)) ∀t ∈ R.
2
T
T
n=1
En particular, si f es continua en t0 vale:
f (t0 ) = a0 +
∞
X
π
π
(an cos(n t0 ) + bn sin(n t0 )).
T
T
n=1
Demostración. Ver Sección 6.1.
Corolario 1.14. Si f y g son continuas, 2T -periódicas, suaves a trozos y tienen la
misma serie de Fourier, entonces son idénticas.
Teorema 1.15. Si f es 2T -periódica y suave a trozos, entonces la serie de Fourier
de f converge a f uniformemente si y sólo si f es continua. Además, si f es continua, la
convergencia de su serie de Fourier asociada es absoluta.
Demostración. Ver Sección 6.2.
Ejemplo 1.16. Sea f la función 2π-periódica f del Ejercicio 1.10. Como se vio en
dicho ejercicio,
∞
π 4 X cos((2k + 1)t)
f∼ +
.
2 π k=0 (2k + 1)2
Dado que f es suave a trozos y continua, por el Teorema 1.13 sabemos que
∞
π 4 X cos((2k + 1)t)
f (t) = +
2 π k=0 (2k + 1)2
∀t ∈ R
(de hecho, la convergencia de la serie es uniforme por el Teorema 1.15). En particular,
evaluando ambos lados de la última igualdad en t = 0 se obtiene
∞
π 4X
1
π= +
,
2 π k=0 (2k + 1)2
de donde sale que
∞
π2 X
1
=
.
2
8
(2k
+
1)
k=0
8
1. SERIES DE FOURIER
RT
Nota 1.17. Si f es una función par y 2T -periódica, todas las integrales −T f (t) sin(k Tπ t)dt
se anulan (por ser el integrando impar y el dominio de integración simétrico respecto de
0). Por lo tanto, la serie de Fourier de f es una serie de cosenos. Del mismo modo, si f es
impar y 2T -periódica, su serie de Fourier es una serie de senos. En verdad, cuando f es
continua y suave a trozos, ambas observaciones son obviamente si y sólo si.
La Nota 1.17 resulta muy útil en la práctica, como muestra el ejemplo siguiente.
Ejemplo 1.18. En el contexto de la Sección 1, estamos interesados en escribir la
función g(t) = t(π − t) como una serie de senos de modo que la descripción valga para
t ∈ [0, π].
Una primera idea sería pensar a g como función π-periódica (ver Figura 3(a)) y hallar
su serie de Fourier. Sin embargo, al hacer esto, se obtiene una función par y, por lo tanto,
su serie de Fourier es una serie de cosenos, que no es lo que se busca. Tomando en cuenta
esta primera idea, otra posibilidad es extender g de manera impar al intervalo [−π, π]
(ver Figura 3(b)) y luego extenderla a todo R como función 2π-periódica. En este caso,
al ser la función impar, nos aseguramos de que su serie de Fourier
( es una serie de senos.
g(t) si t ∈ [0, π]
Entonces, sea g˜ la función 2π-periódica que satisface g˜(t) =
.
−g(−t) si t ∈ [−π, 0]
2.4
2.4
2.0
2.0
1.6
1.6
1.2
1.2
0.8
0.8
0.4
0.4
0.0
−5.0
−2.5
0.0
0.0
2.5
7.5
5.0
−0.4
10.0
12.5
−5.0
0.0
−2.5
−0.4
x
−0.8
−0.8
−1.2
−1.2
−1.6
−1.6
−2.0
−2.0
−2.4
−2.4
(a) periódica, con período π
2.5
7.5
5.0
10.0
12.5
x
(b) impar en (−π, π), extendida
con período 2π
Figura 1.3. Posibles extensiones de g(t) = t(π − t)
Para hallar el desarrollo de Fourier de g˜ alcanza con calcular los coeficientes bk :
Z
Z
Z
2 π
2 π
1 π
g˜(t) sin(kt)dt =
g˜(t) sin(kt)dt =
g(t) sin(kt)dt
bk =
π −π
π 0
π 0
Z
Z π
Z π
2
2 π
t(π − t) sin(kt)dt = (
=
πt sin(kt)dt −
t2 sin(kt)dt)
π 0
π 0
0
k 2
k
k 2
2 (−1) π
(−1)
(−1) π
1
4 1 − (−1)k
= (−
−2 3 +
+ 2 3) =
.
π
k
k
k
k
π
k3
Por lo tanto, bk = 0 si k es par y bk =
continua vale que
g˜(t) =
∞
X
j=0
8
πk3
si k es impar. Como g˜ es suave a trozos y
8
sin((2j + 1)t) ∀t ∈ [−π, π].
π(2j + 1)3
2. SERIES DE FOURIER (TRIGONOMÉTRICAS)
9
Notemos que, en la última expresión, reemplazamos la suma en k, donde las únicas contribuciones eventualmente no nulas correspondían a los k impares, por una suma en j,
sustituyendo k por 2j + 1.
De la última identidad, en particular, obtenemos
∞
X
8
t(π − t) =
sin((2j + 1)t) ∀t ∈ [0, π],
(1.14)
3
π(2j
+
1)
j=0
con la serie convergiendo uniformemente.
Nota 1.19. En el Ejemplo 1.18 los coeficientes bk con k par son nulos. Esto está
relacionado con el hecho de que g es “par” respecto del punto medio de [0, π], es decir, π2 .
Ejercicio 1.20. Demostrar que la observación de la nota 1.19 es correcta y que se
aplica a cualquier función g con la misma propiedad. Estudiar que ocurre si g es “impar”
respecto del punto medio del intervalo.
Por último, vamos a usar la serie de Fourier calculada en el Ejemplo 1.18 para terminar
de construir la solución del problema (1.1).
La separación de variables nos había llevado a proponer la forma (1.5) para la solución
de (1.1). Resta determinar los valores de Ck para que u satisfaga la condición en el borde
inferior de la región. Para ser más concretos vamos a poner la condición de contorno
g(x) := x(π − x) allí, es decir, u(x, 0) = x(π − x). Usando (1.5) tenemos:
∞
X
u(x, 0) =
Ck sin(kx) sinh(−kπ) = x(π − x).
k=1
Tomando en cuenta (1.14) esta última ecuación dice que
(
8
3 si k es impar
πk
Ck sinh(−kπ) =
0 si k es par,
de donde, los valores de Ck no nulos son de la forma
8
−8
C2j+1 =
=
,
3
3
π(2j + 1) sinh(−(2j + 1)π)
π(2j + 1) sinh((2j + 1)π)
con lo que la solución propuesta es
∞
X
−8
u(x, y) =
sin((2j + 1)x) sinh((2j + 1)(y − π)).
3
π(2j
+
1)
sinh((2j
+
1)π)
j=0
(1.15)
La Figura 4(a) muestra el gráfico de la función obtenida al truncar en el primer término
la serie que define u. La misma Figura muestra el gráfico de la parábola correspondiente
al valor en y = 0. La Figura 4(b) es similar pero incluye los dos primeros términos de
la suma. En este caso no hay diferencia visible entre la aproximación y el valor dado en
y = 0. La Figura 4(c) muestra el gráfico de la diferencia entre las dos aproximaciones
anteriores (es decir, se grafica el término correspondiente a j = 1).
Ahora bien, como mencionamos en la Sección 1, hay que verificar que (1.15) sea solución de la ecuación diferencial ya que, si bien cada sumando lo es, al haber una suma
infinita, no es obvio que se puedan intercambiar sumas y derivadas. Para poder ver esto,
comenzamos por recordar un resultado de Análisis I.
Teorema 1.21. Sean sn : (a, b) → R una sucesión de funciones C 1 (a, b) que converge
puntualmente a la función s. Si l´ımn→∞ s0n (x) existe uniformemente para todo x ∈ (a, b),
entonces s es diferenciable en (a, b) y s0 (x) = l´ımn→∞ s0n (x)
10
1. SERIES DE FOURIER
2.5
2.5
2.0
2.0
1.5
1.5
1.0
1.0
0.5
0.5
3
0.0
0.0
0.5
1.0
1.5
1
2.0
x
2.5
3
0.0
0.0
2
y
0.5
1.0
1.5
0
3.0
1
2.0
x
(a) N = 0
2.5
3.0
2
y
0
(b) N = 1
0.05
0.0
−0.05
3
0.0
0.5
2
1.0
1.5
2.0
x
2.5
1
3.0 0
y
(c) diferencia
Figura 1.4. Sumas parciales de la función u definida por (1.15)
Demostración. Sea σ : (a, b) → R el límite uniforme de (s0n )n∈N . Por ser cada s0n
continua en (a, b), su límite uniforme σ es una función continua en (a, b). Para x ∈ (a, b)
y h tal que x + h ∈ (a, b), usando que el límite uniforme de funciones conmuta con la
integral (en una región acotada) tenemos que
Z x+h
Z x+h
Z x+h
0
l´ım sn (t)dt = l´ım
s0n (t)dt
σ(t)dt =
x
x
n→∞
n→∞
x
= l´ım (sn (x + h) − sn (x)) = s(x + h) − s(x).
n→∞
Dividiendo por h 6= 0, tomando h → 0 y aplicando el Teorema Fundamental del Cálculo
(usando que σ es continua en x), obtenemos que
Z
s(x + h) − s(x)
1 x+h
l´ım
= l´ım
σ(t)dt = σ(x),
h→0
h→0 h x
h
mostrado que s es derivable y que su derivada s0 es σ.
Definimos
sn (x, y) :=
n
X
j=0
π(2j +
1)3
−8
sin((2j + 1)x) sinh((2j + 1)(y − π)).
sinh((2j + 1)π)
(1.16)
2. SERIES DE FOURIER (TRIGONOMÉTRICAS)
11
Es claro que, siendo la suma finita, sn es C ∞ . Veamos que la convergencia es uniforme.
Para esto vamos a ver que la sucesión es uniformemente de Cauchy23: es decir que las colas
de la serie están uniformemente acotadas. Para y ∈ (0, π) fijo tenemos, para k = 2j + 1,
2k(y−π)
sinh(k(y − π))
ek(y−π) − e−k(y−π)
−1
ek(y−2π) − e−ky
−ky e
=
=
e
=
sinh(−kπ)
e−kπ − ekπ
e−2kπ − 1
e−2kπ − 1
(1.17)
2k(y−π)
1
−
e
= e−ky
≤ e−ky
1 − e−2kπ
donde, en la desigualdad se usó que, si y ∈ (0, π), e2k(y−π) ≥ e−2kπ . Entonces, suponiendo
que n ≥ m,
|sn (x, y) − sm (x, y)|
n
X
8
=
sin((2j + 1)x) sinh((2j + 1)(y − π))
3
π(2j + 1) sinh(−(2j + 1)π)
j=m+1
n
X
sinh((2j + 1)(y − π)) 8
≤
|sin((2j + 1)x)| 3
π(2j
+
1)
sinh(−(2j
+
1)π)
j=m+1
n
n
∞
X
8 X 1 j
8 X 1 j
8 −(2j+1)y
e
= y
≤
( 2y ) ≤ y
( 2y ) . (1.18)
π
e
π
e
e
π
e
j=m+1
j=m+1
j=m+1
Siendo y > 0, esta última expresión es la cola de una serie geométrica convergente (e
independiente de x), por lo que dicha cola puede ser hecha arbitrariamente pequeña,
uniformemente en x, para n y m suficientemente grandes. Por lo tanto, lo mismo vale para
las colas de las sn . Luego, sn (x, y) es uniformemente de Cauchy y, por la Proposición 1.51,
∂
converge uniformemente (para y fijo). Con argumentos similares se ve que ∂x
sn (x, y)
también converge uniformemente para y fijo. Por el Teorema 1.21 se puede intercambiar
∂
∂2
con la sumatoria. Reiterando el razonamiento se puede ver que lo mismo vale para ∂x
2.
∂x
∂2
Razonamientos paralelos para x fijo permiten ver que ∂y2 también se puede intercambiar
con la sumatoria. En conclusión, ∆ entra en la sumatoria y, siendo cada sumando una
función armónica, se concluye que ∆u = 0 en (0, π) × (0, π).
Ejercicio 1.22. Completar el razonamiento anterior para mostrar que
∆u(x, y) = l´ım ∆sn (x, y) = 0
n→∞
para todo (x, y) ∈ (0, π)×(0, π), donde u está definida por (1.15) y sn por (1.16). Sugerencia: para probar la convergencia uniforme para x fijo y como función de y puede resultar
útil hacerlo en intervalos de la forma (y0 , π) con y0 ∈ (0, π) fijo. Si se prueba este resultado,
2
2
n (x,y)
= l´ımn→∞ ∂ s∂y
para cualquier (x, y) ∈ (0, π) × (0, π).
es fácil deducir que ∂ u(x,y)
2
∂y 2
Nota 1.23. Los Teoremas 1.13 y 1.15 permiten recuperar el valor en cada punto de
una función continua a partir de su serie de Fourier, siempre que la función sea, además,
suave a trozos. Esta última condición puede ser relajada si lo que se permite que la frase “a
partir de su serie de Fourier” tome un sentido más amplio que el de pedir la convergencia
puntual de la serie al valor de la función en cada punto. Por ejemplo, un resultado clásico
dice que si sn es una sucesión que converge a s, entonces la sucesión cn := n1 (s1 + · · · + sn )
2Ver
la Sección 5 para más detalles sobre convergencia uniforme
Cauchy (1789-1857): matemático francés recordado por sus variadas contribuciones
al Análisis, siendo uno de los principales creadores del Análisis Complejo. Es autor de alrededor de 800
trabajos científicos.
3Augustin-Louis
12
1. SERIES DE FOURIER
–conocida como suma Cesàro4 de sn – también converge a s. Lo interesante es que cn puede
ser convergente aún en casos en que sn no lo es, como por ejemplo cuando sn := (−1)n ,
n
en cuyo caso cn = − 1−(−1)
tiende a 0. Si se aplica esta idea al caso en que sn es la suma
2n
parcial de la serie de Fourier de f en t, es un resultado de L. Fejér5 que la sucesión cn
asociada converge a 21 (f (t+ )+f (t− )) con la única hipótesis de que f sea continua a trozos.
En particular, si f es continua, las sumas Cesàro de su serie de Fourier convergen al valor
de la función en cada punto.
3.
Series de Fourier (exponenciales)
3.1.
Definiciones. Usando las expresiones
eit + e−it
eit − e−it
y cos(t) =
sin(t) =
2i
2
se puede reescribir una serie de Fourier (1.12) en términos de exponenciales complejas:
∞
∞
X
X
eikt − e−ikt
eikt + e−ikt
0t
a0 +
+ bk
)
(ak cos(kt) + bk sin(kt)) = a0 e +
(ak
2
2i
k=1
k=1
∞
X
ak − ibk ikt ak + ibk −ikt
= a0 e +
(
e +
e )
2
2
k=1
0t
=
∞
X
(1.19)
ck eikt ,
k=−∞
donde

ak −ibk

si
k>0
 2
ck := a0
si
k=0

 a−k +ib−k
si
k < 0.
2
Notamos que los ck tienen una simetría: c−k = ck para todo k ∈ Z. Es claro que este
proceso se puede revertir mostrando que hay una equivalencia entre las series de Fourier
trigonométricas y exponenciales (que satisfacen la condición de simetría mencionada).
Más en general, es posible obtener desarrollos exponenciales para funciones periódicas
a valores complejos. En este caso no se verifica la propiedad c−k = ck . Un razonamiento
análogo al (1.8) lleva a la siguiente definición.
Definición 1.24. Si f : R → C es 2T -periódica se define su serie exponencial de
Fourier como
Z T
∞
X
π
1
ik Tπ t
ck e
con ck :=
f (t)e−ik T t dt.
(1.20)
2T
−T
k=−∞
Vale los siguientes resultados, análogos a los Teoremas 1.13 y 1.15 para series trigonométricas.
Teorema 1.25. Si f : R → C es 2T -periódica y suave a trozos vale
f (t+ ) + f (t− ) X ik π t
=
ck e T
2
k∈Z
para todo t ∈ R.
4Ernesto
Cesàro (1859-1906) fue un matemático italiano recordado por su trabajo en sumas de series
divergentes y ciertas curvas.
5Lipót Fejér (1880-1959) matemático húngaro reconocido por su trabajo en análisis armónico. Dirigió
a numerosos alumnos brillantes como, por ejemplo, a John von Neumann, Paul Erdõs y George Pólya.
3. SERIES DE FOURIER (EXPONENCIALES)
13
Teorema 1.26. Si f : R → C es 2T -periódica y suave a trozos, entonces la serie
de Fourier de f converge a f uniformemente si y sólo si f es continua. Además, si f es
continua, la convergencia de su serie de Fourier asociada es absoluta.
Por último se tiene
Teorema 1.27 (Igualdad de Parseval6). Si f : R → C es 2T -periódica y suave a
trozos vale
Z T
X
1
|f (t)|2 dt =
|ck |2 .
(1.21)
2T −T
k∈Z
Demostración. Ver Sección 6.3.
Corolario 1.28. Si f es real y satisface las condiciones del Teorema 1.27 entonces
Z
∞
X
X
1 T
f (t)2 dt = 2
|ck |2 = 2a20 +
(a2k + b2k ),
T −T
k∈Z
k=1
donde ak y bk son los coeficientes de la serie de Fourier trigonométrica de f .
3.2. Diferenciación e integración término a término. Concluimos esta sección
con algunos comentarios sobre la diferenciabilidad e integrabilidad término a término de
las series de Fourier.
Lema 1.29. Si f : R → C es 2T -periódica, suave a trozos y continua con
X
π
ck eik T t ,
f∼
k∈Z
entonces
f0 ∼
π
π
ik ck eik T t
T
k∈Z
X
Demostración. Dado que f 0 es continua a trozos es posible partir al intervalo
[−T, T ] = [t0 , t1 ] ∪ · · · ∪ [tK−1 , tK ] de modo que f 0 sea continua en cada intervalo (tj , tj+1 ).
Entonces, denotando por c0k al k-ésimo coeficiente de Fourier de f 0 e integrando por partes,
se tiene
Z T
K Z
π
1
1 X tj 0
0
−ik Tπ t
0
f (t)e
ck =
dt =
f (t)e−ik T t dt
2T −T
2T j=1 tj−1
tj
Z tj
K 1 X
π
−ik Tπ t
−ik Tπ t f (t)e
−
=
f (t)e
(−ik )dt
2T j=1
T
tj−1
tj−1
Z
K 1 X
π tj
− −ik Tπ tj
+
−ik Tπ tj−1
−ik Tπ t
f (tj )e
f (t)e
=
− f (tj−1 )e
+ ik
dt
2T j=1
T tj−1
K
K Z
π
1 X
π 1 X tj
− −ik Tπ tj
+
−ik Tπ tj−1
=
(f (tj )e
− f (tj−1 )e
) +ik
f (t)e−ik T t dt .
2T j=1
T 2T j=1 tj−1
|
{z
}
|
{z
}
=A
=B
+
f (tj ) =
Ahora bien, tomando en cuenta que f es continua, vale que
f (t−
j ) = f (tj ),
con lo que prácticamente todos los términos de A se cancelan dando A = f (T )e−ikπ −
6Marc-Antoine
Parseval (1755-1836) fue un matemático francés, de quien poco se conoce. Es recordado por sus trabajos en ecuaciones diferenciales en derivadas parciales, muy especialmente por el
Teorema 1.27.
14
1. SERIES DE FOURIER
f (−T )e−ikπ = 0 por la periodicidad de f . Por otro lado, B =
En conclusión, c0k = ik Tπ ck .
1
2T
RT
−T
π
f (t)e−ik T t dt = ck .
Ejercicio
y continua a trozos. Mostrar
R x1.30. Sea f : R → C una función 2TR-periódica
T
que F (x) := 0 f (t)dt es 2T -periódica si y solo si −T f (t)dt = 0.
R T Lema 1.31. Sea f : R → C una función 2T -periódica y continua a trozos tal que
f (t)dt = 0, con
−T
X
π
f∼
ck eik T t .
k∈Z−{0}
Entonces, si F (x) =
Rx
f (t)dt, vale que
T X
F ∼ −
iπ
0
k∈Z−{0}
ck
k
X
+
k∈Z−{0}
π
T
ck eik T t
ikπ
Demostración. Por ser F la integral de una función continua a trozos resulta ser
continua y con F 0 = f continua a trozos. Entonces, aplicando el Lema 1.29 a F si
X
π
F ∼
dk eik T t ,
k∈Z
entonces
f = F0 ∼
π
π
dk ik eik T t
T
k∈Z | {z }
X
=ck
y, por lo tanto,
T
ck
si
k 6= 0.
ikπ
Por otro lado, siendo F continua (además de suave a trozos) y F (0) = 0 se tiene
X
X T
π
ck
0 = F (0) =
dk eik T 0 = d0 +
ikπ
k∈Z
dk =
k∈Z−{0}
de donde
d0 = −
T
iπ
X
k∈Z−{0}
ck
.
k
Nota 1.32. Los Lemas 1.29 y 1.31 muestran que, bajo hipótesis adecuadas, las series
asociadas a derivadas e integrales de funciones se obtienen derivando o integrando término
a término la serie original.
Cabe destacar, sin embargo, que las hipótesis de los Lemas deben ser satisfechas. Por
ejemplo, si f (t) es la función 2π-periódica que vale t en [−π, π), se tiene
X (−1)k+1 i
f∼
eikt .
k
k∈Z−{0}
Sin embargo, la serie obtenida derivando término a término esta última serie es
X
(−1)k eikt
k∈Z−{0}
k
cuyos coeficientes ck = (−1) para k 6= 0 no son los coeficientes
de Fourier de ninguna
P
función suave a trozos. Esto es así ya que si fuera g(t) ∼ k∈Z−{0} (−1)k eikt con g suave
P
a trozos, debiera ser 12 (g(0+ ) + g(0− )) = k∈Z−{0} (−1)k , pero el límite del lado izquierdo
4. INTERPRETACIÓN ALGEBRAICA
15
no existe. Más aún, tampoco puede ser la serie de Fourier de una función continua a
trozos (o integrable), debido al Lema 1.36, que veremos más adelante. Es claro que no
hay contradicción con el Lema 1.29 ya que f no es una función continua.
Corolario 1.33. Sea f : R → R una función 2T -periódica y suave a trozos con
∞
X
π
π
f ∼ a0 +
(ak cos(k t) + bk sin(k t)).
T
T
k=1
Entonces:
1. si f es continua vale que
∞ X
π
π
π
π
0
f ∼
− k ak sin(k t)) + k bk cos(k t) .
T
T
T
T
k=1
Rx
2. si a0 = 0, para F (x) := 0 f (t)dt vale que
∞
∞ T X bk X T
π
T
π
F ∼
+
ak sin(k t) −
bk cos(k t)
π k=1 k
kπ
T
kπ
T
k=1
Ejercicio 1.34. Demostrar el Corolario 1.33 usando los Lemas 1.29 y 1.31.
4.
Interpretación Algebraica
La igualdad de Parseval (Teorema 1.27) nos da la siguiente idea. La expresión del
RT
1
lado izquierdo, 2T
|f (t)|2 dt, es una medida del tamaño de f . En álgebra lineal una
−T
manera de introducir longitudes es a través de un producto interno y su norma asociada.
Consideremos el conjunto de las funciones 2T -periódicas a valores complejos cuyo módulo
al cuadrado sea integrable (conjunto que contiene a las funciones sean continuas a trozos).
Este conjunto es un C-espacio vectorial con el “producto interno”
Z T
1
hf, gi :=
f (t)g(t)dt.
(1.22)
2T −T
cuya norma asociada es
Z T
1
2
kf k = hf, f i =
|f (t)|2 dt.
2T −T
Nota 1.35. La operación (1.22) no define realmente un producto interno sobre el
espacio que estamos considerando. El problema es que hay funciones no nulas que tienen
norma 0. RPor ejemplo, si f (t) := 1 para t entero y 0 en todo otro caso, tiene norma
1
kf k2 = 21 −1 |f (t)|2 dt = 0 ya que f se anula en todos los puntos del intervalo salvo en 3.
Este problema parece solucionarse si uno identifica dos funciones que difieren en un
número finito de puntos (ya que una integral no puede distinguir entre tales funciones).
La solución correcta es un poco más sutil y pasa por identificar funciones que difieren
solamente en conjuntos de medida nula, noción esta que no profundizaremos.
En conclusión, para tener un auténtico producto interno, los elementos del espacio
vectorial tienen que ser clases de funciones (cada clase consiste de funciones que difieren
en conjuntos de medida nula). En lo que sigue trabajaremos en estas condiciones sin
mencionarlo explícitamente.
π
Con este producto interno, ¿qué propiedades tienen las funciones eik T t ? Calculemos:
Z T
Z T
ik π t ij π t π
π
π
1
1
−ik
t
ij
t
e T ,e T =
e T e T dt =
ei(j−k) T t dt = δj,k .
2T −T
2T −T
16
1. SERIES DE FOURIER
π
Es decir que las funciones eik T t forman un conjunto ortonormal para el producto interno (1.22). Por claridad, llamaremos
π
φk (t) := eik T t .
¿Qué podemos decir de los coeficientes de Fourier de f ?
1
ck =
2T
T
Z
π
f (t)e−ik T t dt = hφk , f i .
−T
Es decir que, si el conjunto {φk }k∈Z fuese una base ortonormal de nuestro espacio, los
coeficientes de Fourier de f serían las coordenadas de f con respecto a esa base y, entonces,
la serie de Fourier de f sería la manera de escribir a f como combinación lineal de los
elementos de la base. Sin embargo, el conjunto {φk }k∈Z no es una base de nuestro espacio
vectorial. La razón es simple: una base de un espacio vectorial cualquiera tiene que generar,
es decir que todo elemento del espacio vectorial tiene que ser una combinación lineal finita
de elementos de la base. Esto no ocurre para el conjunto {φk }k∈Z . A fin de poder considerar
combinaciones lineales infinitas se introduce la noción de espacio de Hilbert, que es una
variación de la noción de espacio vectorial con producto interno7. Entonces, lo que se
puede ver es que {φk }k∈Z es una base del espacio de Hilbert considerado (tales cosas, a
veces, son llamadas bases de Hilbert).
Supongamos ahora que {ψk }k∈Z es un conjunto ortonormal en un espacio vectorial con
producto interno. SiP
f es una función cualquiera del espacio, cabe preguntarse cuál es la
α ψk (con αk ∈ C y K fijo) que aproxima mejor a f , en el
combinación lineal K
k=−K
kP
2
K
sentido de que “el error” f − k=−K αk ψk sea mínimo. Tenemos
2 *
+
K
K
K
X
X
X
αk ψk = f −
αk ψk , f −
αj ψj
f −
k=−K
j=−K
k=−K
= hf, f i −
2
= kf k −
K
X
= kf k −
hαk ψk , f i +
k=−K
k,j=−K
K
X
K
X
K
X
K
X
k=−K
= kf k2 −
K
X
j=−K
j=−K
2
hf, αj ψj i −
K
X
K
X
αj hf, ψj i −
αk hψk , f i +
k=−K
(αk hf, ψk i + αk hψk , f i) +
hαk ψk , αj ψj i
αj αk hψk , ψj i
k,j=−K
K
X
αj αk δj,k
k,j=−K
(αk hf, ψk i + αk hψk , f i − |αk |2 )
k=−K
7Si
(H, h·, ·i) es un espacio vectorial con producto interno se dice que una sucesión (hn )n∈N en H es
2
convergente si existe h ∈ H tal que l´ımn→∞ khn − hk = 0 (donde kvk := hv, vi). De modo similar al
caso de sucesiones en R o C, se dice que la sucesión (hn )n∈N en H es de Cauchy si, para cada > 0 existe
N ∈ N tal que khn − hm k < si n, m ≥ N . Se dice que (H, h·, ·i) es un espacio de Hilbert cuando toda
sucesión de Cauchy es convergente. Por ejemplo, (R, |·|) es un espacio de Hilbert.
4. INTERPRETACIÓN ALGEBRAICA
17
P
2
Sumando y restando K
k=−K |hψk , f i| al lado derecho obtenemos
2
K
K
X
X
2
αk ψk = kf k −
|hψk , f i|2
f −
k=−K
k=−K
+
K
X
(|hψk , f i|2 − αk hf, ψk i − αk hψk , f i + |αk |2 )
(1.23)
k=−K
2
= kf k −
K
X
2
|hψk , f i| +
k=−K
K
X
|αk − hψk , f i|2 .
k=−K
P
2
Ahora bien, esta última expresión tiene una primera parte, kf k2 − K
k=−K |hψk , f i| , que
PK
es independiente de los αk , mientras que la segunda, k=−K |αk − hψk , f i|2 , dependiente
2
P
de los αk , es positiva. De aquí que el mínimo de f − K
α
ψ
k=−K k k ocurre precisamente
cuando esta segunda parte se anula, es decir, cuando vale αk = hψk , f i para −K ≤ k ≤ K.
En otras palabras, la combinación lineal de ψ−K , . . . , ψK que minimiza su distancia a f
es aquella que tiene por coeficientes αk a los “coeficientes de Fourier” de f respecto de las
ψk . Para esta elección de coeficientes, de (1.23) sale que
2
K
K
X
X
2
|hψk , f i|2
(1.24)
hψk , f i ψk = kf k −
0 ≤ f −
k=−K
k=−K
y, por tanto,
K
X
|hψk , f i|2 ≤ kf k2 .
k=−K
Como en la última desigualdad el lado derecho es independiente de K, se puede tomar el
límite K → +∞ para obtener la desigualdad
∞
X
|hψk , f i|2 ≤ kf k2 ,
(1.25)
k=−∞
conocida como desigualdad de Parseval y que vale para cualquier conjunto ortonormal
observación elemental es que, siendo la serie de términos positivos
P∞ {ψk }k∈Z . Una
2
k=−∞ |hψk , f i| acotada, resulta convergente y, por tanto, su término general tiende a
0:
l´ım hψk , f i = 0.
(1.26)
k→±∞
Este último resultado es conocido como Lema de Riemann–Lebesgue que enunciamos
π
explícitamente en el caso ψk (t) = φk (t) = eik T t .
Lema 1.36 (Riemann-Lebesgue). Si f es una función continua a trozos en [−T, T ],
entonces
Z T
π
1
l´ım hφk , f i = l´ım
f (t)e−ik T t dt = 0.
k→±∞
k→±∞ 2T −T
Si, en particular, f es una función real,
Z T
Z T
1
π
1
π
l´ım
f (t) sin(k t)dt = 0
y
l´ım
f (t) cos(k t)dt = 0.
k→∞ 2T −T
k→∞ 2T −T
T
T
18
1. SERIES DE FOURIER
¿Qué nos dice la igualdad de Parseval (Teorema 1.27)? Esencialmente es una versión
sofisticada del Teorema de Pitágoras! El cuadrado de la longitud de un vector (el lado
izquierdo de la igualdad) es igual a la suma de los módulos cuadrados de sus componentes
(los “catetos al cuadrado”, el lado derecho). También dice que para el sistema ortogonal
π
φk (t) := eik T t con k ∈ Z, la desigualdad de Parseval (1.25) se convierte en una igualdad (1.21) que, reescrita usando la notación del producto interno, queda
∞
X
|hφk , f i|2 = kf k2
(1.27)
k=−∞
Los sistemas ortogonales que tienen esta última propiedad para toda f son llamados
completos y coinciden con las bases de Hilbert.
Nota 1.37. Nada hemos dicho sobre el tipo de funciones que estamos considerando,
más allá de ser periódicas. Uno puede considerar funciones “buenas”, como ser funciones
continuas. Sin embargo se ve que para que el espacio tenga las buenas propiedades necesarias para ser un espacio de Hilbert es necesario agregar otras funciones (de modo que
el conjunto sea completo). El resultado es que se toma el conjunto de todas las funciones
f : [−T, T ] → C cuyo cuadrado es integrable. Por ejemplo, f (t) := |t|−1/4 es una tal
función (que no es continua a trozos).
¿En qué sentido es una función f una combinación lineal de los elementos de la base
del espacio de Hilbert {φk }k∈Z ? En un espacio de Hilbert se dice que f es el límite de
la sucesión fn si l´ımn→∞ kf − fn k2 = 0, donde las P
barras verticales denotan la norma
asociada al producto interno. En particular, la serie ∞
k=−∞ ck φk converge a la función f
si vale
2
2
Z T K
K
X
X
1
ck φk (t) = l´ım
l´ım f −
ck φk (t) dt = 0.
(1.28)
f (t) −
K→∞ 2T −T K→∞ k=−K
k=−K
Se suele decir en este caso que la serie converge a f en media cuadrática o en norma
2, en ambos casos en alusión al cuadrado que aparece en la integral. Esta manera de
converger es muy natural y útil. De algún modo mide el “área entre los gráficos” de
las funciones y la convergencia asegura que esta tiende a 0. No da información sobre el
comportamiento en cada punto, sino sobre conjuntos de “medida positiva”. Reformulamos
esta última discusión en el siguiente resultado.
Teorema 1.38. Sea f : [−T, T ] → C una función de cuadrado integrable (por ejemplo,
es continua a trozos). La serie de Fourier de f converge a f en media cuadrática. Es decir,
vale (1.28).
Demostración. El Teorema 2 en la página 119 de [5] provee una demostración para
series trigonométricas.
En resumen, la familia de funciones {φk }k∈Z es una base del espacio de Hilbert de
funciones 2T -periódicas y las series de Fourier no son otra cosa que la expansión de los
vectores respecto de esta base.
Nota 1.39. El lector puede ya estar familiarizado con distintas nociones de convergencia, como ser la convergencia puntual o la convergencia uniforme. En esta sección hemos
introducido una nueva noción de convergencia: la convergencia en media cuadrática. La
sucesión (fn )n∈N converge a f en media cuadrática en [a, b] si
Z b
l´ım
|f (t) − fn (t)|2 dt = 0.
n→∞
a
4. INTERPRETACIÓN ALGEBRAICA
19
Por ejemplo, la sucesión fn (t) = tn converge a la función nula en media cuadrática en
[0, 1]:
Z 1
Z 1
1
1
1
n→∞
n
2
t2n dt =
|t − 0| dt =
t2n+1 0 =
−−−→ 0.
2n + 1
2n + 1
0
0
Es interesante notar que las funciones fn (x) no convergen puntualmente a la función nula
ya que fn (1) = 1 para todo n. Dado que las fn no convergen puntualmente a la función
nula, tampoco lo hacen uniformemente.
No es difícil ver que la convergencia uniforme en un intervalo [a, b] con a y b finitos implica la convergencia en media cuadrática. Esto no es cierto si se reemplaza la convergencia
uniforme por convergencia puntual.
Dado que la noción de convergencia en media cuadrática se basa en el cálculo de
integrales y el valor de las integrales no se altera si se modifica a las funciones (por
ejemplo a la función límite) en un número finito de puntos (o en un conjunto de medida
nula), se ve que el límite de una sucesión convergente en media cuadrática no es único:
por ejemplo, la sucesión fn (t) = tn converge en media cuadrática a la función nula, pero
también lo hace hacia la función que es nula para t < 1 y que vale 1 en t = 1. El límite pasa
a ser único cuando se piensa en clases de equivalencia de funciones, donde dos funciones
son equivalentes si y solo si difieren en un conjunto de medida nula, en el sentido ya
discutido en la Nota 1.35.
Ejercicio 1.40. En el contexto de las funciones continuas a trozos en el intervalo
[a, b] (con a y b finitos),
1. probar que si una sucesión (fn )n∈N converge uniformemente a f , entonces también
lo hace puntualmente y en media cuadrática.
2. Probar que la convergencia puntual a una función no implica la convergencia
uniforme ni en media cuadrática a dicha función.
3. Probar que la convergencia en media cuadrática a una función no implica la convergencia puntual ni la convergencia uniforme a dicha función.
p
u
Demostración. Si fn →
− f , de la definición misma sale que fn →
− f . Veamos que si
u
L2
− f entonces fn −→ f . Dado > 0, sea N ∈ N tal que |fn (x) − f (x)| < para todo
fn →
x ∈ [a, b] si n ≥ N . Entonces, si n ≥ N ,
Z b
1
2
kfn − f k =
|fn (x) − f (x)|2 dx < 2 ,
{z
}
b−a a |
<2
L2
es decir que kfn − f k < . En conclusión, kfn − f k → 0 y, por tanto, fn −→ f . Esto
prueba el punto 1.
Para cada n ∈ N sea fn : [0, 1] → R definida por
√
1
2

si
x ∈ [0, 2n
],

q4n x
1
1 1
f (x) :=
−4n2 (x − 2n )
si
x ∈ [ 2n
, n]


0
si
x ∈ [ 1 , 1].
n
Es inmediato que fn es continua. Si x ∈ (0, 1], para n suficientemente grande se tiene que
1
< x, por lo que, para tales n, fn (x) = 0. Por otro lado, fn (0) = 0 para todo n. En
n
p
conclusión, fn →
− 0. El cálculo directo muestra que
Z 1
Z 1
2n
2
2
kfn − 0k =
|fn (x)| dx = 2
4n2 xdx = 1
para todo
n
0
0
20
1. SERIES DE FOURIER
por lo que kfn k = 1 y no puede tender a 0. Por tanto, fn no tiende 0 en media cuadrática.
En consecuencia, fn tampoco converge a 0 uniformemente ya que, si lo hiciera, por el
punto 1, también debiera converger a 0 en media cuadrática. Esto muestra el punto 2.
Definimos ahora fn ∈ C 0 ([0, 1]) mediante fn (x) := xn . Como ya se vio en la Nota 1.39
esta sucesión converge en media cuadrática a la función nula. Sin embargo, no lo hace
puntualmente ya que fn (1) = 1 6= 0 para todo n. No convergiendo puntualmente a 0, por
el punto 1, tampoco converge uniformemente a 0, mostrando la validez del punto 3. 5.
Apéndice - Convergencia de sucesiones
En este breve apéndice repasamos las nociones básicas de convergencia puntual y
convergencia uniforme de funciones.
Definición 1.41. Sea (xn )n∈N una sucesión de números reales y x ∈ R. Se dice que
(xn )n∈N converge a x si, para todo > 0, existe N ∈ N tal que |x − xn | < si n ≥ N . En
este caso se escribe xn → x.
Definición 1.42. Sea (xn )n∈N una sucesión de números reales. Se dice que (xn )n∈N
es una sucesión de Cauchy si, para todo > 0, existe N ∈ N tal que |xn − xm | < si
n, m ≥ N .
Proposición 1.43. Sea (xn )n∈N una sucesión de Cauchy de números reales. Entonces
(xn )n∈N es convergente si y sólo si es de Cauchy.
En lo que sigue nos referiremos a sucesiones de funciones (fn )n∈N en X. Esto quiere
decir que para cada n ∈ N, fn : X → R es una función, donde X es un intervalo fijo en
R (puede ser abierto, cerrado, acotado, etc.).
Definición 1.44. Sea (fn )n∈N una sucesión de funciones en X y f : X → R. Se dice
que (fn )n∈N converge puntualmente a f si, para todo > 0 y para cada x ∈ X, existe
p
N ∈ N tal que |f (x) − fn (x)| < si n ≥ N . En este caso, se escribe fn →
− f . Cabe destacar
que el N aludido en esta definición depende tanto de como de x.
Definición 1.45. Sea (fn )n∈N una sucesión de funciones en X. Se dice que (fn )n∈N es
puntualmente de Cauchy si, para cada x ∈ X, la sucesión de números reales (fn (x))n∈N
es una sucesión de Cauchy.
Corolario 1.46. Sea (fn )n∈N una sucesión de funciones en X. Entonces (fn )n∈N es
puntualmente convergente si y sólo si es puntualmente de Cauchy.
p
Proposición 1.47. Sean fn , f : [a, b] → C funciones tales que fn →
− f y sea φ : C → C
p
una función continua. Entonces, φ ◦ fn →
− φ ◦ f en [a, b].
Demostración. Fijemos x ∈ [a, b] y sea > 0. Por la continuidad de φ en f (x),
p
existe δ > 0 tal que |φ(y) − φ(f (x))| < si |y − f (x)| < δ. Como fn →
− f , vale que
fn (x) → f (x), por lo que existe N ∈ N tal que |fn (x) − f (x)| < δ si n ≥ N . Por lo tanto,
si n ≥ N tenemos que |fn (x) − f (x)| < δ y, por tanto, |φ(fn (x)) − φ(f (x))| < . Como p
era arbitrario, esto muestra que φ ◦ fn →
− φ ◦ f en [a, b].
Definición 1.48. Sea (fn )n∈N una sucesión de funciones en X y f : X → R. Se
dice que (fn )n∈N converge uniformemente a f si, para todo > 0, existe N ∈ N tal que
u
|f (x) − fn (x)| < para todo x ∈ X si n ≥ N . En este caso, se escribe fn →
− f . Cabe
destacar que el N aludido en esta definición depende sólo de .
5. APÉNDICE - CONVERGENCIA DE SUCESIONES
21
Definición 1.49. Sea (fn )n∈N una sucesión de funciones en X. Se dice que (fn )n∈N es
uniformemente de Cauchy si, para todo > 0 existe N ∈ N tal que |fn (x) − fm (x)| < para todo x ∈ X si n, m ≥ N .
Nota 1.50. La convergencia uniforme de una sucesión implica la convergencia puntual de la sucesión (con el mismo límite). Toda sucesión uniformemente de Cauchy es
puntualmente de Cauchy.
Proposición 1.51. Sea (fn )n∈N una sucesión de funciones en X. Entonces (fn )n∈N
es uniformemente convergente si y sólo si es uniformemente de Cauchy.
Demostración. Si (fn )n∈N es uniformemente convergente, sea f : X → R tal que
u
u
fn →
− f . Dado > 0, por ser fn →
− f existe N ∈ N tal que |f (x) − fn (x)| < 2 para todo
x ∈ X si n ≥ N . Entonces, si n, m ≥ N y x ∈ X
|fn (x) − fm (x)| = |fn (x) − f (x) + f (x) − fm (x)|
≤ |fn (x) − f (x)| + |f (x) − fm (x)| <
+ = ,
2 2
por lo que (fn )n∈N es uniformemente de Cauchy.
Supongamos ahora que (fn )n∈N es uniformemente de Cauchy. Notemos que entonces
p
(fn )n∈N es puntualmente de Cauchy y, por tanto, fn →
− f para alguna f : X → R. Por otro
lado, dado > 0, existe N ∈ N tal que |fn (x) − fm (x)| < 2 para todo x ∈ X si n, m ≥ N .
Pero entonces, para cada x ∈ X, tomando m → ∞ obtenemos |fn (x) − f (x)| ≤ 2 < u
− f.
(para todo x ∈ X si n ≥ N ). Por lo tanto fn →
Es interesante estudiar condiciones que permitan transformar una sucesión que converge uniformemente en otra que también lo haga.
u
Ejercicio 1.52. Sean fn , f : [a, b] → C funciones continuas tales que fn →
− f . Probar
que existe M > 0 tal que, para todo x ∈ [a, b], |f (x)| ≤ M y |fn (x)| ≤ M , para todo
n ∈ N (la misma constante M en todos los casos).
Ejercicio 1.53. Sean fn , f : [a, b] → C funciones tales que (fn )n∈N no converge
uniformemente a f . Probar que existen > 0 y sucesiones (nj )j∈N de números naturales
y (xj )j∈N en [a, b] tales que
fn (xj ) − f (xj ) ≥ para todo
j ∈ N.
(1.29)
j
u
Proposición 1.54. Sean fn , f : [a, b] → C funciones continuas tales que fn →
− f y
u
sea φ : C → C una función continua. Entonces, φ ◦ fn →
− φ ◦ f en [a, b].
u
Demostración. Supongamos que no fuera cierto que φ ◦ fn →
− φ ◦ f . En este caso,
por el Ejercicio 1.53 existen > 0, una sucesión (nj )j∈N de números naturales y otra
(xj )j∈N contenida en [a, b] tales que
φ(fn (xj )) − φ(f (xj )) ≥ para todo
j ∈ N.
(1.30)
j
Siendo (xj )j∈N una sucesión en el intervalo cerrado y acotado [a, b], tiene una subsucesión
convergente (xjk )k∈N que converge a x ∈ [a, b].
u
u
Ahora notemos que, por ser fn →
− f , en particular fnjk →
− f y, entonces, dado 0 > 0,
existe K ∈ N tal que fnjk (x0 ) − f (x0 ) < 0 para todo x0 ∈ [a, b] si k ≥ K. En particular,
como xjk ∈ [a, b], vale que fnjk (xjk ) − f (xjk ) < 0 para todo k ≥ K. Esto muestra
que fnjk (xjk ) − f (xjk ) → 0. Por otro lado, siendo f continua y xjk → x, tenemos que
22
1. SERIES DE FOURIER
f (xjk ) → f (x). Juntando ambos resultados obtenemos que fnjk (xjk ) → f (x). Usando
ahora la continuidad de φ, vemos que φ(fnjk (xjk )) → φ(f (x)) y que φ(f (xjk )) → φ(f (x)),
por lo que φ(fnjk (xjk )) − φ(f (xjk )) → 0. Sin embargo, esto no es compatible con (1.30).
u
La contradicción muestra que φ ◦ fn →
− φ ◦ f.
u
Ejemplo 1.55. Sean fn , f : [a, b] → C funciones continuas tales que fn →
− f . Entonces,
u
2
siendo z 7→ |z| una función continua, por la Proposición 1.54, vale que |fn |2 →
− |f |2 .
6.
Apéndice - Teoremas de convergencia de la serie de Fourier
En esta Sección daremos una demostración de los Teoremas 1.13 y 1.15, en el caso de
funciones de período 2π, siendo el caso de período 2T fácilmente deducible de éste.
6.1. Convergencia puntual. Comenzaremos haciendo algunos cálculos auxiliares.
Usando la fórmula de la suma para una suma geométrica se tiene
n
X
n
n
n
X
X
X
e−inu − 1
einu − 1
iku
−iku
iku
2
cos(ku) =
+ e−iu −iu
(e + e
)=
e +
e−iku = eiu iu
e −1
e −1
k=1
k=1
k=1
k=1
1
u
1
u
einu − 1
e−inu − 1
ei(n+ 2 )u − ei 2 − e−i(n+ 2 )u + e−i 2
−i u
2
= e iu
u + e
u =
u
u
u
e 2 − e−i 2
e−i 2 − ei 2
ei 2 − e−i 2
1
1
sin((n + 12 )u)
ei(n+ 2 )u − e−i(n+ 2 )u
= −1 +
=
−1
+
u
u
sin( u2 )
ei 2 − e−i 2
iu
2
de donde se concluye que, siempre que sin( u2 ) 6= 0,
n
sin((n + 12 )u)
1 X
cos(ku) =
,
+
2 k=1
2 sin( u2 )
(1.31)
conocida como fórmula
de Lagrange.
P∞
Si f ∼ a0 + k=1 (ak cos(kx) + bk sin(kx)), entonces su n-ésima suma parcial es
Sn (x) := a0 +
n
X
(ak cos(kx) + bk sin(kx))
k=1
Z π
Z
Z
n
X
1
1 π
1 π
=
(
f (t)dt +
f (t) cos(kt)dt cos(kx) +
f (t) sin(kt)dt sin(kx))
2π −π
π −π
π −π
k=1
Z
n
1 π
1 X
=
f (t)( +
(cos(kt) cos(kx) + sin(kt) sin(kx)))dt
π −π
2 k=1
Z
n
1 π
1 X
=
f (t)( +
cos(k(t − x)))dt
π −π
2 k=1
que, usando (1.31), se convierte en
sin((n + 12 )(t − x))
f (t)
dt
2 sin( t−x
)
−π
2
1
Sn (x) =
π
Z
π
1
Sn (x) =
π
Z
π
o, definiendo z = t − x,
f (z + x)
−π
sin((n + 12 )z)
dz.
2 sin( z2 )
6. APÉNDICE - TEOREMAS DE CONVERGENCIA DE LA SERIE DE FOURIER
23
Se define el Núcleo de Dirichlet como
Dn (z) :=
1 sin((n + 12 )z)
.
2π
sin( z2 )
Integrando (1.31) se obtiene
Z
π
Dn (z)dz = 1
n ∈ N.
para todo
−π
De lo anterior se deduce la fórmula
Z
Z π
f (z + x)Dn (z)dz −
Sn (x) − A =
π
Z
−π
−π
π
(f (z + x) − A)Dn (z)dz (1.32)
ADn (z)dz =
−π
para cualquier A ∈ R.
Demostración del Teorema 1.13. Sea A :=
f (x+ )+f (x− )
.
2
Por (1.32) se tiene
Z π
f (x+ ) + f (x− ) f (x+ ) + f (x− )
=
f (z + x) −
Dn (z)dz
Sn −
2
2
−π
Z 0
Z 0
Z 0
f (x+ )
f (x− )
−
=
f (z + x) − f (x ) Dn (z)dz −
Dn (z)dz +
Dn (z)dz
2
2
−π
−π
−π
Z π
Z π
Z π
f (x− )
f (x+ )
+
+
f (z + x) − f (x ) Dn (z)dz −
Dn (z)dz +
Dn (z)dz
2
2
0
0
0
Z 0
Z π
−
=
f (z + x) − f (x ) Dn (z)dz +
f (z + x) − f (x+ ) Dn (z)dz
{z
}
{z
} |0
| −π
I1
I2
donde, en la última igualdad, las 4 integrales se cancelan usando la sustitución y = −z.
A continuación analizamos la integral I1 , siendo el tratamiento de I2 enteramente
análogo. Sea
( f (x+z)−f (x− )
z
si
z<0
z
sin( z2 )
f˜(z) :=
0
si
z ≥ 0.
Veamos que f˜ es continua a trozos en [−π, π]. Si z > 0 no hay nada que decir, mientras
que si z < 0 dicha propiedad se deduce de la continuidad a trozos de f ya que sin(z z ) es
2
continua allí. Queda por analizar el comportamiento en z = 0. Nuevamente, por derecha
el límite es 0. Por izquierda,
f (x + z) − f (x− )
l´ım−
= f 0 (x− )
z→0
z
es la derivada por izquierda en x, que existe por hipótesis. Se concluye que f˜ es continua
a trozos en [−π, π].
24
1. SERIES DE FOURIER
Volviendo a I1 ,
Z 0
f (z + x) − f (x− ) Dn (z)dz
I1 =
−π
Z 0
1
f (z + x) − f (x− ) z
1
=
z sin((n + )z)dz
2π −π
z
sin( 2 )
2
Z π
1
1
=
f˜(z) sin((n + )z)dz
2π −π
2
Z π
1
1
1
=
f˜(z)(sin(nz) cos( z) + cos(nz) sin( z))dz
2π −π
2
2
Z π
Z π
1
1
1
1
=
f˜(z) cos( z) sin(nz)dz +
f˜(z) sin( z) cos(nz)dz.
2π −π
2
2π −π
2
Dado que f˜(z) cos( 21 z) y f˜(z) sin( 12 z) son continuas a trozos en [−π, π] se concluye del
Lema 1.36 que l´ımn→+∞ I1 = 0. De modo análogo se ve que l´ımn→+∞ I2 = 0, con lo que
se concluye que
f (x+ ) + f (x− )
= 0,
l´ım Sn −
n→+∞
2
es decir que el límite de las sumas parciales de la serie de Fourier de f en x es
tal como se quería demostrar.
f (x+ )+f (x− )
,
2
6.2. Convergencia uniforme. Ahora estudiaremos condiciones para la convergencia uniforme de la serie de Fourier asociada a una función en [−π, π].
Demostración del Teorema 1.15. Sea
∞
X
f ∼ a0 +
(an cos(nt) + bn sin(nt)).
n=1
P
Para demostrar la convergencia uniforme de la serie a0 + P∞
n=1 (an cos(nt)+bn sin(nt)) para
t ∈ [−π, π] alcanza con demostrar que la serie numérica ∞
n=1 (|an | + |bn |) es convergente
ya que esta última serie acota superiormente el valor absoluto de la serie original de
funciones (omitiendo el término a0 que no altera
P∞ la convergencia ni uniformidad ya que es
constante). EsPclaro que laP
convergencia de n=1 (|an | + |bn |) se reduce a la convergencia
∞
de las series ∞
|a
|
y
n
n=1 |bn |. A continuación estudiaremos la convergencia de la
n=1
primera de estas series, siendo el caso de la segunda totalmente análogo.
Por el Corolario 1.33 se tiene que si
∞
X
f0 ∼
(a0n cos(nt) + b0n sin(nt))
n=1
entonces
b0n
= −nan con lo que
K
X
1
1
K
X
K
K
X
1 0
1 2 X 0 2 2
|an | =
|b | ≤
|bn |
n n
n2
n=1
n=1
n=1
n=1
donde la última desigualdad es la de Cauchy-Schwarz en RK . Siendo f suave a trozos, f 0
es continua a trozos y, por la desigualdad de Parseval (1.25) aplicada a f 0 , se tiene
Z
K
K
X
X
1 π 0 2
0 2
0 2
0 2
|f (t)| dt < ∞
|bn | ≤
(|an | + |bn | ) ≤
π −π
n=1
n=1
6. APÉNDICE - TEOREMAS DE CONVERGENCIA DE LA SERIE DE FOURIER
Por lo tanto
K
X
n=1
|an | ≤
X
K
n=1
1
n2
12 X
K
|b0n |2
21
≤
X
∞
n=1
n=1
1
n2
12 X
∞
|b0n |2
25
12
<∞
n=1
P∞
con lo que la serie de términos
positivos
n=1 |an | es acotada y, por lo tanto, convergente.
P
El análisis de la serie ∞
|b
|
es
similar.
Esto
termina la demostración de que la serie de
n
n=1
f converge uniformemente. Más aún, dado que se han tomado valores absolutos en todo
momento, esto también demuestra que la serie converge absolutamente.
La recíproca, es decir que si la serie de Fourier converge uniformemente f resulta
continua, es un resultado general puesto que las sumas parciales de la serie de Fourier son
funciones continuas y el límite uniforme de funciones continuas en siempre una función
continua.
6.3. Igualdad de Parseval. Por último, daremos una demostración de la igualdad
de Parseval. La versión del Teorema 1.56 requiere más hipótesis que las formulaciones
habituales pero, a cambio, tiene una demostración elemental. La versión del Teorema 1.57
requiere menos hipótesis pero referimos a la bibliografía para su demostración.
Teorema 1.56. Sea f : R → C una función 2T -periódica, suave a trozos y continua.
Entonces
Z T
X
1
|ck |2 .
(1.33)
|f (t)|2 dt =
2T −T
k∈Z
Demostración. Por
PKser f continua πy suave a trozos, por el Teorema 1.26, la serie de
Fourier de f , sK (f ) = k=−K ck exp(ik T t), converge uniformemente a f , en particular,
u
en [−T, T ]. En vista del Ejemplo 1.55 tenemos que |sK (f )|2 →
− |f |2 en [−T, T ]. Siendo
[−T, T ] un intervalo cerrado y acotado, por esta última convergencia uniforme tenemos
que
Z T
Z T
1
1
2
|sK (f )| (t)dt →
|f |2 (t)dt.
2T −T
2T −T
Por otro lado, expandiendo |sK (f )|2 (t)
Z T
Z T X
K
π
π
1
1
2
|sK (f )| (t)dt =
ca cb eia T t e−ib T t dt
2T −T
2T −T a,b=−K
K
X
1
=
ca cb
2T
a,b=−K
|
Z
T
−T
ia Tπ t −ib Tπ t
ca cb e
{z
δa,b
La fórmula (1.33) se obtiene de los dos cálculos anteriores.
e
K
X
dt =
|ca |2 .
} a=−K
Teorema 1.57. Sea f : [−T, T ] → C una función de cuadrado integrable. Entonces
vale (1.33).
Demostración. Ver [5]. En la página 54 se define un sistema completo como un
sistema ortonormal de funciones que satisface (1.33). Luego, en la Sección 2 del Capítulo
5 se prueba la completitud del sistema trigonométrico (de donde es inmediata la del
sistema exponencial).
Corolario
1.58. Sea f : R → C una función 2L periódica de P
tipo C r para r ≥ 1 con
P
ik Tπ t
f ∼ k∈Z ck e
. Entonces sus coeficientes de Fourier satisfacen k∈Z k 2r |ck |2 < ∞.
26
1. SERIES DE FOURIER
Demostración. Siendo f ∈ C r , es posible aplicar el Lema 1.29 reiteradamente mientras f (a) sea C 1 . De este modo obtenemos
X π r
π
(r)
f ∼
ik
ck eik T t .
T
k∈Z
Aplicando ahora el Teorema 1.57 a la función continua (y, por tanto, integrable) f (r) ,
obtenemos que
X π r 2 π 2r X
ck =
k 2r |ck |2 ,
∞>
ik
T
T
k∈Z
k∈Z
de donde se desprende el enunciado.
2
Funciones Especiales
1.
Algunas funciones especiales
Mirando las secciones anteriores cabe preguntarse si la teoría de Fourier está esencialmente unida a las funciones seno y coseno, o la exponencial, o si habrá otras funciones que
permiten desarrollar teorías similares. La respuesta a esto es que, si bien hay partes de la
teoría que son específicas de estas funciones, una buena parte de la misma se extiende en
otras direcciones. Una dirección que no exploraremos aquí es la de reemplazar el dominio
básico, el intervalo [−T, T ] (o más precisamente el círculo S 1 que corresponde a identificar
los extremos del intervalo), por otras regiones en dimensiones más altas. En cambio, volveremos al comienzo para recordar que las funciones trigonométricas (o la exponencial)
aparecieron como soluciones de una cierta ecuación diferencial ordinaria (ver (1.3)). Antes
de continuar, cabe mencionar que en esta sección nos limitaremos a considerar problemas
sobre R. Valen propiedades análogas sobre C, agregando algunas barras de conjugación
en lugares convenientes. Se sugiere el Capítulo 7 de [6] como referencia para esta sección
y la siguiente.
La ecuación (1.3) puede ser reescrita como
X 00 (x) = λX(x)
con X(0) = X(π) = 0
lo que permite reinterpretarla como que X es una autofunción de autovalor λ del operador
L(u) := u00 , definido sobre el espacio de funciones (digamos C ∞ ) con u(0) = u(π) = 0.
Este enfoque lleva directamente a una idea de como generalizar la teoría: dada una
ecuación diferencial lineal y homogénea, se la puede interpretar como buscar el núcleo
de un operador lineal entre ciertos espacios vectoriales (que toman en cuenta los valores
de contorno de la ecuación dada). Entonces las autofunciones del operador proveen una
base (de Hilbert) del espacio vectorial considerado. Más aún, las soluciones de las versiones homogéneas e inhomogéneas de la ecuación diferencial dada pueden escribirse como
combinación lineal de esta base de autofunciones.
Lo expuesto en el párrafo anterior es cierto si la ecuación dada satisface algunas condiciones, como veremos más abajo.
Vamos a mencionar algunas propiedades de los operadores lineales de la forma
L(u) := Au00 + Bu0 + Cu
con
u ∈ C 2 ([a, b]).
(2.1)
con A, B, C funciones reales con A ∈ C 1 ([a, b]) nunca nula y B, C ∈ C 0 ([a, b]).
Ejercicio 2.1.
1. Un operador diferencial lineal de segundo orden se dice (for˜
malmente) autoadjunto si es de la forma L(u)
:= (pu0 )0 + qu con p, q funciones
27
28
2. FUNCIONES ESPECIALES
reales, p ∈ C 1 ([a, b]) positiva y q ∈ C 0 ([a, b]). Probar que para un tal operador
vale
Z b
˜
˜
[(L(u))(x)v(x)
− u(x)(L(v))(x)]dx
= p(x)(u0 (x)v(x) − u(x)v 0 (x))|ba .
a
para todo par de funciones u, v ∈ C 2 ([a, b]).
2. Sea
Z x
B(t)
1
ρ(x) :=
exp
dt , p := ρA
|A(x)|
a A(t)
y
q := ρC,
(2.2)
˜
con A, B, C y L como más arriba. Probar que L(u) = ρ1 ((pu0 )0 + qu) = ρ1 L(u)
y,
por lo tanto,
Z b
[(L(u))v − u(L(v))]ρdx = p(u0 v − uv 0 )|ba
(2.3)
a
para todo par de funciones u, v ∈ C 2 ([a, b]).
En el espacio vectorial V de las funciones de clase C 2 ([a, b]), nulas en a y b, se considera
el producto escalar con peso ρ definido en (2.2),
Z b
hu, viρ :=
u(t)v(t)ρ(t)dt.
(2.4)
a
Usando el Ejercicio 2.1 vemos que
hL(u), viρ = hu, L(v)iρ
para todo par de funciones u, v ∈ V.
Una consecuencia inmediata de esta fórmula es que si λ1 y λ2 son autovalores de L
distintos y con autofunciones u1 y u2 respectivamente, entonces estas autofunciones son
ortogonales:
λ1 hu1 , u2 iρ = hλ1 u1 , u2 iρ = hL(u1 ), u2 iρ = hu1 , L(u2 )iρ = hu1 , λ2 u2 iρ = λ2 hu1 , u2 iρ ,
de donde, como λ1 6= λ2 , se tiene que hu1 , u2 iρ = 0.
Hemos descripto el primer paso de la llamada Teoría de Sturm–Liouville 12, que estudia
los autovalores y autofunciones asociados a ecuaciones lineales. Dado un operador, un
problema básico es si posee suficientes autofunciones, es decir, si es diagonalizable. Aún
en el caso de operadores en espacios vectoriales de dimensión finita, no todos los operadores
poseen una base de autofunciones, aunque esto sí vale para operadores autoadjuntos.
Ejercicio 2.2. Con la notación como más arriba, si u es una autofunción de L de
autovalor λ, proba que
Rb
(−A(t)(u0 (t))2 + C(t)u(t)2 )ρ(t)dt
λ= a
.
(2.5)
Rb
2 ρ(t)dt
u(t)
a
˜ asociado en el Ejercicio 2.1.
Sugerencia: considerar el operador L
1Jacques
Charles François Sturm (1803-1855): matemático francés reconocido por su estudio de las
raíces reales de polinomios y las soluciones de la ecuación del calor.
2Joseph Liouville (1809-1882): matemático francés reconocido por su trabajo en múltiples áreas de la
matemática. En Física–Matemática se lo recuerda por su trabajo en sistemas integrables y la introducción
de las variables de ángulo-acción.
1. ALGUNAS FUNCIONES ESPECIALES
29
La fórmula (2.5) tiene varias consecuencias si −A es (estrictamente) positiva y C es no
negativa3, como por ejemplo que los autovalores de L son todos (estrictamente) positivos.
También es posible ver que el menor autovalor de L minimiza los cocientes (2.5) cuando u
(en vez de ser una autofunción) varía sobre todo el espacio vectorial. De hecho, esta idea
se utiliza para demostrar la existencia de autofunciones.
Nota 2.3. En toda la discusión anterior hemos sido bastante descuidados con la
especificación del espacio vectorial en cuestión. El espacio vectorial correcto no es el de
las funciones C ∞ sino, de modo análogo a lo mencionado en la Nota 1.37, uno más grande,
llamado L2 ([a, b], ρ) y formado por las (clases de equivalencia de) las funciones de cuadrado
integrable con peso ρ en [a, b], pero no entramos en esta cuestión que es más técnica.
Bajo las condiciones que venimos trabajando se tiene el siguiente resultado.
Teorema 2.4. Con L definido por (2.1) con las condiciones allí especificadas y −A
(estrictamente) positiva y C no negativa:
1. L posee infinitos autovalores λ1 ≤ λ2 ≤ · · · con λ1 > 0 y l´ımj→∞ λj = ∞
2. Existe una base de Hilbert del espacio L2 ([a, b], ρ) formada por autofunciones φj
de L con autovalores λj .
Ejemplo 2.5. Para el operador L(u) := −u00 con u(0) = u(T ) = 0, los autovalores y
autofunciones que menciona el Teorema 2.4 fueron calculados en la Sección 2 del Capítulo 1
y son λk := (k Tπ )2 (notar la diferencia de signos debido a que consideramos −u00 = 0 en
vez de u00 = 0) y φk (t) = sin(k Tπ t), con k ∈ N.
Nota 2.6. Como consecuencia del Teorema 2.4 tenemos que cualquier función f del
espacio vectorial puede escribirse como
X
ck φk
(2.6)
f=
k∈N
para ciertos coeficientes ck . Como ya vimos en el Capítulo 1, este tipo de igualdad debe
interpretarse como que la serie converge a f en la norma del espacio, es decir que
2
2
Z b K
K
X
X
ck φk (x) dx = 0.
l´ım f −
ck φk = l´ım
f (x) −
K→∞ a K→∞ k=1
k=1
Esto es importante ya que puede ocurrir que (2.6) no valga punto a punto.
Como ya se vio, los coeficientes ck en (2.6) se pueden encontrar multiplicando escalarmente por φj , para obtener
hφk , f iρ
ck =
(2.7)
kφk k2ρ
o, si suponemos que las autofunciones han sido normalizadas,
ck = hφk , f iρ ,
que es exactamente la fórmula para los coeficientes de Fourier que encontramos en las
secciones anteriores.
Rb
Teorema 2.7. Si f : [a, b]P→ R es continua, satisface f (a) = f (b) = 0 y a Af 02 ρdt es
convergente entonces la serie k∈N ck φk con ck definido por (2.7) converge uniformemente
a f en [a, b].
3Notar
que −A positiva quiere decir que A es negativa. Por este motivo, cuando se estudian ecuaciones
lineales es común “arreglar” este signo en la ecuación misma. Por ejemplo, para resolver u00 = 0, que tiene
A = 1, es común pasar a −u00 = 0 que tiene las mismas soluciones y A = −1 < 0.
30
2. FUNCIONES ESPECIALES
Demostración. Ver página 167 de [6].
Ejemplo 2.8. La separación de variables en la ecuación diferencial
 1

 (1+x)2 utt − uxx = 0 para (x, t) ∈ (0, 1) × R


u(x, 0) = f (x)

ut (x, 0) = 0



u(0, t) = u(1, t) = 0
lleva a las ecuaciones
X 00 (x) +
λ
X(x) = 0
(1 + x)2
y
T 00 (t) + λT (t) = 0
con las condiciones de contorno X(0) = X(1) = 0, además de otras condiciones adicionales. En particular, la ecuación para X es el problema de autovalores para el operador L
1
de (2.1) con A(x) = −(1 + x)2 , B = C = 0, por lo que ρ(x) = (1+x)
2.
λ
La ecuación X 00 (x) + (1+x)2 X(x) = 0 es muy similar a una del tipo de Euler (es decir,
donde cada derivada viene multiplicada por una potencia igual al orden de la derivada).
Para hacer esto más preciso, comenzamos por multiplicar la ecuación por (1 + x)2 y
proponer el cambio de variable y = 1 + x. En este caso, definiendo la función incógnita
˜
˜
X(y)
= X(x) (es decir, el valor de x que corresponde al y dado), o sea X(y)
= X(y − 1)
˜
o, también, X(1 + x) = X(x). Usando la regla de la cadena se obtiene
˜ 0 (1 + x) = X 0 (x)
X
˜ 00 (1 + x) = X 00 (x)
X
y
˜ 00 (1 + x) + λX(1
˜ + x) = 0 que, en términos
˜ satisface la ecuación (1 + x)2 X
por lo que, la X
˜ 00 (y) + λX(y)
˜
de y queda y 2 X
= 0 que es una ecuación de Euler. Las soluciones de este
tipo de ecuaciones son de la forma y a , por lo que reemplazando se obtiene la condición
a(a − 1) + λ = 0, de donde
√
1 ± 1 − 4λ
a=
.
2
Para λ 6= 14 hay entonces un espacio de dimensión 2 de soluciones de esta forma. En
términos de x, se tiene
√
1+ 1−4λ
2
X(x) := A(1 + x)
+ B(1 + x)
√
1− 1−4λ
2
.
La condición X(0) = 0 restringe la solución a
√
√
1+ 1−4λ
1− 1−4λ
X(x) := A (1 + x) 2
− (1 + x) 2
La condición X(1) = 0 lleva a
√
2
1−4λ
=1
(2.8)
Si el exponente es real, la única posibilidad es λ = 14 . Este caso es especial ya que tenemos
1
una única solución, (1 + x) 2 . Usando reducción del orden vemos que otra solución es, en
1
este caso, (1 + x) 2 ln(1 + x). Pero entonces, la condición X(0) = 0 lleva a que la solución
es un múltiplo de la función logarítmica. Como esta función no se anula para x = 1, la
condición X(1) = 0 lleva a que la única solución es la nula, con lo que λ = 41 no puede
ser autovalor.
1. ALGUNAS FUNCIONES ESPECIALES
31
La única posibilidad que queda es entonces que el exponente de (2.8) sea complejo, es
decir, λ > 14 . En este caso es más conveniente reescribir la solución como
e
√
1+i 4λ−1
2
ln(1+x)
=e
ln(1+x)
2
e
= (1 + x)
i
1
2
√
4λ−1
2
ln(1+x)
√
cos
√
4λ − 1
4λ − 1
ln(1 + x) + i sin
ln(1 + x)
2
2
Como la ecuación original es lineal y real, las partes reales e imaginarias son soluciones
independientes (en R) de la misma:
r
r
1
1
1
1
(1 + x) 2 cos
λ − ln(1 + x)
y (1 + x) 2 sin
λ − ln(1 + x)
4
4
La condición X(0) = 0 elimina la posibilidad del cos y la X(1) = 0 lleva a que
r
1
sin
λ − ln(2) = 0
4
con lo que
r
1
ln(2) = nπ para n ∈ N.
4
Es decir, los autovalores del operador asociado a la ecuación son
π 2 1
λn = (n
) +
ln(2)
4
λ−
y sus correspondientes autofunciones
ln(1 + x)
φn (x) = (1 + x) sin nπ
.
ln(2)
1
2
Los resultados de esta sección muestran que las {φn } son una base de Hilbert del espacio
de funciones L2 ([0, 1], (1 + x)−2 ), con el producto
Z 1
1
hu, viρ :=
u(x)v(x)
dx
(1 + x)2
0
R1
1
y que cualquier función f con 0 f (x)2 (1+x)
2 dx < ∞ es aproximada por su serie de Fourier
P∞
2
−2
f = n=1 cn φn en L ([0, 1], (1+x) ) con los coeficientes cn definidos por (2.7). Más aún, si
R1
P
f es continua y 0 f 0 (x)2 dx es convergente, el Teorema 2.7 dice que f (x) = ∞
n=1 cn φn (x)
para todo x.
√
Ejercicio 2.9. En el contexto del Ejemplo 2.8, hallar kφn kρ . Probar que 1 + x ∈
L2 ([0, 1], (1 + x)−2 ) y hallar su expansión en términos de las autofunciones φn .
Lamentablemente las condiciones para el Teorema 2.4 no se cumplen en varios problemas de interés. Una razón típica para esto es que alguna de las condiciones sobre los
coeficientes en (2.1) deja de valer en alguno o ambos extremos del intervalo considerado.
A pesar de esto, en muchos casos, los resultados de los Teoremas 2.4 y 2.7 siguen valiendo
(en el último caso con alguna variación). Las condiciones precisas para que valgan estos
resultados son un tanto complicadas de describir y se sugiere consultar la bibliografía.
Un ejemplo de lo descripto en el párrafo anterior es la familia de operadores
1
ν2
u(x) 7→ u00 (x) + u0 (x) − 2 u(x),
x
x
(2.9)
32
2. FUNCIONES ESPECIALES
donde ν es una constante no negativa (es posible, también desarrollar la teoría para ν ∈ C
en cuyo caso se pide Re(ν) ≥ 0). Modificando los signos para que el coeficiente de u00 sea
negativo, el problema de autovalores asociado es
1
ν2
−u00 (x) − u0 (x) + 2 u = λu(x),
x
x
o
ν2
1 0
00
u (x) + u (x) + (λ − 2 )u(x) = 0.
(2.10)
x
x
En la Sección 2 analizaremos esta ecuación y sus soluciones en detalle. En particular
veremos que el problema de autovalores en este caso (con las condiciones de contorno u
acotada en el origen, xu0 (x) → 0 cuando x → 0 y u(1) = 0) tiene por solución a las
funciones
(ν)
(ν)
φk (x) := Jν (xpk )
(ν)
donde pk es el k-ésimo cero de la función de Bessel4 Jν (x). El autovalor correspondiente
a esta función es
(ν)
λk := (pk )2 .
(ν)
En este caso vale que las funciones {φk }k∈N son una base de Hilbert del espacio de
funciones correspondiente al problema con el producto interno
Z 1
u(x)v(x)xdx.
(2.11)
hu, viρ :=
0
Notemos que el peso ρ(x) = x de (2.11) coincide con el dado por (2.2).
Dada una función en el espacio L2 ([0, 1], x), su desarrollo
X
(ν)
ck φk
f=
k∈N
es llamado el desarrollo de Fourier–Bessel de f .
2.
Ecuación de Bessel
Comencemos por ver si existen soluciones u(x) de (2.10) con las condiciones xu0 (x) → 0
cuando x → 0 y u(1) = 0 cuando λ = 0. En este caso, (2.10) es una ecuación de Euler,
por lo que proponemos una solución de la forma u(x) = xα . Es inmediato que esta función
es solución de la ecuación si y sólo si α2 = ν 2 . Si ν 6= 0 la solución general es u(x) =
Axν + Bx−ν y la condición u(1) = 0 impone que B = −A, por lo que u(x) = A(xν − x−ν ).
Entonces, como xu0 (x) = νA(xν + x−ν ), la condición xu0 (x) → 0 sólo se satisface si A = 0.
Luego, si ν 6= 0 no hay soluciones no nulas del problema.
Cuando ν = λ = 0, (2.10) se resuelve directamente dando u(x) = A ln(x)+B. Entonces
u(1) = 0 lleva a que B = 0 y, como xu0 (x) = A, la condición xu0 (x) → 0 sólo se satisface
si A = 0. Por lo tanto, en este caso tampoco hay soluciones no nulas. Concluimos que
λ = 0 no es autovalor del operador (2.9) con las condiciones de contorno dadas.
Descartado el caso λ = 0, vamos a tratar el caso λ > 0. Mediante el cambio de variable
√
t = x λ,
(2.12)
la ecuación (2.10) se reduce a
d2 u˜ 1 d˜
u
ν2
+
+ (1 − 2 )˜
u = 0,
dt2
t dt
t
4Friedrich
(2.13)
Wilhelm Bessel (1784-1846): astrónomo y matemático alemán recordado por el estudio
sistemático de las funciones que llevan su nombre (y que fueran descubiertas por D. Bernoulli) y por ser
el primero en determinar la distancia a una estrella en 1838.
2. ECUACIÓN DE BESSEL
33
donde
t
u˜(t) := u √ .
λ
(2.13) es conocida como la Ecuación de Bessel de orden ν.
Ejercicio 2.10. Si α > 0 es una constante, y u(x)
√ satisface (2.10), hallar la ecuación
t
satisfecha por u˜(t) := u( α ). Concluir que para α = λ, u˜(t) satisface (2.13).
La solución de la ecuación de Bessel es por medio del método de Frobenius ya que
t = 0 es un punto singular regular de la misma. El polinomio indicial es r2 − ν 2 , con lo
que la raíz más a la derecha es r = ν. Para este valor se obtiene la serie
∞
X
(−1)k
2k
ν
.
t
u(t) = a0 t 1 +
22k k!(ν + 1) · · · (ν + k)
k=1
1
2ν Γ(ν+1)
Tomando5 a0 =
se tiene la solución particular
Jν (t) :=
∞
X
k=0
(−1)k
t
( )2k+ν
k!Γ(ν + k + 1) 2
conocida como función de Bessel de primera especie. En particular, si ν = n ∈ N ∪ {0} se
tiene
∞
X
(−1)k
t
Jn (t) :=
( )2k+n .
k!(n + k)! 2
k=0
La Figura 2.1 muestra los gráficos de distintas funciones de Bessel.
1
0.3
0.6
0.8
0.2
0.4
0.6
0.1
0.4
0.2
0.2
0
0
0
0
0
0
10
20
30
x
40
10
20
30
x
50
40
10
20
30
40
50
x
50
-0.1
-0.2
-0.2
-0.2
-0.4
(a) ν = 0
(b) ν = 0.5
(c) ν = 10
Figura 2.1. Gráficos de Jν para distintos valores de ν
Cuando ν ∈
/ N ∪ {0} la función J−ν definida como
∞
X
(−1)k
t
J−ν (t) :=
( )2k−ν
k!Γ(−ν + k + 1) 2
k=0
está bien definida (en particular, los denominadores Γ(−ν + k + 1) se pueden evaluar sin
problemas. En este caso, el estudio de las recurrencias muestra que J−ν es otra solución
de la ecuación de Bessel, linealmente independiente de Jν ya que tienen distinto comportamiento cerca de t = 0 (Jν está acotada mientras que J−ν diverge). En cambio, si
R∞
función Γ se define como Γ(z) := 0 tz−1 e−t dt y es una función meromorfa con polos simples en
z = 0, −1, −2, . . .. Satisface, entre otras, las propiedades Γ(1) = 1, Γ(z) = (z − 1)Γ(z − 1) si Re(z) > 1.
De aquí se deduce que para n ∈ N, Γ(n) = (n − 1)!.
5La
34
2. FUNCIONES ESPECIALES
ν = n ∈ N∪{0} las expresiones Γ(−ν +k +1) para k = 0, . . . , ν −1 carecen de sentido pues
Γ posee polos en los valores en los que se la evalúa. Una interpretación posible es tomar
1
= 0, con lo que se tiene, para ν = n ∈ N ∪ {0}
Γ(−ν + k + 1) = ∞, con lo que Γ(−ν+k+1)
J−n (t) =
∞
X
k=n
∞
X
(−1)k
t
(−1)k
t
( )2k−n =
( )2k−n .
k!Γ(−n + k + 1) 2
k!(−n + k)! 2
k=n
En verdad, la “interpretación” mencionada se justifica ya que esta última serie es la solución del tipo de Frobenius obtenida de la ecuación de Bessel (2.13) cuando se toma la raíz
del polinomio indicial r = −n y para una elección apropiada del coeficiente a0 . Se puede
verificar que J−n = (−1)n Jn , con lo que J−n y Jn resultan ser linealmente dependientes.
Para encontrar una segunda solución linealmente independiente de la ecuación de
Bessel si ν = n ∈ N ∪ {0} es posible usar el método de reducción del orden y la solución
conocida Jν . Una alternativa es proceder del siguiente modo: para ν ∈
/ N ∪ {0} la función
Nν (t) :=
cos(νπ)Jν (t) − J−ν (t)
sin(πν)
está bien definida. Se demuestra que el límite
Nn (t) := l´ım Nν (t)
ν→n
existe y se lo conoce como función de Neumann o función de Bessel de segunda especie.
Nn (t) es solución de la ecuación de Bessel. Además
2
t
Pn (t)
Jn (t)(γ + ln( )) + n + tn Hn (t),
π
2
t
donde γ ' 0.577 . . . es la constante de Euler, Pn es un polinomio con P (0) 6= 0 y Hn una
función entera. Una vez más, debido al comportamiento de Nn en el origen se ve que el
linealmente independiente de Jn . La Figura 2.2 muestra los gráficos de Nν para distintos
valores de ν.
Nn (t) =
x
10
x
0.5
0
x
0
10
20
10
20
20
30
40
50
0
30
40
50
0
30
40
50
0
-5
-1
-0.5
-10
-2
-1
-15
-1.5
-3
-2
-4
-20
-25
(a) ν = 0
(b) ν = 0.5
(c) ν = 10
Figura 2.2. Gráficos de Nν para distintos valores de ν
Como {Jν , J−ν } es una base del espacio de soluciones de (2.13) para ν ∈
/ N ∪ {0},
{Jν , Nν } resulta ser otra base, la diferencia es que esta última base sigue teniendo esta
propiedad al considerar cualquier valor de ν ≥ 0, mientras que la primera no.
En conclusión, la solución general de la ecuación de Bessel (2.13) para cualquier ν con
ν ≥ 0 es
u(t) = AJν (t) + BNν (t).
2. ECUACIÓN DE BESSEL
35
1
0.8
0.6
0.4
0.2
0
0
10
20
30
40
50
x
-0.2
-0.4
Figura 2.3. Varias Jν (x) mostrando la similitud con funciones sinusoidales
para |x| 0
Los gráficos de Jν y Nν son sinusoides amortiguadas. Sus ceros son reales, simples y
forman una sucesión creciente, con la distancia entre dos ceros consecutivos convergiendo a
(ν)
2π (ver Figura 2.3). Los ceros de las funciones Jν serán denotados por pk con k = 1, 2, . . ..
Se puede ver que
eit sin(θ) =
∞
X
Jn (t)einθ
n=−∞
con lo que Jn son los coeficientes de Fourier de eit sin(θ) (como función de θ) y entonces
vale
Z π
Z
1 π
1
it sin(θ) −int
e
e
dθ =
cos(t sin(θ) − nθ)dθ.
Jn (t) =
2π −π
π 0
Se tiene que
r
2
sin(t)
J 1 (t) =
2
πt
y, más en general,
r
1
1
2
Jn+ 1 (t) =
(Pn ( ) sin(t) + Qn ( ) cos(t))
2
πt
t
t
donde Pn y Qn son polinomios.
Por último, hay fórmulas que relacionan las derivadas de las funciones de Bessel con
las funciones mismas, como por ejemplo
tJν0 (t) = νJν (t) − tJν+1 (t).
Para volver al problema de autovalores (2.10), revertimos el cambio de variables (2.12),
para obtener las soluciones (sólo las acotadas en t = 0)
√
u(x) = AJν (x λ)
Al imponer la condición de contorno u(1) = 0 tiene que valer
√
Jν ( λ) = 0
36
2. FUNCIONES ESPECIALES
con lo que los autovalores (correspondientes a λ > 0) del operador (2.9) resultan ser los
cuadrados de los ceros de Jν . A diferencia de las funciones trigonométricas, los ceros de las
funciones de Bessel no están equiespaciados ni se los puede describir de manera explícita.
(ν)
Como antes, los llamamos pk . Entonces, los autovalores del problema (2.10) son
(ν)
(ν)
λk = (pk )2
(2.14)
y una base de las autofunciones correspondientes está dada por
(ν)
(ν)
φk (x) = Jν (xpk ).
(2.15)
Para terminar el análisis de los autovalores y autovectores resta considerar el caso λ < 0.
En este caso se puede proceder como en el caso λ > 0, con la diferencia de que el cambio
de variables (2.12) hace que t sea un número imaginario puro. El resto de lo discutido
para la ecuación de Bessel (2.13) vale sin modificaciones para el caso complejo (después
de todo, las series involucradas se pueden evaluar sin problemas en el caso en que t ∈ C),
dando por resultado de la ecuación (2.10) a
√
u(x) = AJν (x λ).
Ahora bien, al imponer la condición u(1) = 0, se obtiene
√
0 = AJν ( λ),
√
donde λ es un imaginario puro. El problema es que Jν sólo se anula en el origen del eje
imaginario puro, es decir que λ = 0, contradiciendo λ < 0. La afirmación sobre los ceros
de Jν (is) para s ∈ R se sigue inmediatamente de que
ν X
∞
is
s
1
Jν (is) =
( )2k
2
k!Γ(ν + k + 1) 2
{z
}
|k=0
>0
que sólo se anula cuando s = 0. En conclusión, los únicos autovalores y autofunciones del
problema son los dados por (2.14) y (2.15).
Una ecuación muy relacionada con la ecuación de Bessel (2.13) es la llamada Ecuación
de Bessel modificada:
d2 u 1 du
ν2
+
− (1 + 2 )u = 0.
(2.16)
dt2
t dt
t
Mediante el cambio de variable independiente a y = it, (2.16) se vuelve
ν2
d2 u 1 du
+
+
(1
−
)u = 0
dy 2 y dy
y2
que es, formalmente, (2.13) y, por tanto, tiene soluciones Jν (y) y Nν (y). Volviendo a la
variable original t, una base de soluciones de (2.16) es {Jν (it), Nν (it)}. En vez de Jν (it)
se suele usar la función (real)
∞
X
1
t
−ν
Iν (t) := i Jν (it) =
( )2k+ν ,
k!Γ(ν + k + 1) 2
k=0
conocida como función de Bessel de primera especie modificada. De algún modo, estas
funciones Iν guardan la misma relación con Jν que las funciones hiperbólicas con las
trigonométricas usuales.
Algunas propiedades sencillas de las funciones de Bessel son:
Proposición 2.11. Para Re(ν) ≥ 0,
1. dtd (tν Jν (t)) = tν Jν−1 (t).
2. ECUACIÓN DE BESSEL
37
2. dtd (t−ν Jν (t)) = −t−ν Jν+1 (t).
3. dtd (t2 (Jν2 (t) − Jν+1 (t)Jν−1 (t))) = 2tJν2 (t).
R1
(ν)
(ν)
(ν)
4. 0 (Jν (pk x))2 xdx = 12 (Jν+1 (pk ))2 , donde pk es el k-ésimo cero de Jν (x).
Nota 2.12. Como mencionamos en la Sección 1, para ν fijo, se puede probar que
(ν)
las funciones φk (x) := Jν (p(ν) x) con k ∈ N son una base de un espacio de Hilbert. En
concreto, el espacio es L2 ([0, 1], x) con el producto interno (2.11). Debido a esto, cualquier
función en L2 ([0, 1], x) puede ser escrita como suma de funciones de Bessel. Por ejemplo,
para f (x) = 1 para todo x ∈ [0, 1] y con ν = 0, se puede escribir
1=
∞
X
(0)
ck J0 (pk x)
k=1
con
1
ck = 2
(0) J
(p
x)
0 k
D
E
(0)
1, J0 (pk x)
x
Z
1
= R1
1
(0)
J0 (pk x)xdx.
(0)
J (p x)2 xdx
0 0 k
0
x
Usando la Proposición 2.11 se obtiene
=y
ck = R 1
0
=
Z
1
(0)
J0 (pk x)2 xdx
2
1
(0)
J1 (pk )2
(0)
(pk )
1
z}|{
(0)
J0 (pk x)xdx =
0
p(0) k
yJ1 (y)
=
2
0
1
(0)
1
J (p )2
2 1 k
Z
0
(0)
pk
1
(0)
(pk )2
J0 (y)ydy
2
(0)
(0)
pk J1 (pk )
con lo que
1=
∞
X
2
(0)
J0 (pk x).
(0)
(0)
k=1 pk J1 (pk )
(2.17)
(ν)
En muchos casos es necesario usar aproximaciones numéricas de los pk y las funciones
Jν . Estas aproximaciones se pueden obtener de tablas como las de Abramowitz y Stegun [1]
o de software como Maple, pari o matlab. La Tabla 2.1 muestra algunos de los valores
obtenidos para el cálculo de los 5 primeros coeficientes de la serie (2.17).
k
p0k
J1 (p0k )
ck
1 2.404825558 0.5191474972
1.601974697
2 5.520078110 −0.3402648066 −1.064799259
3 8.653727913 0.2714522999
0.8513991928
4 11.79153444 −0.2324598313 −0.7296452400
5 14.93091771 0.2065464331
0.6485236142
Cuadro 2.1. Tabla de ceros y valores de funciones de Bessel
Hay que entender correctamente el significado de (2.17): la igualdad quiere decir que el
límite de la serie de la derecha existe y es la función 1. Sin embargo, este límite es el límite
en L2 ([0, 1], x) con el producto interno (2.11); ver Nota 1.39. En otras palabras, (2.17)
dice que
2
2
Z 1 X
N
N
X
2
2
(0) (0)
l´ım 1 −
J0 (pk x) = l´ım
1−
J0 (pk x) xdx = 0.
(0)
(0)
(0)
(0)
N →+∞ N →+∞ 0
p
J
(p
)
p
J
(p
)
1 k
1 k
k=1 k
k=1 k
38
2. FUNCIONES ESPECIALES
En palabras, el área del cuadrado de la diferencia entre 1 y las sumas parciales de la serie
tiende a 0.
La discusión anterior es muy importante pues no es cierto que la igualdad en (2.17)
ocurra en todos los puntos x ∈ [0, 1]. De hecho, cada sumando de la serie se anula en
x = 1, mientras que el lado izquierdo de (2.17) no lo hace.
La Figura 2.4 muestra aproximaciones de 1 por distintas sumas parciales de (2.17),
mientras que la Figura 2.5 muestra el cuadrado de las diferencias entre la función 1 y la
suma parcial de la serie.
1.2
1.2
1
1
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0
0
0
0.2
0.4
0.6
0.8
1
0
0.2
0.4
0.6
x
x
(a) N = 10
(b) N = 50
0.8
1
Figura 2.4. Aproximaciones de la función f (x) = 1 por sumas parciales
de su serie de Fourier en términos de J0
1
1
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0
0
0
0.2
0.4
0.6
0.8
1
0
0.2
0.4
0.6
x
x
(a) N = 10
(b) N = 50
0.8
1
Figura 2.5. Cuadrado de las diferencias en las aproximaciones de la función f (x) = 1 por sumas parciales su serie de Fourier en términos de J0
3
Introducción a las Ecuaciones Diferenciales
1.
Generalidades
En muchas ramas de la ciencia y la tecnología es común expresar las relaciones entre
las magnitudes que describen un sistema a través de relaciones diferenciales. Es, por tanto,
muy importante poder estudiar este tipo de problema. En muchos casos, si las relaciones
están bien planteadas es posible ver que hay una única solución para el problema, dados
ciertos datos adicionales (por ejemplo, los valores del sistema en algún o algunos momentos
prefijados).
El saber que un problema tiene solución no es, sin embargo, garantía de que tal
solución pueda ser hallada en forma explícita. Mucho ingenio se ha invertido en hallar
métodos que permiten hallar una forma cerrada para la solución de estos problemas pero,
aún así, de algún modo son pocos los problemas para los cuales tal cosa es posible.
Para compensar esta ignorancia se han desarrollado teorías que permiten el estudio de
propiedades cualitativas de las soluciones y que se aplican aún cuando no se dispone de
una forma cerrada para las mismas. En lo que sigue trataremos métodos explícitos para
resolver ecuaciones diferenciales así como también algunos métodos cualitativos.
Una ecuación diferencial es una relación de la forma
F (u(x), x1 , . . . , xn , D[1] u(x), D[2] u(x), . . . , D[k] u(x)) = 0
donde F es una función de finitas variables (en muchos casos es un polinomio), u : Rn → R
es la incógnita, (x1 , . . . , xn ) son las coordenadas en Rn , D[1] u(x) denota a las derivadas
primera de u en x, D[2] u(x) las derivadas segundas de u en x, etc. El mayor orden de
derivada que aparece explícitamente en F –k en este caso– es llamado el orden de la
ecuación diferencial. En el caso n = 1 se dice que la ecuación es ordinaria y si n ≥ 2 es en
derivadas parciales. Una función es solución de una ecuación diferencial si al sustituirla en
la ecuación se obtiene una identidad para todos los valores de la variable independiente.
En verdad, en muchos casos sólo se buscan soluciones en un subconjunto U de Rn , en
cuyo caso solo se pide que la función esté definida y satisfaga la ecuación en U .
Ejemplo 3.1. La ecuación ordinaria de orden dos más general es de la forma
F (u, x, D(1,0) u(x), D(1,1) u(x)) = 0.
donde D(1,0) u(x) = ux (x) = u0 (x) y D(1,1) u(x) = uxx (x) = u00 (x) (más sobre esta notación
en la sección 2). Por ejemplo,
u00 (x) + x2 (u(x))2 u0 (x) − sin(x) = 0
es una tal ecuación.
39
40
3. INTRODUCCIÓN A LAS ECUACIONES DIFERENCIALES
Ejemplo 3.2. La ecuación en derivadas parciales de primer orden en dos variables
más general tiene la forma
F (u, x1 , x2 , D(1) u(x), D(2) u(x)) = 0.
Por ejemplo, xux uy − u2x + exy = 0 es una tal ecuación.
También es posible considerar varias ecuaciones diferenciales que involucran a más
de una función incógnita simultáneamente; estos son llamados sistemas de ecuaciones
diferenciales y, si bien son muy importantes, no serán tratados en este curso.
Algunos tipos de ecuaciones tienen nombres especiales. Por ejemplo, si F es lineal en
u y sus derivadas, se dice que la ecuación es una ecuación lineal. Por ejemplo
xux + y 2 uy − u + xy = 0
es una ecuación lineal de primer orden. Si F es lineal en, al menos, las derivadas de orden
más alto de u, se dice que la ecuación es cuasi lineal. Un ejemplo es la ecuación
xuxx + y 2 u2y − u7 + xy = 0
que es una ecuación cuasi lineal de segundo orden (ya que es lineal en uxx ).
En lo que sigue estudiaremos algunos tipos particulares de ecuaciones en derivadas
parciales
Una cuestión no menor en el estudio de ecuaciones diferenciales es ¿qué es una solución?. La versión más sencilla de solución es, como ya se dijo antes, “algo que reemplazado
en la ecuación la reduce a una identidad”, incluyendo en esto a las posibles condiciones
iniciales o de contorno. Para poder “reemplazar” una posible solución es necesario que la
función propuesta admita, al menos, tantas derivadas como el orden de la ecuación ya
que de otro modo el “reemplazo” no es posible. Esta es la noción de solución clásica de
una ecuación. Si bien esta idea es muy intuitiva, presenta el problema de que solo podrían
ser soluciones de ecuaciones diferenciales funciones con derivadas. En particular, no sería posible que una función discontinua fuese solución de una ecuación diferencial. Esto
limita en buena medida el estudio de problemas con singularidades (ondas de choque,
por ejemplo). Por este motivo se usan distintas nociones más generales de solución, como
ser la de solución distribucional, en la que se permiten distribuciones (una generalización
de la noción de función que será vista en el Capítulo 7) o la de solución débil en la que
se reemplaza la ecuación diferencial dada por una condición integral a ser satisfecha por
cualquier “función de prueba”. Para un ejemplo de solución débil, consultar las Notas 4.8
y 4.9 del Capítulo 4.
2.
Notación
En lo que sigue vamos a usar con frecuencia funciones de varias variables. Para trabajar
con mayor comodidad es útil tener una notación abreviada para escribir las distintas
derivadas.
Si se trabaja en Rn con n ≤ 3 lo usual es denotar a las variables independientes por
2
o uxz (x, y, z) = ∂ u(x,y,z)
.
(x, y, z), siendo las derivadas uy (x, y) = ∂u(x,y)
∂y
∂x∂z
n
Para trabajar en R con n arbitrario es más conveniente usar notación de multi-índices.
Si las coordenadas del espacio son x = (x1 , . . . , xn ) y α = (α1 , . . . , αn ) ∈ (Z≥0 )n es un
multi-índice se define la derivada de orden α como
∂ |α| u(x1 , . . . , xn )
∂ |α| u(x1 , . . . , xn )
D u(x1 , . . . , xn ) :=
=
,
∂xα
∂xα1 1 · · · ∂xαnn
α
3. ALGUNAS ECUACIONES DIFERENCIALES
donde |α| =
Pn
j=1
41
αj . Por ejemplo, si n = 3 y α = (1, 0, 2), se tiene
∂ 3 u(x1 , x2 , x3 )
.
∂x1 ∂x23
Dα u(x1 , x2 , x3 ) =
Para el caso especial α = (0, . . . , 0), se define Dα u = u.
Se define el factorial de un multi-índice α = (α1 , . . . , αn ) como α! := α1 ! · · · αn !. Usando
multi-índices el desarrollo de Taylor de una función u centrado en x0 ∈ Rn adquiere una
expresión razonablemente compacta:
u(x) =
∞
X
X
k=0 {α:|α|=k}
Dα u(x0 )
(x − x0 )α
α!
donde
(x − x0 )α = (x1 − x01 )α1 · · · (xn − x0n )αn .
Por ejemplo, en R2 , los términos de orden ≤ 1 de dicho desarrollo son
D(0,0) u(x0 )
D(1,0) u(x0 )
D(0,1) u(x0 )
(x − x0 )(0,0) +
(x − x0 )(1,0) +
(x − x0 )(0,1)
(0, 0)!
(1, 0)!
(0, 1)!
ux (x0 )
ux (x0 )
= u(x0 ) + 1
(x1 − x01 ) + 2
(x2 − x02 ).
1!
1!
Los operadores usuales (gradiente, laplaciano, etc) también tienen distintas notaciones.
Por ejemplo, el gradiente se denota por
Du = ∇u = (
∂u
∂u
,...,
).
∂x1
∂xn
El laplaciano es
∆u =
n
X
uxj xj .
j=1
En ocasiones se usa la notación D2 u para la matriz Hessiana de u, es decir la matriz
cuadrada formada por todas las derivadas segundas de u. En particular vale ∆u = Tr D2 u.
Si S ⊂ Rn es una hipersuperficie (es decir que tiene dimensión n−1) y ν = (ν1 , . . . , νn ) :
S → Rn es un campo vectorial unitario normal a S, se define la derivada normal a S de
orden k ∈ N de una función u : Rn → R como
X
X
∂ku
∂ku
α
α
:=
(D
u)ν
=
ν1α1 · · · νnαn .
(3.1)
k
α
α
n
1
∂ν
∂ x1 · · · ∂ xn
α +···+α =k
|α|=k
1
n
Un caso particular de la fórmula anterior es la derivada normal (de orden 1):
X
∂u
:=
(Dα u)ν α = Du · ν
∂ν
|α|=1
que no es otra cosa que la derivada direccional de u en la dirección del campo ν normal
a S.
3.
Algunas Ecuaciones Diferenciales
En esta sección enumeraremos algunas ecuaciones diferenciales de distintos tipos. Para
una lista más extensa se puede consultar, por ejemplo, el Capítulo 1 del libro de Evans [4].
42
3. INTRODUCCIÓN A LAS ECUACIONES DIFERENCIALES
3.1. Ecuaciones lineales.
Ecuación de Laplace
∆u =
n
X
uxj xj = 0.
(3.2)
bj uxj = 0.
(3.3)
j=1
Ecuación lineal de transporte
ut +
n
X
j=1
Ecuación del calor o de difusión
ut − ∆u = 0.
(3.4)
iut + ∆u = 0.
(3.5)
utt − ∆u = 0.
(3.6)
ut + uxxx = 0.
(3.7)
ut + H(Du, x) = 0.
(3.8)
det(D2 u) = f.
(3.9)
ut + uux = 0.
Ecuación de Korteweg-de Vries (KdV)
(3.10)
Ecuación de Schrödinger
Ecuación de onda
Ecuación de Airy
3.2. Ecuaciones no lineales.
Ecuación de Hamilton-Jacobi
Ecuación de Ampère
Ecuación de Burgers
ut + uux + uxxx = 0.
3.3. Sistemas de ecuaciones.
Ecuaciones de Maxwell 

Et = rot B
Bt = − rot E

div B = div E = 0.
Ecuaciones de Navier-Stokes(para fluido viscoso incompresible)
(
ut + u · Du − ∆u = −Dp
div u = 0.
(3.11)
(3.12)
(3.13)
4
Ecuaciones de Primer Orden
1.
Método de las curvas características
Estas ecuaciones son de la forma
F (u, x1 , . . . , xn , ux1 , . . . , uxn ) = 0.
Muchas ecuaciones de este tipo remiten a problemas geométricos si se piensa en la (hiper)superficie que es el gráfico de u. Veremos un ejemplo de esto a la brevedad.
Las ecuaciones lineales de primer orden son de la forma
A1 (x)ux1 + · · · + An (x)uxn + B(x)u + C(x) = 0.
(4.1)
Una manera útil de interpretar este tipo de ecuaciones pasa por reescribirla como
A1 (x)ux1 + · · · + An (x)uxn = −B(x)u − C(x).
(4.2)
En esta expresión podemos reconocer en su lado izquierdo a la derivada direccional de
u con respecto a la dirección A(x) := (A1 (x), . . . , An (x)). Sea γ(s) = (γ1 (s), . . . , γn (s))
una curva integral de este campo de direcciones (llamada curva característica en este
contexto), es decir que vale
γ 0 (s) = A(γ(s)) = (A1 (γ(s)), . . . , An (γ(s))).
(4.3)
Entonces, si u˜(s) := u(γ(s)) es u restringida a la curva integral γ, tenemos
∂u
∂u
(γ(s))γ10 (s) + · · · +
(γ(s))γn0 (s)
∂x1
∂xn
∂u
∂u
=
(γ(s))A1 (γ(s)) + · · · +
(γ(s))An (γ(s))
∂x1
∂xn
= −B(γ(s))u(γ(s)) − C(γ(s)) = −B(γ(s))˜
u(s) − C(γ(s))
u˜0 (s) =
(4.4)
con lo que u˜ satisface una ecuación ordinaria lineal y de primer orden. Recapitulando,
si u es una solución de (4.1) y γ es una curva integral del vector de coeficientes A(x), la
restricción u˜ de u a γ satisface (4.4). El método de las curvas características consiste en
resolver esta última ecuación diferencial para hallar u˜ y usar esta restricción para definir
u en todo un abierto.
El método de las curvas características permite hallar una solución de (4.1) mediante
el cálculo de las curvas características (es decir, la resolución de un sistema de n ecuaciones ordinarias), y la solución de una ecuación ordinaria satisfecha por u˜; de este modo, se
reduce la solución del problema de ecuaciones en derivadas parciales al de n + 1 ecuaciones ordinarias de primer orden. Más aún, bajo las condiciones adecuadas, el teorema de
43
44
4. ECUACIONES DE PRIMER ORDEN
5
4
3
2
1
0
-2
-1
0
1
2
-1
Figura 4.1. Curvas características de la ecuación (4.5)
existencia de soluciones para ecuaciones ordinarias de primer orden asegura la existencia
de las soluciones y, por tanto, la de la solución de (4.1).
El proceso descripto más arriba deja una cantidad de información (“constantes de
integración”) sin determinar. Por lo común, se pide que la solución de (4.1) satisfaga
alguna condición adicional que termina determinando estas constantes.
Nota 4.1. El método descripto arriba parece depender de la existencia de u. Sin
embargo se puede probar que la función u˜ realmente produce una solución u de (4.1) para
los puntos x por los que pasa una curva característica que intersecta en un único punto
a la superficie donde está definido el dato inicial. La clave de la demostración es que si
se define u como en el párrafo anterior, su derivada direccional en la dirección de A es,
precisamente u˜0 y la ecuación (4.4) asegura que esta derivada, y por tanto la derivada
direccional de u, son iguales al lado derecho de (4.2).
Ejemplo 4.2. Consideremos la ecuación
(
ux + 2xuy = αu + β
u(1, y) = g(y)
(4.5)
con α y β constantes reales, α 6= 0. Siendo una ecuación lineal de primer orden, comenzamos por determinar sus curvas características, es decir, queremos resolver
(γ10 (s), γ20 (s)) = (1, 2γ1 (s)).
La primera componente nos dice que γ1 (s) = s+A, con A constante. Entonces, la segunda
componente queda γ20 (s) = 2s + 2A, con lo que γ2 (s) = s2 + 2As + B para B constante.
De aquí, eliminando s, vemos que las características son parábolas de ecuación y = x2 −
A2 + B. La Figura 4.1 muestra algunas curvas características. Vemos que, en particular,
la característica que pasa por (x0 , y0 ) cuando s = 0 es γ(s) = (s + x0 , s2 + 2x0 s + y0 ).
Ahora busquemos la solución u restringida a esta característica, es decir u˜(s) = u(s +
x0 , s2 + 2x0 s + y0 ). Usando la ecuación diferencial tenemos:
u˜0 (s) = αu(γ(s)) + β = α˜
u(s) + β,
Que podemos integrar obteniendo
u˜(s) = C1 eαs −
β
,
α
1. MÉTODO DE LAS CURVAS CARACTERÍSTICAS
45
con lo que
β
α
y sólo nos resta calcular la “constante de integración” C1 para conocer u. Cabe aclarar que
C1 es constante para la característica elegida, pero que otra característica (otro (x0 , y0 )
por ejemplo) puede tener otro valor de C1 .
Para esto notemos que la característica pasa por x = 1 cuando s = 1 − x0 . En ese
momento, se tiene y = (1 − x0 )2 + 2x0 (1 − x0 ) + y0 = 1 − x20 + y0 , por lo tanto, la segunda
condición de (4.5) dice que
u(x0 , y0 ) = u˜(0) = C1 −
u˜(1 − x0 ) = u(1, 1 − x20 + y0 ) = g(1 − x20 + y0 ).
Por otro lado,
u˜(1 − x0 ) = C1 eα(1−x0 ) −
β
,
α
de donde
C1 = (g(1 − x20 + y0 ) +
β −α(1−x0 )
)e
.
α
En total
β −α(1−x0 ) β
)e
− .
α
α
2
y como esta expresión vale para todo (x0 , y0 ) ∈ R concluimos que la solución general
de (4.5) es
β −α(1−x) β
2
u(x, y) = g(1 − x + y) +
(4.6)
e
−
α
α
u(x0 , y0 ) = u˜(0) = (g(1 − x20 + y0 ) +
Ejercicio 4.3. Probar explícitamente que la expresión (4.6) es solución del problema (4.5).
Ejercicio 4.4. Resolver el problema (4.5) con α = 0.
Nota 4.5. Para una ecuación lineal de primer orden el comportamiento de la solución
sobre cada característica queda completamente determinado (en cada componente conexa
de la característica) si se conoce su valor en un punto de la misma. En el Ejemplo 4.2 fue
posible determinar este valor de manera completa ya que el dato inicial, g, estaba prescrito
sobre la recta x = 1 que corta exactamente en un punto a cada curva característica, como
se ve en la Figura 4.2. Sin embargo, otro podría ser el comportamiento si el dato inicial
estuviese dado sobre otra curva. Por ejemplo, si fuese u(x, 1) = g(x), entonces habría
muchas características sobre las que no hay dato de contorno ya que no son intersectadas
por la recta x = 1, como se ve en la Figura 4.3. Esto indicaría que puede haber más de una
solución ya que los valores de u pueden ser determinados casi arbitrariamente sobre algún
punto de las características que no cortan la recta. Por otro lado, no cualquier función g
da origen a una solución del problema: la recta y = 1 intersecta en dos puntos a casi todas
las características. Ahora bien, el valor de la solución en uno de esos puntos determina
(via la ecuación) el valor de la solución en el otro. Si los valores de g no satisfacen esta
condición entonces el problema no tiene solución.
Un caso extremo de los problemas mencionados es el caso en que el dato inicial está
dado completamente sobre una característica.
Estos comentarios valen en situaciones mucho más generales que la del Ejemplo 4.2: la
existencia y unicidad de solución de un problema diferencial puede variar completamente
dependiendo de donde se especifique el dato inicial (para una misma ecuación).
46
4. ECUACIONES DE PRIMER ORDEN
6
5
4
3
2
1
0
-2
-1
0
1
2
-1
Figura 4.2. Características y condición de contorno para la ecuación (4.5)
6
5
4
3
2
1
0
-2
-1
0
1
2
-1
Figura 4.3. Características y condición de contorno en y = 1 para la ecuación (4.5)
Ejercicio 4.6. Hallar las condiciones que debe satisfacer la función g(x) de modo
que el problema
(
ux + 2xuy = αu + β
u(x, 1) = g(x)
tenga solución en R2 . Mostrar un ejemplo de g para el cual el problema no admita solución.
Ejemplo 4.7. Consideremos la Ecuación lineal de transporte
ut (x, t) + b · ∇u(x, t) = 0
en
Rn × (0, ∞),
(4.7)
con b ∈ Rn constante1. Las características γ(s) son soluciones de (γx0 (s), γt0 (s)) = (b, 1),
con lo que
γ(s) = (sb + B, s + a)
1En
(4.7) se usa, como es habitual, la convención de que los operadores diferenciales como ∇ actúan
sólo sobre las coordenadas espaciales cuando la función depende de coordenadas espaciales y del tiempo,
t.
1. MÉTODO DE LAS CURVAS CARACTERÍSTICAS
47
para a ∈ R y B ∈ Rn constantes. En particular, la característica que pasa por (x, t)
cuando s = 0 es γ(s) = (sb + x, s + t). La Figura 4(a) muestra las curvas características.
La solución restringida a una característica u˜(s) = u(γ(s)) satisface
u˜0 (s) = 0
con lo que u(x, t) es constante sobre las características. En particular, dada una condición
inicial
u(x, 0) = g(x) ∀x ∈ Rn
(4.8)
vale
u(x, t) = u(x − tb, 0) = g(x − tb)
(4.9)
con lo que (4.9) es la solución general del problema (4.7) con la condición inicial (4.8).
Notemos que la solución (4.9) traslada el dato inicial en la dirección del vector b, que
actúa de velocidad del desplazamiento (ver Figura 4(b)).
t
1
b
x
(a) Vector velocidad y curvas características
t
t1
1
b
x
(b) Dato inicial a t = 0 y solución a t = t1
Figura 4.4. Curvas características del Ejemplo 4.7 con n = 1
Nota 4.8. Es claro que si el dato inicial g en (4.8) es C 1 (Rn ), la solución (4.9) admite
derivadas y da una solución clásica de (4.7). Sin embargo, aún cuando g no sea derivable,
parece razonable pensar que la fórmula (4.9) aún da una solución en algún sentido más
general. Con las definiciones apropiadas se puede ver que este es un caso de solución débil
de (4.7). Para más detalles ver la Nota 4.9.
Nota 4.9. ♦ Soluciones débiles de (4.7) con la condición inicial (4.8). Como se observó
en la Nota 4.8, cuando el dato inicial g en (4.8) no es diferenciable para algún x0 ∈ Rn , la
solución u dada por (4.9) no es diferenciable sobre toda la región x0 = x − tb y, por tanto,
dicha u no es una solución clásica del problema. Para entender qué clase de solución es,
48
4. ECUACIONES DE PRIMER ORDEN
una posibilidad es modificar (extender) el problema dado, del siguiente modo. En lo que
sigue y para simplificar la notación vamos a fijar n = 1.
Si u es una solución clásica de (4.7) y φ es una función de prueba, es decir una función
C ∞ (R2 ) y con soporte compacto (se anula fuera de una bola), entonces se tiene que
Z
0=
(ut (x, t) + bux (x, t))φ(x, t)dxdt
2
ZR Z
Z Z
= ( ut (x, t)φ(x, t)dt)dx + b ( ux (x, t)φ(x, t)dx)dt
R R
R R
t=∞
Z
Z Z
− u(x, t)φt (x, t)dt dx
=
(u(x, t)φ(x, t)
R
R
R
t=−∞
x=∞
Z
Z − u(x, t)φx (x, t)dx dt
+b
u(x, t)φ(x, t)
x=−∞
R
R
de donde, usando que φ tiene soporte compacto (y por tanto se anula para |t| 0 o
|x| 0), se obtiene que
Z
0=
u(x, t)(−φt (x, t) − bφx (x, t))dxdt
(4.10)
R2
para toda función de prueba φ. Cabe notar que por ser φ una función en C ∞ (R2 ) las derivadas que aparecen en (4.10) siempre tienen sentido. Por otro lado, en (4.10) u no aparece
afectada por ninguna operación que requiera su diferenciabilidad. Por estos motivos se
dice que una función (integrable) u es una solución débil de (4.7) si vale (4.10) para toda
función de prueba φ. Es claro que si u es una solución clásica, entonces u es una solución
débil, pero la recíproca no es cierta como veremos a continuación.
Sean
(
1 si x ≥ 0
g(x) :=
0 si x < 0.
y u la función definida por (4.9), es decir
(
1 si x ≥ tb
u(x, t) :=
0 si x < tb.
Es claro que u no es continua sobre la recta x = tb, de modo que no es una solución
clásica de (4.7). Veamos que u satisface (4.10) y es, por lo tanto, una solución débil de
dicha ecuación. Sea φ una función de prueba. Entonces
Z
Z
Z
u(−φt − bφx )dxdt = −
u(x, t)φt (x, t)dxdt − b
u(x, t)φx (x, t)dxdt
R2
R2
R2
Z Z
Z Z
= − ( u(x, t)φt (x, t)dt)dx − b ( u(x, t)φx (x, t)dx)dt
R
R
R
R
Z Z x
Z Z x=+∞
b
=− (
φt (x, t)dt)dx − b (
φx (x, t)dx)dt
R t=−∞
R x=tb
Z
Z
x
= − φ(x, )dx + b φ(|{z}
tb , t)dt
b
R
R
=y
Z
Z
x
y
= − φ(x, )dx + φ(y, )dy
b
b
R
R
= 0.
2. DATOS INICIALES
2.
49
Datos iniciales
Un problema de gran importancia en el estudio de ecuaciones diferenciales es el de
resolver una ecuación de orden k, con k − 1 derivadas de la solución fijadas en una
hipersuperficie dada. Más en concreto se tiene la siguiente definición.
Definición 4.10. Dada una ecuación diferencial de orden k definida en un abierto
U ⊂ Rn , una hipersuperficie S ⊂ Rn con campo normal unitario ν : S → Rn y funciones
gj : S → R para j = 0, . . . , k − 1, el Problema de Cauchy consiste en hallar una solución
u de la ecuación de modo que
∂j u
(x) = gj (x)
∂ν j
donde se entiende que
∂0u
∂ν 0
para todo
x ∈ S,
= g0 .
Por ejemplo, el Problema de Cauchy para la ecuación ordinaria u00 (x) − u(x) = 0 para
x ∈ R con dato en S := {0} dado por g0 , g1 ∈ R es el problema de valores iniciales dado
por
(
u00 (x) − u(x) = 0
para
x∈R
0
u(0) = g0
y
u (0) = g1 .
En lo que sigue vamos a estudiar el Problema de Cauchy para ecuaciones lineales de
primer orden. En particular vamos a ver la relación entre S y la ecuación de modo que el
problema pueda tener solución (local) única. Consideremos la ecuación lineal de primer
orden (4.1) con dato inicial
(
A1 (x)ux1 + · · · + An (x)uxn + B(x)u + C(x) = 0 ∀(x1 , . . . , xn−1 , xn ) ∈ Rn−1 × R>0
u(x1 , . . . , xn−1 , 0) = g(x1 , . . . , xn−1 ) ∀(x1 , . . . , xn−1 ) ∈ Rn−1
(4.11)
Llamaremos S al hiperplano xn = 0, sobre el que está dada la condición inicial y U :=
Rn−1 × R>0 , de modo que S = ∂U , el borde de U . Si u es una solución analítica de (4.11)
se puede escribir la serie de Taylor
u(x) =
∞
X
X
k=0 {α:|α|=k}
Dα u(x0 )
(x − x0 )α
α!
para cualquier x0 ∈ U y con radio de convergencia x0n (la distancia de x0 a S). Supongamos
que u es analítica en U , con lo que es posible tomar x0 ∈ S y la serie tiene algún radio
de convergencia positivo. En este caso vale u(x0 ) = u(x01 , . . . , x0n−1 , 0) = g(x˜0 ), donde
x˜0 = (x01 , . . . , x0n−1 ) ∈ Rn−1 es el vector formado por las primeras n − 1 componentes de
x0 . Del mismo modo, para j = 1, . . . , n − 1,
uxj (x0 ) =
∂u 0
(x , . . . , x0n−1 , 0) = gxj (x˜0 ),
∂xj 1
es decir que tanto u como casi todas sus derivadas primeras quedan determinadas por el
dato inicial g. Para hallar uxn (x0 ) hay que considerar la ecuación diferencial que satisface
u, suponiendo que u la satisface aún en U . Reescribiendo la ecuación como
An (x)uxn = −B(x)u − C(x) − A1 (x)ux1 − · · · − An−1 (x)uxn−1 ,
y evaluando en x0 se tiene
An (x0 )uxn (x0 ) = −B(x0 )g(x˜0 ) − C(x0 ) − A1 (x0 )gx1 (x˜0 ) − · · · − An−1 (x0 )gxn−1 (x˜0 ). (4.12)
50
4. ECUACIONES DE PRIMER ORDEN
Ahora bien, el lado derecho de (4.12) queda determinado por datos conocidos. Si
An (x01 , . . . , x0n−1 , 0) 6= 0,
(4.13)
entonces es posible despejar uxn (x0 ) en términos de datos conocidos (los coeficientes de
la ecuación y el dato de contorno). De este modo, el desarrollo de Taylor en x0 queda
determinado, hasta el primer orden, por los datos. Es claro que este argumento se puede
aplicar nuevamente para las derivadas de orden superior permitiendo la caracterización de
todas las derivadas de u en x0 en términos de los datos del problema. Es posible estudiar
la convergencia de la serie obtenida y usar este argumento para demostrar la existencia de
solución de (4.11) en un entorno de S. Más allá de la existencia de solución, el argumento
muestra que hay, a lo más, una solución analítica de (4.11).
El paso crucial en el razonamiento anterior es la condición (4.13). Si esta condición
falla no es posible determinar las derivadas “normales” de u sobre S (en este caso uxn ,
ver (3.1)) y, por tanto, determinar el comportamiento de u fuera de esta zona. Desde
el punto de vista de las curvas características, la condición (4.13) dice que toda curva
característica que pasa por (x01 , . . . , x0n−1 , 0) es transversal a S (es decir, su tangente no
esta contenida en el espacio tangente a S). Por esto se dice que cuando vale (4.13) S es
una hipersuperficie no característica, mientras que si no vale, S es llamada característica.
Hemos visto, pues, que el Problema de Cauchy para S = {x ∈ Rn : xn = 0} tiene, a
lo sumo, una solución analítica si S es no característica.
Más en general, la condición inicial de (4.1) está dada sobre la hipersuperficie
S := {x ∈ Rn : f (x) = 0}
(4.14)
1
para alguna f : Rn → R, de modo que ν := |∇f
∇f es un campo unitario normal a S. En
|
este caso, si u es una solución analítica aún en S se tiene que para x0 ∈ S,
∇u(x0 ) = (∇u)t + (∇u)n ,
(4.15)
donde (∇u)t es la componente del gradiente de u tangente a S (es decir que ∇f ·(∇u)t = 0)
∇f
y (∇u)n es la componente del gradiente normal a S (es decir que (∇u)n = ∂u
, para
∂ν |∇f |
∂u
la derivada normal definida en (3.1)). Se puede ver que (∇u)t queda completamente
∂ν
determinada por g. Por lo tanto, para calcular ∇u(x0 ) hay que hallar ∂u
. Usando la
∂ν
ecuación diferencial escrita vectorialmente como
A(x) · ∇u = −B(x)u − C(x)
y la descomposición (4.15) se tiene
−B(x0 )u(x0 ) − C(x0 ) = A(x0 ) · ∇u(x0 ) = A(x0 ) · (∇u)t + A(x0 ) · (∇u)n
y, por tanto,
A(x0 ) · (∇u)n = −B(x0 )u(x0 ) − C(x0 ) − A(x0 ) · (∇u)t .
∇f
Recordando que (∇u)n = ∂u
se obtiene
∂ν |∇f |
∂u
A(x0 ) · ∇f = |∇f |(−B(x0 )u(x0 ) − C(x0 ) − A(x0 ) · (∇u)t ).
∂ν
Si
A(x0 ) · ∇f (x0 ) =
n
X
Aj (x0 )fxj (x0 ) 6= 0 ∀x0 ∈ S
(4.16)
(4.17)
j=1
∂u
∂ν
queda determinada por (4.16) en términos de los datos de la ecuación y la
entonces
condición inicial. Se puede probar que todas las derivadas superiores de u pueden ser
halladas del mismo modo siempre que se mantenga la condición (4.17), que se reduce a
la condición (4.13) cuando f (x) = xn , es decir, cuando S := {x ∈ Rn : xn = 0}, que es el
2. DATOS INICIALES
51
caso analizado antes. Se dice que S es no característica dependiendo de si (4.17) vale o
no. Igual que antes, si S es no característica, se puede ver que hay a lo más una solución
analítica del problema de valores iniciales.
Ejemplo 4.11. En las condiciones del Ejemplo 4.2, si se da una condición inicial sobre
S definida por f (x, y) = y − x2 = 0, la condición de ser no característica (4.17) es
1 · (−2x) + 2x · 1 6= 0
que no vale en ningún punto de S, que resulta ser una hipersuperficie (curva, en este
caso) característica del problema. Esto coincide con la observación sobre la imposibilidad
de extender un dato inicial sobre una curva característica hecha en la Nota 4.5.
Más en general, el argumento anterior se puede aplicar a ecuaciones de orden mayor.
En el caso de ecuaciones lineales de orden 2
n
n
X
X
∂ 2u
∂u
+
+ C(x)u = D(x)
Ajk (x)
Bj (x)
∂xj ∂xk j=1
∂xj
j,k=1
con condición inicial u y ∇u dadas sobre S como en (4.14), la condición de S no característica es
n
X
Ajk (x)νj νk 6= 0 ∀x ∈ S,
(4.18)
j,k=1
donde
∇f (x)
.
|∇f (x)|
es un campo unitario normal a S. La condición (4.18) se deduce de que
n
n
X
X
∂ 2u
∂ 2u
Ajk (x)
Ajk (x)νj νk
+ T (x)
=
2
∂x
∂ν
j ∂xk
j,k=1
j,k=1
ν = (ν1 , . . . , νn ) =
2
donde ∂∂νu2 es la derivada normal de u con respecto a ν y T (x) está determinado por u y
∇u en S, es decir, por los valores de contorno y la ecuación dados.
5
Ecuaciones de Segundo Orden
Las ecuaciones de segundo orden son las ecuaciones más comunes de la física matemática, comenzando por la famosa Ley de Newton1: F = m¨
x.
Si bien hay muchas ecuaciones de interés que son no lineales, en estas notas nos
restringiremos a considerar ecuaciones lineales, es decir aquellas de la forma L(u)(x) =
D(x) con
n
n
X
X
∂ 2u
∂u
Ajk (x)
L(u) :=
+
Bj (x)
+ C(x)u
∂x
∂x
j ∂xk
j
j=1
j,k=1
con alguno de los coeficientes Ajk 6= 0. Se define la matriz A de modo que su coeficiente
(A)jk es Ajk . Por simplicidad nos restringiremos al caso en que Ajk , Bj y C toman sólo
valores reales. Vale la pena notar que la matriz A se puede suponer simétrica ya que si
no lo fuese se la puede reemplazar por A˜ = 21 (A + At ) puesto que
n
X
∂ 2u
∂ 2u
A˜jk
=
.
Ajk
∂xj ∂xk j,k=1
∂xj ∂xk
j,k=1
n
X
Consideremos que A es constante. En este caso, las derivadas segundas
n
X
∂ 2u
L2 (u) :=
Ajk
∂xj ∂xk
j,k=1
admiten una escritura muy conveniente:
L2 = hA∂x , ∂x i = (A∂x )t ∂x
donde h, i es el producto interno usual en Rn y


∂ x1
∂x :=  ... 
∂xn
Esto es así ya que
n
n X
n
n
X
X
X
hA∂x , ∂x i =
(A∂x )k (∂x )k =
Akj ∂xj ∂xk =
Ajk ∂xj ∂xk = L2 .
k=1
j=1 k=1
1Isaac
j,k=1
Newton (1642-1727): físico, matemático y alquimista inglés reconocido por su enormes contribuciones a la Física (Leyes de Newton, gravitación, Óptica) y la Matemática (Cálculo diferencial e
integral).
53
54
5. ECUACIONES DE SEGUNDO ORDEN
Ahora bien, para estudiar la ecuación L2 (u) = 0 trataremos de simplificarla de algún
modo. Una manera es proponiendo un cambio de variable independiente. Dado que un
cambio de variable a través de una función no lineal hace perder la condición de que la
ecuación tenga coeficientes constantes, consideraremos sólo cambios lineales de coordenadas, es decir, pasemos de la variable x a y = Gx con G ∈ Rn×n invertible. Como x = G−1 y,
se tiene
n
X
xj =
(G−1 )jk yk .
k=1
Entonces
n
n
n
n
X ∂u ∂xj X ∂u
∂u
=
=
G−1
j1
∂y1
∂x
∂y
∂x
j
1
j
j=1
j=1
..
.
X ∂u ∂xj
X ∂u
∂u
=
=
G−1
∂yn
∂xj ∂yn
∂xj jn
j=1
j=1
o, formalmente,
t
∂y = (G−1 ) ∂x
ó
∂x = Gt ∂y .
Volviendo a L2
L2 = hA∂x , ∂x i = hAGt ∂y , Gt ∂y i = hGAGt ∂y , ∂y i.
(5.1)
donde, la ultima igualdad se puede ver como
t
t
hAGt ∂y , Gt ∂y i = (AGt ∂y ) (Gt ∂y ) = (G(AGt ∂y )) ∂y = hGAGt ∂y , ∂y i.
Por (5.1), la matriz de L2 respecto de las coordenadas y, Ay , es
Ay = GAx Gt .
(5.2)
Ahora recordamos un resultado de álgebra lineal
Proposición 5.1. Toda matriz simétrica A ∈ Mn×n (R) posee una base de autovectores
ortonormales respecto del producto interno usual en Rn .
Como Ax es simétrica, se puede aplicar el resultado anterior. Sea C la matriz cuyas
columnas son los autovectores de la base, de modo que C −1 Ax C es la matriz diagonal
cuyas componentes en la diagonal son los autovalores de Ax . Se puede suponer que los
autovectores de la base están ordenados de modo que las primeras componentes de la
diagonal sean > 0, las siguientes < 0 y las últimas nulas. A continuación se define G :=
C t = C −1 , ya que C es una matriz ortogonal. De este modo se tiene que Ay = GAx Gt =
C −1 Ax C es una matriz diagonal con los autovalores de Ax en la diagonal.
En conclusión, es posible construir un cambio lineal de coordenadas en las variables
independientes de modo que en las nuevas variables la matriz de coeficientes es una matriz
diagonal.
Aún es posible hacer otra simplificación. Si A es una matriz diagonal, escribamos
Ajj = j rj2 con j = 0, 1, −1 según si Ajj es nulo, positivo o negativo. En estos dos últimos
casos, rj2 = |Ajj | y, si j = 0, rj := 1. El cambio de variables zj = r1j yj lleva a
∂ yj =
1
∂z
rj j
5. ECUACIONES DE SEGUNDO ORDEN
55
con lo que
n
X
n
n
n
2
2
X
X
X ∂2
∂2
2 ∂
2 1 ∂
L2 =
Ajj 2 =
j rj 2 =
j rj 2 2 =
j 2 .
∂yj
∂yj
rj ∂zj
∂zj
j=1
j=1
j=1
j=1
En total tenemos
P
2
Proposición 5.2. El operador L2 := nj,k=1 Ajk ∂x∂j ∂xk puede ser transformado mediante un cambio lineal de variables independientes en un operador de la forma
r+
r−
X
X
∂2
∂2
−
2
∂zj2 j=1 ∂zj+r
+
j=1
donde r+ y r− son los números de autovalores positivos y negativos de A respectivamente.
Es práctica común decir que una ecuación de segundo orden es elíptica si r+ = n ó
r− = n, hiperbólica si no es elíptica pero n = r+ + r− y parabólica si n > r+ + r− .
Ejercicio 5.3. Estudiar las curvas características en R2 para ecuaciones elípticas,
hiperbólicas y parabólicas. ¿Puede decir qué ocurre en Rn ?
Proposición 5.4. Dada la ecuación
n
X
n
X
∂ 2u
∂u
Ajk
L(u) :=
+
Bj
+ Cu = 0
∂xj ∂xk j=1 ∂xj
j,k=1
(5.3)
con A, B y C constantes, su conjunto de soluciones es isomorfo al de la ecuación
r+
r−
n−r+ −r−
X
X
∂ 2v X ∂ 2v
∂v
−
+
βj
+ γv = 0
2
2
∂wj
∂wj+r+
∂wj+r+ +r−
j=1
j=1
j=1
(5.4)
donde βj = 0, 1, γ es constante y r+ y r− son los números de autovalores positivos y
negativos de la matriz de coeficientes A.
Demostración. Por la Proposición 5.2, mediante un cambio lineal de variables la
ecuación (5.3) se convierte en
r+
X
∂ 2u
j=1
r−
n
X
X
∂ 2u
∂u
−
+
Bj0
+ C 0 u = 0.
2
2
∂zj
∂zj+r+ j=1 ∂zj
j=1
Es más conveniente reescribir esto como
n
X
n
∂ 2 u X 0 ∂u
Bj
+ C 0u = 0
j 2 +
∂z
∂z
j
j
j=1
j=1
con j = 0, 1, −1 según corresponda. Ahora proponemos
Pn
u(z) = e
j=1
αj zj
v(z) = eα·z v(z)
y se ve que v satisface
n
X
n
n
X
∂ 2v X
0 ∂v
j 2 +
(2j αj + Bj )
+ ( (j αj2 + Bj0 αj ) + C)v = 0.
∂z
∂z
j
j
j=1
j=1
j=1
56
5. ECUACIONES DE SEGUNDO ORDEN
∂v
Es claro que en esta última ecuación es posible anular los coeficientes de ∂z
con j =
j
−1 0
1, . . . , r+ + r− definiendo αj = 2j Bj . Con esta elección v satisface la ecuación
r+ +r−
X
j=1
n
X
∂ 2u
j 2 +
∂zj j=r +r
Bj0
− +1
+
∂u
+ C 00 u = 0
∂zj
Ahora podemos normalizar los coeficientes Bj0 6= 0 mediante el cambio de variable independiente wj = B10 zj (y wj = zj si j 6= 0), lo que finalmente lleva a que v satisface (5.4).
j
Es claro que el proceso es reversible y que toda solución v da origen a una solución u
de (5.3).
Ejemplo 5.5. La Proposición 5.4 dice que las soluciones de toda ecuación lineal de
segundo orden en dos variables y con coeficientes constantes se corresponde con el conjunto
de soluciones de exactamente una de las siguientes ecuaciones:
uxx + uyy + γu = 0
uxx − uyy + γu = 0
uxx + uy + γu = 0
uxx + γu = 0
con γ constante. En los casos γ = 0 estas son ecuaciones bien conocidas: la ecuación
elíptica, de ondas y del calor2. La cuarta es una ecuación ordinaria y por lo tanto no es
de interés para el tema que estamos tratando aquí.
Ejemplo 5.6. Queremos estudiar la “forma normal” dada por la Proposición 5.4 a la
ecuación
3ux1 x1 + 10ux1 x2 + 3ux2 x2 − 2ux2 = 0.
El primer paso es estudiar la parte puramente de segundo orden
L2 (u) = 3ux1 x1 + 10ux1 x2 + 3ux2 x2
que tiene por matriz de coeficientes
A :=
3 5
5 3
.
Los autovectores ortonormales de A son
1
1
1
1
√
y √
2 1
2 −1
que tienen autovalores 8 y −2 respectivamente, con lo que vemos que la parte de orden 2
corresponde a una ecuación de onda. Conocidos los autovectores de A se define
1
1 1
C := √
y G := C t = C.
1
−1
2
De este modo, definiendo las nuevas variables y = Gx, es decir, y1 :=
y2 := √12 (x1 − x2 ) se tiene
L2 (u) = 8uy1 y1 − 2uy2 y2 .
2La
√1 (x1
2
+ x2 ) e
forma usual de escribir la ecuación del calor es uxx − ut = 0, que corresponde a un cambio lineal
de variables, como se vio en la Proposición 5.4. Este cambio no es enteramente trivial en este caso ya que
habitualmente se estudia esta ecuación cuando y > 0 y el cambio de variables necesario para cambiar el
signo del coeficiente justamente convierte esta región en y < 0.
5. ECUACIONES DE SEGUNDO ORDEN
El nuevo cambio z1 :=
√1 y1
8
y z2 :=
√1 y2
2
57
reduce la parte cuadrática a
L2 (u) = uz1 z1 − uz2 z2 .
Para volver al estudio de la ecuación completa vemos como afectan los cambios de variables
realizados hasta acá al término de primer orden:
∂y1
∂y2
1
1 1
1
1
1
ux2 = uy1
+ uy2
= √ (uy1 − uy2 ) = √ ( √ uz1 − √ uz2 ) = uz1 − uz2 ,
∂x2
∂x2
4
2
2
2 8
2
con lo que la ecuación original se escribe, en términos de z1 y z2 como
1
uz1 z1 − uz2 z2 − uz1 + uz2 = 0.
2
Ahora proponemos u(z1 , z2 ) = eα1 z1 +α2 z2 v(z1 , z2 ). Se ve que v satisface:
1
1
vz1 z1 − vz2 z2 + (2α1 − )vz1 + (−2α2 + 1)vz2 + (α12 − α22 − α1 + α2 )v = 0.
2
2
Por tanto, para escribir la ecuación original en forma normal hay que tomar α1 = 41 y
α2 = 21 . Finalmente, la forma normal de la ecuación es
3
vz1 z1 − vz2 z2 + v = 0.
16
6
Ecuación de onda
1.
Generalidades
La ecuación de onda es la ecuación
utt (x, t) − ∆u(x, t) = 0
en
U × (0, +∞),
(6.1)
donde U ⊂ Rn es un conjunto abierto. Usualmente se ponen condiciones de contorno,
sobre el comportamiento de la solución en ∂U × (0, +∞) y sobre sus valores iniciales
cuando t = 0.
En la literatura aparece el operador Dalembertiano
∂2
−∆
∂t2
con lo que la ecuación de onda se convierte en u = 0.
Es habitual encontrar la ecuación de onda escrita como
:=
utt (x, t) − c2 ∆u(x, t) = 0.
(6.2)
Es práctica común en matemática tratar de eliminar todas las constantes posibles. En
este caso, mediante el cambio de variables s = ct se obtiene la ecuación de onda usual
uss (x, s) − ∆u(x, s) = 0.
En lo que sigue veremos distintas maneras de resolver la ecuación de onda, con distintas
condiciones de contorno. Una particularidad a tener en cuenta para esta ecuación es que
el comportamiento de sus soluciones depende fuertemente de la dimensión n del espacio,
como discutiremos más adelante.
Se sugiere al lector consultar el comienzo del Capítulo 1 del libro de Weinberger [6]
para ver como aparece la ecuación de onda como modelo de diferentes fenómenos físicos.
2.
Ecuación de onda en n = 1
La ecuación de onda es, en este caso, utt (x, t) − uxx (x, t) = 0. Vamos a buscar su
solución en R × (0, +∞).
Ejercicio 6.1. Probar que, mediante el cambio de variables ξ = x + t y η = x − t, la
ecuación
utt (x, t) − uxx (x, t) = 0
(6.3)
se convierte en la ecuación
u˜ξη = 0,
(6.4)
donde u˜(ξ, η) := u( 12 (ξ + η), 12 (ξ − η)).
59
60
6. ECUACIÓN DE ONDA
Por el Ejercicio 6.1, para resolver (6.3), alcanza con resolver (6.4). Esta última ecuación
se resuelve directamente integrando en una de las variables y luego en la otra, (en una
región conexa):
u˜(ξ, η) = α(ξ) + β(η)
con α y β funciones arbitrarias. Volviendo a las coordenadas (x, t) tenemos
u(x, t) = u˜(x + t, x − t) = α(x + t) + β(x − t).
(6.5)
Notemos que la dependencia funcional x + t significa que α(x + t) es constante sobre las
rectas x + t = constante (¿quienes son estas rectas?). Lo mismo ocurre para β(x − t) en
x − t = constante.
Apliquemos esto a resolver el problema de Cauchy


utt (x, t) − uxx (x, t) = 0 en R × (0, +∞)
(6.6)
u(x, 0) = g(x)

u (x, 0) = h(x).
t
Evaluando (6.5) y su derivada respecto de t en t = 0 se obtienen
u(x, 0) = α(x) + β(x) = g(x)
y
ut (x, 0) = α0 (x) − β 0 (x) = h(x)
y, derivando la primera respecto de x,
α0 (x) + β 0 (x) = g 0 (x)
con lo que tenemos un sistema de dos ecuaciones con dos incógnitas para α0 y β 0 . Su
solución es
g 0 (x) + h(x)
g 0 (x) − h(x)
α0 (x) =
y β 0 (x) =
.
2
2
Integrando entre 0 y x se obtiene
Z
Z
1 x 0
1
1 x
α(x) = α(0) +
(g (s) + h(s))ds = α(0) + (g(x) − g(0)) +
h(s)ds
2 0
2
2 0
Z
Z
1 x 0
1
1 x
β(x) = β(0) +
(g (s) − h(s))ds = β(0) + (g(x) − g(0)) −
h(s)ds.
2 0
2
2 0
Con esto volvemos a (6.5) para obtener la fórmula conocida como fórmula de D’Alembert 1
Z
g(x + t) + g(x − t) 1 x+t
u(x, t) =
+
h(s)ds
(6.7)
2
2 x−t
donde usamos que α(0) + β(0) − g(0) = 0.
Nota 6.2. La lógica de nuestro razonamiento hasta aquí fue así: si hay una solución u
con suficiente regularidad (es decir, suficientemente derivable), entonces u tiene que estar
dada por (6.7). Sin embargo, esto no demuestra que la ecuación tenga solución.
En todo caso, la fórmula (6.7) nos da un candidato a solución. Es decir, dadas g y h,
definimos u(x, t) por (6.7). El siguiente resultado muestra que esta idea es acertada.
Proposición 6.3. Sean g ∈ C 2 (R) y h ∈ C 1 (R). Definiendo u mediante (6.7) se
verifica que
u(x, t) ∈ C 2 (R2 ).
utt − uxx = 0 en R2 .
u se aproxima a los valores iniciales con continuidad, es decir l´ımt→0 u(x, t) = g(x)
y l´ımt→0 ut (x, t) = h(x).
1Jean
le Rond d’Alembert (171-1783): matemático y filósofo francés, recordado por su trabajo en
Mecánica, Dinámica de Fluidos y el uso de las ecuaciones en derivadas parciales en problemas de Física.
2. ECUACIÓN DE ONDA EN n = 1
61
R x+t
Demostración. Notamos que, por ser h continua en R, x−t h(s)ds está definida
para todo x, t ∈ R. Del mismo modo, estando g definida en R, g(x+t)+g(x−t)
también está
2
definida para todo x, t ∈ R. Usando el Teorema Fundamental del Cálculo tenemos que
g 0 (x + t) + g 0 (x − t) h(x + t) − h(x − t)
+
,
2
2
g 0 (x + t) − g 0 (x − t) h(x + t) + h(x − t)
+
.
ut (x, t) =
2
2
Derivando nuevamente obtenemos
g 00 (x + t) + g 00 (x − t) h0 (x + t) − h0 (x − t)
uxx (x, t) =
+
,
2
2
g 00 (x + t) − g 00 (x − t) h0 (x + t) + h0 (x − t)
+
= uxt (x, t),
utx (x, t) =
2
2
g 00 (x + t) + g 00 (x − t) h0 (x + t) − h0 (x − t)
utt (x, t) =
+
.
2
2
ux (x, t) =
Como g ∈ C 2 (R) y h ∈ C 1 (R) por hipótesis, los cálculos anteriores muestran que u ∈
C 2 (R2 ) y que utt (x, t) − uxx (x, t) = 0 para todo (x, t) ∈ R2 .
Por otro lado,
Z x+t
g(x + t) + g(x − t)
1
h(s)ds = g(x) + 0 = g(x),
l´ım u(x, t) = l´ım
+ l´ım
t→0
t→0
t→0
2
2 x−t
donde el primer límite se sigue de la continuidad de g y el segundo de que la integral de
una función (integrable, por ser continua) tiende a 0 cuando el intervalo de integración
tiene longitud → 0.
Finalmente,
g 0 (x + t) − g 0 (x − t)
h(x + t) + h(x − t)
+ l´ım
= 0 + h(x) = h(x),
t→0
t→0
t→0
2
2
debido a la continuidad de g 0 y h.
l´ım ut (x, t) = l´ım
Nota 6.4. Una aplicación directa de la fórmula de D’Alembert (6.7) nos permite
entender como se propagan los datos iniciales en el espacio y tiempo: para (x, t) fijo, el
valor de u(x, t) depende sólo de los valores de g(x − t), g(x + t) y de los de h sobre el
segmento que une a x − t con x + t. Cualquier cambio de las funciones g y h fuera de
este segmento no afecta el valor de la solución en (x, t). Todo cambio fuera de esta región
afectará, si, el valor de la solución en x, pero a un tiempo mayor. Por ejemplo, si el dato
inicial es h = 0 y g es un pulso concentrado en x = 0 (por ejemplo, g(x) := exp(−100x2 )),
se ve que el pulso recién es detectado en x > 0 cuando t ∼ x. Es decir que la perturbación
inicial, concentrada en el origen, se propaga en dirección positiva y negativa con velocidad
1. Si hubiésemos partido de (6.2) en vez de (6.1), hubiésemos obtenido propagación con
velocidad c. En todo caso, la ecuación de onda presenta propagación del dato inicial con
velocidad finita.
Estas observaciones motivan la noción de dominio de dependencia de (x, t), la región
de la curva inicial que puede afectar el valor de u(x, t), y de dominio de influencia de
(x0 , 0), que es el cono infinito con vértice en (x0 , 0) formado por los puntos (x, t) que
pueden ser influenciados por el valor del dato inicial en (x0 , 0). Ver Figura 6.1.
Los siguientes ejemplos muestran como en muchos casos es posible usar la solución de
D’alembert con otros tipos de dominios.
62
6. ECUACIÓN DE ONDA
t
t
(x, t)
x−t
x+t
(a) dominio de dependencia
(x0 , 0)
x
x
(b) dominio de influencia
Figura 6.1. Dominios de dependencia e influencia
Ejemplo 6.5. Queremos resolver el siguiente problema en el primer cuadrante:


utt − uxx = 0 en R>0 × (0, +∞)
(6.8)
u(x, 0) = g(x), ut (x, 0) = h(x) para x > 0

u(0, t) = 0 para t > 0
La idea es pasar del problema dado, en la semirrecta a otro problema con dominio en
todo R, para así poder usar (6.7) para solucionarlo. El primer paso es buscar soluciones
a la ecuación de onda sobre R × (0, +∞). El problema con esto es que hay que hallar
condiciones de contorno adecuadas. Para esto podemos extender g(x) y h(x) a toda la
recta. Sin embargo, esto hay que hacerlo cuidadosamente ya que la solución tiene que
satisfacer la condición u(0, t) = 0. Para conseguir esto vamos a extender ambas funciones
de manera impar, es decir, definimos
(
(
g(x) si x ≥ 0
h(x) si x ≥ 0
˜
g˜(x) =
y h(x)
=
−g(−x) si x ≤ 0
−h(−x) si x ≤ 0
Ahora buscamos soluciones del problema
(
utt − uxx = 0 en R × (0, +∞)
˜
u(x, 0) = g˜(x), ut (x, 0) = h(x)
para
x∈R
˜ tienen las mismas derivadas que g y h salvo, eventualmente en x = 0.
Cabe notar que g˜ y h
Esto puede llevar a alguna falta de regularidad en la solución hallada por D’Alembert.
Más allá de esta observación, la fórmula (6.7) provee un candidato a solución:
Z
g˜(x + t) + g˜(x − t) 1 x+t ˜
u(x, t) =
+
h(s)ds,
(6.9)
2
2 x−t
que podemos reescribir para (x, t) ∈ R>0 × (0, +∞) como
(
R x+t
g(x+t)+g(x−t)
+ 12 x−t h(s)ds si x ≥ t ≥ 0
2
u(x, t) = g(x+t)−g(t−x) 1 R x+t
(6.10)
+ 2 −x+t h(s)ds si t ≥ x ≥ 0
2
Rt
g (−t)
˜
Notemos que de (6.9) sale que u(0, t) = g˜(t)+˜
+ 12 −t h(s)ds
= 0 debido a la paridad
2
˜ Es fácil ver que (6.10) provee una solución del problema (6.8).
de g˜ y h.
Nota 6.6. En el problema (6.8), si h(x) = 0 para todo x, la Figura 6.2 muestra
la evolución del dato inicial impar, g˜ para distintos valores de t. La restricción de esta
2. ECUACIÓN DE ONDA EN n = 1
1
1
1
1
y 0.5
y 0.5
y 0.5
y 0.5
0
-10
63
-5
0
0
5
10
-10
-5
0
0
5
x
10
-10
-5
0
0
5
x
10
-10
-5
0
-0.5
-0.5
-0.5
-1
-1
-1
-1
(b) t = 2.9
10
x
-0.5
(a) t = 1
5
x
(c) t = 3.1
(d) t = 4
Figura 6.2. Propagación de una onda en una semirrecta (interpretación
sobre toda la recta)
0.8
0.8
y
0.8
y
0.4
0.4
0
2
4
6
8
10
-0.4
2
4
6
8
10
0
0
x
-0.4
(a) t = 1
0.4
0
0
x
y
0.4
0
0
0.8
y
2
4
6
-0.4
(b) t = 2.9
8
10
0
x
2
4
6
8
10
x
-0.4
(c) t = 3.1
(d) t = 4
Figura 6.3. Propagación de una onda en una semirrecta (interpretación
sobre la semirrecta)
evolución a la semirrecta x > 0 se ve en la Figura 6.3, que se puede interpretar del modo
siguiente. En principio g se divide en dos partes iguales, “ondas”, cada una de las cuales
viaja a derecha o izquierda con velocidad 1. La parte que viaja a la derecha continúa
viajando sin cambios. La onda que viaja a la izquierda, sin embargo, al llegar al extremo
(x = 0) presenta una inversión y cambia su dirección. En resumen, se comporta como si
se reflejase contra el extremo fijo x = 0.
Ejercicio 6.7. Sea f : R → R una función 2L-periódica y tal que f (−x) = −f (x)
para todo x ∈ [−L, L]. Probar que f es una función impar y que f (L + x) = −f (L − x)
para todo x ∈ R.
Ejemplo 6.8. Queremos resolver la ecuación de onda sobre un intervalo finito


utt − uxx = 0 para (x, t) ∈ (0, L) × (0, +∞)
(6.11)
u(x, 0) = g(x), ut (x, 0) = h(x) si x ∈ (0, L)

u(0, t) = u(L, t) = 0 para todo t > 0.
Al igual que antes, vamos a convertir este problema en un problema sobre toda la recta
para poder aplicar la solución de D’Alembert. Al igual que en el Ejemplo 6.5, conviene extender usando prolongaciones impares a fin de asegurar las condiciones nulas de contorno.
Sin embargo, esta vez es necesario, también, extender de manera impar con respecto al
extremo derecho del intervalo, x = L. Para conseguir ambas cosas vamos a prolongar pri˜ como la extensión
mero g y h al intervalo [−L, L] de manera impar, luego definimos g˜ y h
2L periódica de esas funciones a todo R (ver Ejercicio 6.7). Para estos datos de contorno
64
6. ECUACIÓN DE ONDA
se resuelve el problema
(
utt − uxx = 0 en R × (0, +∞)
˜
u(x, 0) = g˜(x), ut (x, 0) = h(x)
para
x∈R
y la restricción del resultado a (0, L) es la solución buscada. Verifiquemos que valen las dos
˜ son impares
condiciones verticales de contorno. Por construcción y el Ejercicio 6.7, g˜ y h
e “impares respecto de L”, de donde la fórmula (6.7) muestra que u(0, t) = 0 = u(L, t)
para todo t.
En particular, si h(x) = 0 y g(x) = sin(k Lπ x) para algún k ∈ N, se tiene g˜(x) =
sin(k Lπ x) con lo que u(x, t) = 12 (sin(k Lπ (x − t)) + sin(k Lπ (x + t))). Más en general, para una
g arbitraria esto mismo se puede repetir usando series de Fourier. Notar que en este caso,
la técnica de las series de Fourier de senos sirve para construir las extensiones impares y
periódicas buscadas.
Ejemplo 6.9. Queremos resolver nuevamente la ecuación de onda sobre un intervalo
finito


utt − uxx = 0 para (x, t) ∈ (0, L) × (0, +∞)
(6.12)
u(x, 0) = g(x), ut (x, 0) = h(x) si x ∈ (0, L)

u(0, t) = u(L, t) = 0 para todo t > 0.
Esta vez usaremos la técnica de separación de variables. Describiremos esta solución brevemente puesto que ideas muy similares ya fueron discutidas en el Capítulo 1.
Se buscan soluciones de la forma u(x, t) = X(x)T (t). La sustitución de esta forma en
la ecuación arroja las condiciones
X 00 − λX = 0
y
T 00 − λT = 0
para alguna constante λ ∈ R y con las condiciones
X(0) = X(L) = 0.
De la ecuación para X y las condiciones de contorno sale que λ = −( kπ
)2 con k ∈ N y
L
X(x) = Ck sin(k Lπ x). De modo análogo, T (t) = Ak cos(k Lπ t) + Bk sin(k Lπ t). Todo junto:
π
π
π
u(x, t) = sin(k x)(Ak cos(k t) + Bk sin(k t))
L
L
L
Para poder satisfacer las condiciones de contorno se toman combinaciones lineales de la
forma
∞
X
π
π
π
u(x, t) =
sin(k x)(Ak cos(k t) + Bk sin(k t)).
L
L
L
k=1
Las condiciones de contorno arrojan
u(x, 0) =
∞
X
π
sin(k x)Ak = g(x)
L
k=1
y
ut (x, 0) =
∞
X
π
π
sin(k x)k Bk = h(x)
L
L
k=1
con lo que si
g(x) =
∞
X
π
gk sin(k x)
L
k=1
y
h(x) =
∞
X
π
hk sin(k x)
L
k=1
2. ECUACIÓN DE ONDA EN n = 1
entonces valen
Ak = gk
y
Bk =
65
L
hk .
kπ
Todo junto, la solución propuesta es
∞
X
π
L
π
π
hk sin(k t)).
u(x, t) =
sin(k x)(gk cos(k t) +
L
L
kπ
L
k=1
Resta verificar que es posible derivar esta serie dos veces término a término para que sea
solución del problema dado, cosa que se deja como ejercicio para el lector.
Hemos visto como la solución de D’Alembert para el problema (6.6) puede usarse
para resolver problemas con condiciones iniciales en subconjuntos de R (una semirrecta,
un segmento) mediante la elección adecuada de extensiones de los datos iniciales a toda
la recta. El Ejercicio siguiente es una muestra más de estas ideas.
Ejercicio 6.10. Sea el problema de frontera libre:

utt − uxx = 0
en
(0, L) × (0, +∞)





para
0≤x≤L
u(x, 0) = g(x)
ut (x, 0) = 0
para
0≤x≤L



u(L, t) = 0
para
t≥0



ux (0, t) = 0
para
t≥0
1. Para el caso en que g(x) esta concentrada en un entorno de x0 , hallar u(x, t) para
t pequeño.
2. ¿Para qué valor de t se produce reflexión en x = 0? ¿Cómo es la onda reflejada?
Ahora vamos a considerar la ecuación de ondas no homogénea
utt (x, t) − uxx (x, t) = f (x, t)
(6.13)
en una región U ⊂ R2 . Comenzamos por recordar un resultado de cálculo vectorial:
Teorema 6.11 (Teorema de Green). Sea D ⊂ R2 una región acotada que es unión
de regiones simples, cada una de las cuales tiene por borde una curva suave a trozos. Si
F1 , F2 ∈ C 1 (D) y γ := ∂D con su orientación positiva, entonces
Z Z
∂F2 ∂F1
−
dx1 dx2 = F1 dx1 + F2 dx2 .
∂x1
∂x2
D
γ
Si u es una solución de (6.13) y D es una región como la descripta en la Figura 6.4,
donde γ1 y γ2 son características (x ± t = constante) y γ3 es una curva suave a trozos que
(x, t)
γ2
D
(x2 , t2 )
γ1
(x1 , t1 )
γ3
Figura 6.4. Región de integración para la ecuación de onda no homogénea
une los extremos de γ1 y γ2 , tenemos:
Z
Z
Z
(−ux dt − ut dx) = (−uxx + utt )dxdt =
f (x, t)dxdt.
γ
D
D
(6.14)
66
6. ECUACIÓN DE ONDA
Por otro lado, sobre γ1 y γ2 vale dt = ±dx con lo que
Z
Z
Z
(−ux dt − ut dx) =
(ux dx + ut dt) =
du = u(x, t) − u(x1 , t1 )
γ1
γ1
γ1
Z
Z
Z
(−ux dt − ut dx) =
(−ux dx − ut dt) = −
du = u(x, t) − u(x2 , t2 )
γ2
γ2
γ2
Con esto (6.14) se convierte en
Z
2u(x, t) − u(x1 , t1 ) − u(x2 , t2 ) −
Z
(ux dt + ut dx) =
f (x, t)dxdt,
γ3
D
o sea que
u(x1 , t1 ) + u(x2 , t2 ) 1
u(x, t) =
+
2
2
Z
1
(ux dt + ut dx) +
2
γ3
Z
f (x, t)dxdt.
(6.15)
D
La utilidad de (6.15) viene de que si se conoce u y sus derivadas sobre γ3 entonces es
posible calcular u(x, t). Como aplicación de estas ideas podemos resolver el problema
(
utt (x, t) − uxx (x, t) = f (x, t) con (x, t) ∈ R × (0, +∞)
(6.16)
u(x, 0) = g(x), ut (x, 0) = h(x).
Una aplicación directa de (6.15) al caso en que γ3 ⊂ R × {0} da
Z
Z
1
g(x + t) + g(x − t) 1 x+t
+
f (x, t)dxdt,
u(x, t) =
h(s)ds +
2
2 x−t
2 D
(6.17)
donde D es el triángulo de vértices (x, t), (x − t, 0) y (x + t, 0). En particular, para el caso
f = 0, se recupera la solución de D’Alembert (6.7).
Nota 6.12. Al igual que para la fórmula de D’Alembert (6.7), la fórmula (6.17) solamente da una caracterización de la solución en caso que esta exista. Sin embargo, es
fácil ver que tomando (6.17) como definición, la función obtenida es realmente solución
de (6.16).
El siguiente Ejemplo muestra como aplicar la solución dada por (6.17) a una ecuación
de ondas en una semirrecta.
Ejemplo 6.13. El problema

utt (x, t) − uxx (x, t) = f (t) en 0 < x < ∞, t > 0



u(x, 0) = u (x, 0) = 0 en 0 < x < ∞
t
u(0, t) = 0 para t > 0



f (t) = cos(ωt)
intentamos transformarlo en un problema para todo x ∈ R eligiendo las extensiones
de los datos de manera que el resultado satisfaga la condición de contorno en x = 0
automáticamente, como en el Ejemplo 6.5.
La solución del problema (6.16) con dato inicial g(x) = h(x) = 0 para todo x ∈ R se
obtiene de (6.17):
Z
1
u(x, t) =
f (t)dxdt
(6.18)
2 D
donde D es el triángulo de vértices (x, t), (x − t, 0) y (x + t, 0). Cuando x = 0, el triángulo
es simétrico respecto del eje t, con lo que alcanza que f sea una función impar de x para
que la integral se anule y valga u(0, t) = 0 para todo t > 0 como demanda el problema.
2. ECUACIÓN DE ONDA EN n = 1
67
Por esto extendemos f de manera impar (en x) a todo x ∈ R. Denotando con f˜ a esta
extensión se puede escribir f˜(x, t) := σ(x)f (t), donde


si
x>0
1
σ(x) := −1
si
x<0

0
si
x=0
es la función signo de x. Con esto, podemos evaluar (6.18):
Z x+t−τ
Z Z
Z
1 t x+t−τ ˜
1 t
f (τ )dy)dτ =
σ(y)dy)dτ
(
f (τ )(
u(x, t) =
2 0 x−t+τ
2 0
x−t+τ
Si x > t, se tiene que x − t + τ ≥ 0 con lo que σ(y) = 1 y se obtiene
Z t
f (τ )(t − τ )dτ.
u(x, t) =
(6.19)
(6.20)
0
Si x < t entonces σ no es constante para τ < t − x por lo que conviene evaluar (6.19)
como sigue:
Z
Z x+t−τ
Z t
Z x+t−τ
1 t−x
u(x, t) = (
f (τ )(
σ(y)dy)dτ +
f (τ )(
σ(y)dy)dτ )
2 0
x−t+τ
t−x
x−t+τ
Z x+t−τ
Z −(x−t+τ )
Z x+t−τ
Z t
Z
1 t−x
σ(y) dy)dτ +
σ(y) dy)dτ )
σ(y)dy +
f (τ )(
= (
f (τ )(
2 0
−(x−t+τ ) |{z}
x−t+τ |{z}
x−t+τ
t−x
|
{z
}
=1
=1
=0 por ser σ impar
Z t
1
= (
f (τ )2xdτ +
f (τ )2(t − τ )dτ )
2 0
t−x
Z t
Z t−x
f (τ )(t − τ )dτ.
f (τ )xdτ +
=
Z
t−x
t−x
0
(6.21)
Reescribiendo (6.21) como
Z
t
Z
0
t−x
f (τ )(t − τ − x)dτ
f (τ )(t − τ )dτ −
u(x, t) =
0
se puede dar una escritura unificada a la solución, para todo x y t:
Z t
Z t−x
f (τ )(t − τ − x)dτ
u(x, t) =
f (τ )(t − τ )dτ − H(t − x)
donde H denota la función de Heaviside
(
1
H(x) :=
0
(6.22)
0
0
si
si
x≥0
x < 0.
Por último, se puede evaluar (6.22) para la f dada en el enunciado. El resultado es
1
(1 − cos(ωt) − H(t − x)(cos(ω(t − x)) − 1)).
ω2
Volvamos a considerar la ecuación de onda homogénea: utt − uxx = 0. El siguiente
resultado da una caracterización de sus soluciones en términos del comportamiento de u
sobre las características.
u(x, t) :=
68
6. ECUACIÓN DE ONDA
Proposición 6.14. Sea el dominio U ⊂ R2 y sea u : U → R. Si u(x, t) es solución de
la ecuación de ondas utt −uxx = 0 en U entonces para cualquier cuadrilátero Q ⊂ U cuyos
lados son características y sus vértices consecutivos son A, B, C y D vale la relación.
u(A) + u(C) = u(B) + u(D).
(6.23)
2
Al revés, si u ∈ C (U ) satisface (6.23), entonces u es una solución de la ecuación de onda
en U .
t
B
x + t = c2
x − t = c1
A
C
x − t = c3
x + t = c4
D
x
Figura 6.5. Cuadrilátero con aristas características
Demostración. Supongamos que u es solución. Como ya hemos visto, vale u(x, t) =
α(x + t) + β(x − t). Mirando la Figura 6.5 y notando que α(x + t) y β(x − t) son constantes
sobre las características correspondientes, se ve que valen las relaciones:
α(A) = α(D)
y
α(B) = α(C)
β(A) = β(B)
y
β(D) = β(C)
con lo que
u(A) + u(C) = α(A) + β(A) + α(C) + β(C) = α(D) + β(B) + α(B) + β(D)
= u(B) + u(D).
Al revés, si u ∈ C 2 (U ) se tiene
donde l´ımk→0
valen:
1
u(x, t + k) = u(x, t) + ut (x, t)k + utt (x, t)k 2 + k
2
1
u(x + k, t) = u(x, t) + ux (x, t)k + uxx (x, t)k 2 + ηk
2
1
1
= l´ımk→0 k2 ηk = 0. En particular, aplicando estas igualdades para ±k,
k2 k
u(x, t − k) + u(x, t + k) = 2u(x, t) + utt (x, t)k 2 + k + 0k
u(x − k, t) + u(x + k, t) = 2u(x, t) + uxx (x, t)k 2 + ηk + ηk0
donde k12 k , k12 0k , k12 ηk y k12 ηk0 tienden a 0 con k.
Si u, además, satisface (6.23) entonces se tiene
u(x, t − k) + u(x, t + k) = u(x − k, t) + u(x + k, t)
para todo k suficientemente chico. Por lo tanto,
utt (x, t)k 2 + k + 0k = uxx (x, t)k 2 + ηk + ηk0
2. ECUACIÓN DE ONDA EN n = 1
69
para todo k suficientemente chico. Dividiendo ambos términos por k 2 y tomando el límite
k → 0 se obtiene
utt (x, t) = uxx (x, t).
En otras palabras, u satisface la ecuación de onda en U .
Una aplicación interesante de la Proposición 6.14 permite construir una solución del
siguiente problema:


utt (x, t) − uxx (x, t) = 0 en (0, L) × (0, +∞)
(6.24)
u(x, 0) = g(x), ut (x, 0) = h(x)

u(0, t) = α(t), u(L, t) = β(t)
Comenzamos por construir una solución en la región (cerrada) I de la Figura 6.6. Esto es
posible usando la fórmula de D’Alembert ya que el dominio de dependencia de cualquier
punto en esta región está contenido en (0, L) × {0} y, por lo tanto, el valor de u en la
región queda unívocamente determinado por los valores iniciales dados allí.
t
IV
II
B
III
C
A
I
D
x
L
Figura 6.6. Regiones para la solución de (6.24)
Para definir la solución en la región (cerrada) II, notamos que su valor está determinado en el borde izquierdo y el lado que linda con la región I. Como la solución debe
satisfacer la relación (6.23), el valor para cualquier punto B en la región II queda determinado mediante esta relación, usando un cuadrilátero como el de la Figura 6.6, con
los vértices A, C y D con valores de u conocidos. Del mismo modo se puede continuar
calculando la solución en las regiones III, IV , etc.
Este razonamiento tiene un inconveniente: si las condiciones de contorno no son, de
algún modo, compatibles, el resultado no tiene por que ser una función derivable.
Ejercicio 6.15. Estudie condiciones de compatibilidad en las condiciones de contorno
α, β, g y h que aseguren que la solución propuesta es una solución clásica del problema.
En lo que vimos hasta este momento, las propiedades de las soluciones de la ecuación
de onda se demostraron usando el conocimiento explícito de su forma, por ejemplo, usando
la fórmula de d’Alembert. El siguiente resultado usa un enfoque totalmente diferente que
no requiere el conocimiento explícito de las soluciones.
70
6. ECUACIÓN DE ONDA
Teorema 6.16. Dadas f , g, h, α y β, el problema


utt (x, t) − uxx (x, t) = f (x, t) en (0, L) × (0, +∞)
u(x, 0) = g(x), ut (x, 0) = h(x)

u(0, t) = α(t), u(L, t) = β(t)
tiene, a lo más, una única solución clásica en C 1 ([0, L] × R≥0 ) ∩ C 2 ((0, L) × R>0 ).
Demostración. Supongamos que hay dos soluciones u1 y u2 del problema. Entonces
w = u1 − u2 es solución del problema


utt (x, t) − uxx (x, t) = 0 en (0, L) × (0, +∞)
u(x, 0) = 0, ut (x, 0) = 0

u(0, t) = u(L, t) = 0.
Ahora, para t ∈ [0, +∞) definimos
1
E(t) :=
2
Z
(wx (x, t)2 + wt (x, t)2 )dx.
[0,L]
Notamos que E(t) está bien definida ya que las derivadas primeras de w son continuas en
[0, L], que es un intervalo finito. Entonces calculamos:
Z
Z
Z
dE
∂wt
wx
(wx wxt + wt wtt )dx =
wt wtt dx
=
dx +
dt
∂x
[0,L]
[0,L]
[0,L]
Z
Z
Z
x=L
= wx wt |x=0 −
wxx wt dx +
wt wtt dx = 0 +
wt (wtt − wxx )dx = 0,
[0,L]
[0,L]
[0,L]
ya que, primero, w se anula en x = 0, L, y por lo tanto lo mismo ocurre Rcon wt , también
se usó que wtt − wxx = 0. En conclusión, E es constante y, como E(0) = 21 [0,L] (wx (x, 0)2 +
wt (x, 0)2 )dx = 0, tenemos que E(t) = 0 para
todo t.
R
Hasta el momento hemos visto que [0,L] (wx (x, t)2 + wt (x, t)2 )dx = 0. Como el integrando es una función continua y ≥ 0, concluimos que tiene que anularse en todo punto,
o sea que ∇w se anula en (0, L) × R>0 , que es una región conexa, y por tanto w es
constante; por continuidad, también es constante en [0, L] × R≥0 . Finalmente, como w se
anula cuando t = 0, vemos que w es idénticamente nula, con lo que u1 = u2 en la región
considerada y la solución del problema original es única.
Nota 6.17. El Teorema 6.16 nada dice sobre la existencia de soluciones del problema
dado (para la cuál, por ejemplo, hay que imponer condiciones de compatibilidad entre los
datos de contorno).
Nota 6.18. El resultado del Teorema 6.16 puede extenderse a la ecuación de onda
sobre R, si se supone que el dato inicial tiene soporte compacto (es decir que se anula fuera
de un intervalo [−M, M ]). En este caso, la demostración es prácticamente la misma, sólo
que hay que proveer un argumento para demostrar que E es finita para todo t: en principio
es obvio ya que el dato inicial se anula fuera de un intervalo y este dato se propaga con
velocidad finita (es decir que para cada t fijo la solución también se anula fuera de un
intervalo). El problema es, sin embargo, que la propagación finita es una consecuencia de
la fórmula de d’Alembert. Una posibilidad es probar la unicidad para aquellos problemas
con condiciones iniciales nulas fuera de una bola y para soluciones u(x, t) tales que, para
cada t fijo se anulan fuera de una bola (que puede depender del valor de t).
3. ECUACIÓN DE ONDA EN n > 1
3.
71
Ecuación de onda en n > 1
Para analizar la ecuación de onda en varias dimensiones espaciales se usa la técnica
conocida como de los promedios esféricos.
Definición 6.19. Si u(x, t) es una función de n variables espaciales x y una variable
temporal t, sus promedios esféricos en x se definen como
Z
1
u(y, t)dSy
(6.25)
U (r, t) := n−1
r ωn |y−x|2 =r2
donde ωn es el área de la cáscara de la esfera de radio 1 en Rn y dSy es el diferencial de
(hiper)superficie sobre la (hiper)superficie de integración, parametrizada con la variable
y. En otras palabras, el promedio esférico es el promedio de los valores de la función u
tomados sobre la cáscara de una bola de radio r, con t fijo.
Mediante un cambio de variables y = x + rξ con |ξ| = 1 (6.25) se convierte en
Z
1
U (r, t) =
u(x + rξ, t)dSξ .
ωn |ξ|=1
Notemos que podemos recuperar la función u mediante:
u(x, t) = l´ım+ U (r, t).
r→0
Ahora supongamos que u es solución del problema

n

utt (x, t) − ∆u(x, t) = 0 en R × (0, +∞)
u(x, 0) = g(x) en Rn

u (x, 0) = h(x) en Rn .
t
(6.26)
En este caso, además de los promedios esféricos de u vamos a considerar los de g y h, que
denotamos con G y H, de modo que
Z
Z
1
1
u(x + rξ, 0)dSξ =
g(x + rξ)dSξ = G(r)
U (r, 0) =
ωn |ξ|=1
ωn |ξ|=1
Z
Z
1
1
Ut (r, 0) =
ut (x + rξ, 0)dSξ =
h(x + rξ)dSξ = H(r).
ωn |ξ|=1
ωn |ξ|=1
Se puede ver que los promedios esféricos de u satisfacen la ecuación de Darboux:
(
Utt − Urr − (n−1)
Ur = 0 en (0, +∞) × (0, +∞)
r
U (r, 0) = G(r), Ut (r, 0) = H(r) en (0, +∞).
Para n impar es posible transformar la ecuación de Darboux en una ecuación de onda
en una dimensión espacial y, usando la fórmula de d’Alembert, hallar su solución. Esto
es bastante trabajoso y nos concentraremos en el caso n = 3. En este caso, usando las
nuevas funciones
U˜ (r, t) := rU (r, t),
˜
G(r)
:= rG(r),
˜
H(r)
:= rH(r)
la ecuación de Darboux se convierte en


U˜tt − U˜rr = 0 en (0, +∞) × (0, +∞)
˜
˜
U˜ (r, 0) = G(r),
U˜t (r, 0) = H(r)
en (0, +∞)

U˜ (0, t) = 0 en (0, +∞).
(6.27)
72
6. ECUACIÓN DE ONDA
Ahora bien, el problema (6.27) ya fue resuelto en el Ejemplo 6.5 y de (6.10), cuando
0 ≤ r < t, resulta
˜ + t) − G(t
˜ − r) 1 Z r+t
G(r
˜
˜
+
H(s)ds,
U (r, t) =
2
2 r−t
con lo que
˜
Z t+r
˜ − r)
U˜ (r, t)
G(r + t) − G(t
1
˜
u(x, t) = l´ım+
= l´ım+
+
H(s)ds
r→0
r→0
r
2r
2r t−r
˜ 0 (t) + H(t).
˜
=G
Explícitamente, usando que ω3 = 4π,
Z
Z
∂
1
1
u(x, t) =
g(y)dSy +
h(y)dSy .
∂t 4πt |y−x|2 =t2
4πt |y−x|2 =t2
(6.28)
Esto se puede reescribir como
Z
1
th(y)
+
g(y)
+
∇g(y)
·
(y
−
x)
dSy
u(x, t) =
4πt2 |y−x|2 =t2
(6.29)
con x ∈ R3 y t > 0. La fórmula (6.29) es conocida como fórmula de Kirchoff y da la
solución para el problema de valores iniciales (6.26) cuando n = 3.
Nota 6.20. De la fórmula de Kirchoff (6.29) podemos obtener los dominios de dependencia e influencia para la ecuación de onda en n = 3. Como el cálculo de u(x, t) sólo
depende de los datos iniciales en la superficie esférica |y − x|2 = t2 , vemos que este es el
dominio de dependencia. Al revés, una perturbación en (x0 , 0) afecta sólo aquellos valores
(x, t) para los que |x − x0 |2 = t2 (ya que, si no, la integral correspondiente no pasa por x0 ).
Es decir, el dominio de influencia de (x0 , 0) es el cono {(x, t) ∈ R4 : |x − x0 |2 = t2 } (ver
Figura 6.7). Gráficamente podemos pensar en un pulso concentrado en x0 = 0 a t = 0; un
t
t
(x, t)
(x0 , 0)
x ∈ R3
(a) dominio de dependencia
x ∈ R3
(b) dominio de influencia (es sólo la superficie
lateral del cono)
Figura 6.7. Dominios de dependencia e influencia para la ecuación de
onda en n = 3 (en los gráficos, el plano horizontal representa al espacio R3 )
tiempo t más tarde, la perturbación es observable sólo en la esfera {x ∈ R3 : |x−0|2 = t2 }.
3. ECUACIÓN DE ONDA EN n > 1
73
De aquí observamos que la propagación ocurre en todas las direcciones espaciales con velocidad 1. También podemos notar que una vez que la perturbación pasó por un lugar,
este lugar no es afectado más por la perturbación.
Ahora vamos a resolver el problema (6.26) con n = 2, usando los resultados del caso
n = 3. La clave es que el problema en el plano se puede pensar como un problema en el
espacio que es independiente de la tercera variable. De este modo, si u ∈ C 2 (R2 × [0, ∞))
es solución de (6.26) con n = 2,
u˜(x1 , x2 , x3 , t) := u(x1 , x2 , t)
es solución de


u(x, t) = 0 en R3 × (0, +∞)
u˜tt (x, t) − ∆˜
u˜(x, 0) = g˜(x) en R3

u˜ (x, 0) = h(x)
˜
en R3 .
t
˜ 1 , x2 , x3 ) = h(x1 , x2 ). Por lo tanto, por (6.28) vale
donde g˜(x1 , x2 , x3 ) = g(x1 , x2 ) y h(x
Z
Z
1
∂
1
u(x1 , x2 , t) = u˜(x, t) =
g(y)dS y +
h(y)dS y
∂t 4πt |y−x|2 =t2
4πt |y−x|2 =t2
donde las barras denotan a vectores en R3 y la medida de integración sobre la cáscara de la esfera en R3 . Ahora parametrizamos la superficie |y − x|2 = t2 en R3 como
dos gráficos sobre
el disco (y1 − x1 )2 + (y2 − x2 )2 ≤ t2 en R2 , usando las funciones
p
(y1 , y2 ) 7→ ± t2 − ((y1 − x1 )2 + (y2 − x2 )2 ). De este modo y tomando en cuenta que
todas las funciones son independientes de la variable x3 sale que
Z
1 ∂
g(y1 , y2 )
p
u(x1 , x2 , t) =
dy1 dy2
2π ∂t (y1 −x1 )2 +(y2 −x2 )2 ≤t2 t2 − ((x1 − y1 )2 + (x2 − y2 )2 )
(6.30)
Z
1
h(y1 , y2 )
p
+
dy1 dy2 .
2π (y1 −x1 )2 +(y2 −x2 )2 ≤t2 t2 − ((x1 − y1 )2 + (x2 − y2 )2 )
Un poco más de trabajo nos lleva a la fórmula
Z
tg(y) + t2 h(y) + t∇g(y) · (y − x)
1
p
dy,
(6.31)
u(x, t) =
2π |y−x|2 ≤t2
t2 − |y − x|2
donde x e y son vectores en R2 . La fórmula (6.31), conocida como fórmula de Poisson, da
la solución del problema (6.26) cuando n = 2.
Nota 6.21. Igual que vimos en la Nota 6.20, podemos usar la expresión explícita de la
solución de (6.26) cuando n = 2 dada por la fórmula de Poisson (6.31) para determinar los
dominios de dependencia e influencia del problema. A diferencia de la situación en el caso
n = 3, el valor de u(x, t) ahora toma en cuenta todos los valores de los datos iniciales en el
disco {y ∈ R2 : |y−x|2 ≤ t2 } (y no sólo los de su borde). Este disco es, entonces, el dominio
de dependencia de (x, t). Esta diferencia con el caso n = 3 también se refleja en que el
dominio de influencia de (x0 , 0) es el cono sólido {(x, t) ∈ R2 × (0, +∞) : |x − x0 |2 ≤ t2 }
(ver Figura 6.8). Esto quiere decir que, por ejemplo, si el dato inicial consiste de un pulso
centrado en el origen, el pulso producirá una perturbación que, a tiempo t, afectará los
valores de u en el disco {x ∈ R2 : |x − 0|2 ≤ t2 }, con lo que una vez que la perturbación
llegó a influenciar el valor de u en un punto, continuará afectándolo en el futuro.
74
6. ECUACIÓN DE ONDA
t
t
(x, t)
(x0 , 0)
2
x∈R
(a) dominio de dependencia
x ∈ R2
(b) dominio de influencia (es el cono sólido)
Figura 6.8. Dominios de dependencia e influencia para la ecuación de
onda en n = 2
7
La ecuación de Laplace
1.
Generalidades
En esta sección estudiaremos la ecuación
n
X
∂ 2 u(x)
− ∆u = −
=0
2
∂x
j
j=1
en
U
(7.1)
para algún abierto U ⊂ Rn , que es llamada la Ecuación de Laplace 1. Esta ecuación es
el prototipo de las ecuaciones elípticas, como vimos en el Capítulo 5. El caso n = 2
ya es conocido del estudio de funciones de variable compleja, donde las soluciones de
∆u = 0, llamadas funciones armónicas, son exactamente las partes reales e imaginarias
de funciones holomorfas en U , si U es simplemente conexo. En general, las soluciones
de (7.1) también son llamadas funciones armónicas.
La versión no homogénea de la ecuación de Laplace
− ∆u = f (x)
en
U
(7.2)
es conocida como ecuación de Poisson.
La ecuación de Laplace aparece en muchos lugares, por lo común asociada al estudio
de magnitudes que se hallan en un estado de equilibrio dinámico. Digamos que F es una
tal magnitud vectorial. Si no hay fuentes ni sumideros para F en U ⊂ Rn , en cualquier
región abierta V ⊂ U , el flujo de F sobre ∂V debe anularse, es decir,
Z
F · νdS = 0
(7.3)
∂V
donde ν es el campo normal a la hipersuperficie ∂V ⊂ Rn . Usando el Teorema de la
Divergencia (Teorema 7.6), (7.3) se convierte en
Z
∇ · F dV = 0.
V
En muchas circunstancias la magnitud F es proporcional al gradiente de un potencial u:
F = a∇u, con lo que tenemos
Z
Z
∇ · (a∇u)dV = a
∆udV = 0.
V
V
1El
signo introducido delante del operador ∆ en (7.1) cumple un rol análogo al de los signos de
la teoría de Sturm-Liouville. Igual que allí, este signo va a hacer que los autovalores del operador −∆
resulten todos positivos.
75
76
7. LA ECUACIÓN DE LAPLACE
Como esta última relación vale para cualquier V ⊂ U , concluimos que el integrando se
debe anular en U , vale decir, que vale (7.1).
En lo que sigue estudiaremos algunas soluciones de (7.1) y (7.2) para algunos dominios
U simples, así como también propiedades generales de las soluciones que no dependen de
poseer una fórmula explícita para la solución.
Nota 7.1. En el caso
1, (7.2) se resuelve completamente ya que −uxx (x) = f (x)
R x nR =
s1
lleva a que u(x) = − x0 ( x0 f (s2 )ds2 )ds1 + Ax + B, para algunas constantes A y B.
Debido a esto, en lo que sigue nos concentraremos en el caso n ≥ 2.
2.
Nociones Básicas
Del estudio de la acción del cambio lineal de coordenadas en el espacio en la matriz
de un operador de segundo orden (ver (5.2)), es claro que el operador −∆, cuya matriz
es escalar, es invariante frente a cambios de coordenadas dados por matrices ortogonales.
Esto lleva a buscar soluciones de la ecuación de Laplace que presenten simetría de rotación
(y por tanto también son invariantes frente a este tipo de cambios de coordenadas). Esto
se consigue buscando soluciones de la forma
v
uX
u n 2
u(x) := v(r) con r := |x| = t
xj .
j=1
para v : R → R. Tomando en cuenta que
∂r
∂xj
=
xj
,
r
(7.1) se convierte en
n−1 0
v (r) = 0.
r
Esta ecuación se puede integrar separando variables y se obtiene
(
a2 ln(r) + a3 si n = 2
v(r) = a2 1
+ a3 si n > 2.
2−n rn−2
v 00 (r) +
(7.4)
Definición 7.2. La solución fundamental de la ecuación de Laplace (7.1) es la función
(
−1
ln(|x|) si n = 2
(7.5)
Φ(x) = 2π 1
1
si
n
>
2.
n−2
n(n−2)αn |x|
obtenida de (7.4) cuando se toma a3 = 0 y a2 =
es el volumen de la bola de radio 1 en Rn ).
1
2π
cuando n = 2 y a2 =
−1
nαn
si n > 2 (αn
Nota 7.3. La solución fundamental de la ecuación de Laplace es una función armónica
en Rn − {0}.
Nota 7.4. Para todo n ≥ 2 se tiene
−x
∇Φ(x) =
nαn |x|n
si
x ∈ Rn − {0},
Se tiene que nαn = ωn , donde ωn es el área de S n := ∂B1 (0), el borde de la bola unitaria
de radio 1 en Rn . Esto es así ya que
Z
Z 1 Z
Z 1 Z
Z 1
ωn
n−1
αn =
dVy =
(
dSy )dρ =
(
ρ dSy )dρ =
ωn ρn−1 dρ =
n
B1 (0)
0
∂Bρ (0)
0
∂B1 (0)
0
2. NOCIONES BÁSICAS
77
Notemos que la ecuación de Laplace tiene muchas soluciones “triviales”: todas las
funciones lineales y las cuadráticas que no tengan cuadrados (es decir, solo términos cruzados). Es claro entonces que para que el problema quede bien planteado es necesario dar
condiciones adicionales. A diferencia de lo que ocurre en la ecuación de onda, estas condiciones adicionales no suelen ser “posiciones” y “velocidades”. Esto suele sobredeterminar
la solución de la ecuación de Laplace. Este fenómeno es conocido de la variable compleja,
donde conocer una función sobre, digamos, |z| = 1 la determina sobre todo |z| ≤ 1, no
quedando libertad para, por ejemplo, fijar una derivada sobre |z| = 1.
Los problemas de contorno típicos son los siguientes:
(
−∆u(x) = 0 en U ⊂ Rn
(7.6)
u(x) = g(x) en ∂U,
llamado el problema de Dirichlet y el problema de Neumann:
(
−∆u(x) = 0 en U ⊂ Rn
∂u(x)
= h(x) en ∂U,
∂ν
(7.7)
donde ν es el campo normal interior a ∂U . Esto no agota las posibilidades de datos
iniciales. Por ejemplo, también se estudian los casos mixtos.
Cuando el dominio U es simple, es posible resolver la ecuación de Laplace usando
separación de variables, como muestra el ejemplo siguiente.
Ejemplo 7.5. Queremos resolver el problema
(
−∆u = 0 en U := (0, a) × (0, b)
u = g en ∂U,
(7.8)
suponiendo que u es continua en el borde.
Antes de embarcarnos en la separación de variables misma vamos a hacer un par de
reducciones muy útiles. Primero vamos a ver que podemos suponer que g se anula en
los vértices de U . Para esto, notemos que la función α(x, y) := a0 + a1 x + a2 y + a3 xy
es armónica en R2 . Por otro lado, pedir que α en cada vértice valga lo mismo que g en
ese vértice determina 4 condiciones lineales sobre los 4 coeficientes a0 , . . . , a3 . Es posible,
entonces, hallar coeficientes de modo que α y g tengan los mismos valores en los vértices.
Fijamos los coeficientes de α en estos valores.
Busquemos ahora una solución de (7.8) de la forma u = v + α. Se ve que v tiene que
satisfacer
(
−∆v = 0 en U := (0, a) × (0, b)
(7.9)
v = g − α en ∂U,
con lo que, en particular, v se anula en los vértices de ∂U ya que g y α toman el mismo
valor allí.
El paso siguiente es descomponer el problema en 4 problemas con condición de contorno más simple. Para ello definimos g1 con los mismos valores de g − α en (0, a) × {0}
y 0 en el resto de ∂U , y, análogamente g2 , g3 y g4 sobre los otros segmentos del borde,
de modo que g − α = g1 + g2 + g3 + g4 . Notar que para que esta descomposición resulte
en funciones continuas es necesario que g − α se anule en los vértices (como conseguimos
hacer).
Ahora buscamos las soluciones de los problemas
(
−∆vj = 0 en U := (0, a) × (0, b)
(7.10)
vj = gj en ∂U,
78
7. LA ECUACIÓN DE LAPLACE
para j = 1, . . . , 4. Suponiendo que sabemos resolver estos problemas, v = v1 + v2 + v3 + v4
resulta ser solución de (7.9), con lo que u = v1 + v2 + v3 + v4 + α es solución del problema
original (7.8).
Resta resolver (7.10) para cada j. Nos concentramos en el caso j = 1 ya que los
otros son análogos. Este problema, en particular, es idéntico salvo por las dimensiones
(variables) del dominio al ejemplo discutido en la Sección 1 del Capítulo 1.
Planteando v1 (x, y) = X(x)Y (y) se obtienen las ecuaciones
X 00 (x) − λX(x) = 0
y
Y 00 (y) + λY (y) = 0
para alguna constante λ ∈ R a determinar. Las condiciones de contorno imponen, además,
que
X(0) = X(a) = Y (b) = 0.
Es fácil ver que la única posibilidad para X es que λ < 0 y
√
√
X(x) = A cos( −λx) + B sin( −λx).
√
−λa = kπ con k ∈ N,
Las condiciones de contorno determinan entonces
que
A
=
0
y
que
√
esto último ya que λ 6= 0 y, por convención · es la raíz cuadrada positiva. Por lo tanto
λ = −( kπ
)2 y X(x) = B sin(k πa x) para k ∈ N.
a
De la ecuación para Y obtenemos
√
Y (y) = Ae
−λy
+ Be−
√
−λy
.
√
2 −λb
La condición inicial lleva entonces a que B = −Ae
, de donde sale que
√
√
√
Y (y) = 2Ae −λb sinh( −λ(y − b)) = A˜ sinh( −λ(y − b)).
En resumen, tenemos
kπ
kπ
x) sinh( (y − b)) con k ∈ N.
a
a
Para poder ajustar la condición inicial no nula tomamos combinaciones lineales:
∞
X
kπ
kπ
Ak sin( x) sinh( (y − b))
v1 (x, y) =
a
a
k=1
P
kπ
kπ
y pedimos que g1 (x, 0) = v1 (x, 0) = ∞
k=1 Ak sin( a x) sinh(− a b), con lo que las constantes Ak se pueden determinar en base a los coeficientes de Fourier de (la expansión en
senos de) g1 (x, 0) = g(x, 0) − α(x, 0). En concreto, si
Z
2 a
kπ
bk =
(g(x, 0) − α(x, 0)) sin( x)dx,
a 0
a
entonces
bk
Ak =
sinh(− kπ
b)
a
y la solución resulta
∞
X
sinh( kπ
(y − b))
kπ
a
v1 (x, y) =
bk
sin( x).
(7.11)
kπ
a
sinh(− a b)
k=1
v1 (x, y) = Ak sin(
Finalmente, un razonamiento análogo a los ya hechos al final de la Sección 2 del
Capítulo 1 lleva a demostrar que si g1 es suficientemente suave en ∂U , entonces es posible
derivar (7.11) término a término, para concluir que es solución de (7.10) para j = 1. Los
detalles se dejan a cargo del lector.
3. PROPIEDADES DE LAS FUNCIONES ARMÓNICAS
3.
79
Propiedades de las Funciones Armónicas
Del Teorema de la Divergencia se deducen algunas fórmulas de suma utilidad en el
estudio de las funciones armónicas. Supongamos que U ⊂ Rn es un abierto acotado con
borde C 1 (esto quiere decir que cerca del borde, U se puede describir localmente como los
(x1 , . . . , xn ) con xj < γ(x1 , . . . , xj−1 , xj+1 , . . . , xn−1 ) o xj > γ(x1 , . . . , xj−1 , xj+1 , . . . , xn−1 )
para algún j y alguna función γ de tipo C 1 ).
Teorema 7.6 (Teorema de la Divergencia). Sea U ⊂ Rn un abierto acotado con borde
C 1 y ν el campo normal unitario exterior a ∂U . Si F : U → Rn es C 1 (U ) entonces vale
Z
Z
(F (y) · ν(y))dSy = (∇ · F (y))dVy .
∂U
U
Teorema 7.7 (Identidades de Green). Sea U ⊂ Rn un abierto acotado con borde C 1
y ν el campo normal unitario exterior a ∂U . Si u, v ∈ C 2 (U ), entonces valen
Z
Z
∂u
v dS = (∇v · ∇u + v∆u)dV
(7.12a)
∂U ∂ν
U
Z
Z
∂u
∂v
(v
− u )dS = (v∆u − u∆v)dV
(7.12b)
∂ν
∂ν
∂U
U
Z
Z
uxi dV
(7.12c)
uνi dS =
U
∂U
Demostración. Aplicando el Teorema de la divergencia a v∇u, sale (7.12a). Tomando la diferencia entre (7.12a) y ella misma con los roles de u y v invertidos, sale (7.12b).
Finalmente, aplicando (7.12a) al caso v(x) = u(x) y u(x) = xi , sale (7.12c).
Corolario 7.8. Sea U ⊂ Rn un abierto acotado con borde C 1 y ν el campo normal
unitario exterior a ∂U . Si u ∈ C 2 (U ) unaR solución del problema de Neumann (7.7) en U ,
entonces el dato de contorno h satisface ∂U hdS = 0.
Demostración. Si u es como el enunciado, tomar v = 1 y aplicar (7.12a).
Corolario 7.9. Sea U ⊂ Rn un abierto acotado con borde C 1 y ν el campo normal
unitario exterior a ∂U . El problema de Dirichlet (7.6) tiene, a lo sumo, una solución
u ∈ C 2 (U ). Si U es conexo, dos soluciones C 2 (U ) del problema de Neumann (7.7) difieren
en una constante aditiva.
Demostración. Aplicando (7.12a) al caso v = u, con u armónica se obtiene
Z
Z
∂u
u dS =
|∇u|2 dV.
(7.13)
∂ν
∂U
U
Si u = u1 − u2 es la diferencia entre dos soluciones de un mismo problema de Dirichlet,
entonces u = u1 − u2 = g − g = 0 en ∂U . Por lo tanto (7.13) se convierte en
Z
0=
|∇u|2 dV,
U
de donde, siendo el integrando positivo y continuo, concluimos que ∇u = 0 en U , es decir
que u es constante en cada componente conexa de U . Pero como u = 0 en ∂U , u = 0
en todo U . Entonces, u1 = u2 en U para cualesquiera dos soluciones del problema de
Dirichlet.
El caso del problema de Neumann es análogo al de Dirichlet, excepto que al no tener
información sobre u en ∂U , sólo se puede concluir que u es constante en U (que se supone
conexo), con lo que la diferencia entre dos soluciones del problema de Neumann difieren
80
7. LA ECUACIÓN DE LAPLACE
en una constante. De hecho, si u1 es solución de (7.7), entonces u1 + C también lo es para
cualquier constante C.
Los resultados anteriores dan propiedades muy importantes de las funciones armónicas.
Sin embargo, su demostración requiere que la función en cuestión sea de tipo C 2 (U ). Esta
condición parece no ser la natural para el tipo de problema tratado, donde parece más
apropiado pedir soluciones en C 2 (U ) ∩ C 0 (U ). A continuación introduciremos otro tipo
de técnicas que permiten estudiar propiedades de las funciones armónicas con condiciones
menos exigentes.
Teorema 7.10. Sea u ∈ C 2 (U ) armónica e y ∈ U . Si r > 0 es tal que Br (y) ⊂ U ,
entonces
Z
Z
1
1
u(y) =
u(y + rξ)dSξ =
u(y + z)dSz ,
(7.14)
ωn |ξ|=1
V ol(∂Br (0)) ∂Br (0)
donde ωn es el volumen2 de ∂B1 (0) ⊂ Rn .
Demostración. Sea
1
φ(ρ) =
ωn
Z
u(y + ρξ)dSξ ,
|ξ|=1
para ρ ∈ [0, r]. Es fácil ver que φ es continua en [0, r]. Entonces, si ρ ∈ (0, r),
Z
Z
1
x−y
1
0
∇u(y + ρξ) · ξdSξ = n−1
∇u(x) ·
dSx
φ (ρ) =
ωn |ξ|=1
ρ ωn ∂Bρ (y)
ρ
Z
Z
1
∂u
1
= n−1
(x)dSx = n−1
∆u(x)dVx = 0
ρ ωn ∂Bρ (y) ∂ν
ρ ωn Bρ (y)
(7.15)
donde hemos usado que x−y
es el campo normal unitario a ∂Bρ (y), y también la identidad
ρ
de Green (7.12a) con v = 1. Por lo tanto, φ(ρ) es constante. Como además
Z
1
l´ım u(y + ρξ)dSξ = u(y),
(7.16)
l´ım φ(ρ) =
r→0+
ωn |ξ|=1 ρ→0+
concluimos que φ(ρ) = u(y) para todo ρ ∈ (0, r). Más aún, por la continuidad de φ en
ρ = r resulta que u(y) = φ(r). La segunda igualdad del enunciado se obtiene simplemente
mediante el cambio de variables x = rξ.
Nota 7.11. También vale el recíproco del Teorema 7.10. Es decir, si u ∈ C 2 (U )
satisface (7.14) para todo r > 0 suficientemente chico, entonces u es armónica en U . Esto
es muy simple ya que si ∆u(y) 6= 0 para algún y ∈ U podemos suponer que ∆u(y) > 0,
con lo que ∆u(z) > 0 en Bρ (y) para algún ρ > 0. Por tanto, en (7.15) se tiene
Z
1
0
0 = φ (ρ) = n−1
∆u(z)dVz > 0,
ρ ωn Bρ (y)
y de la contradicción concluimos que ∆u(y) = 0.
Más aún, veremos en el Teorema ?? que toda función continua en U y que satisface
la propiedad del valor medio es C ∞ , con lo que la condición de u ∈ C 2 (U ) en esta Nota
no es necesaria ya que alcanza con C 0 (U ).
2En
estas notas vamos a hablar de volumen tanto de una hipersuperficie (es decir, dimensión n − 1)
como de conjuntos de dimensión n. En ambos casos se entiende que el volumen al que nos referimos
es el que corresponde a la dimensión del objeto considerado. De otro modo, si calculamos el volumen
n-dimensional de una hipersuperficie, siempre obtenemos 0
3. PROPIEDADES DE LAS FUNCIONES ARMÓNICAS
81
Ejercicio 7.12. En el primer paso de (7.15), en la demostración del Teorema 7.10,
se intercambia una derivada con una integral. En la misma demostración, en (7.16), se
intercambia un límite con una integral. Justificar cuidadosamente esos pasos.
que
Corolario 7.13. Con las mismas condiciones del Teorema 7.10, para todo r > 0 vale
Z
Z
n
1
u(y) =
u(y + rξ)dVξ =
u(y + x)dVx .
ωn |ξ|≤1
V ol(Br (0)) Br (0)
Demostración.
Z
Z 1 Z
(
u(y + rξ)dVξ =
|ξ|≤1
u(y + rξ)dSξ )dρ =
|ξ|=ρ
0
Z
Z
1
ρ
n−1
Z
(
u(y + rρχ)dSχ )dρ
|χ|=1
0
1
ωn
u(y),
n
0
de donde sale la primera igualdad del enunciado. La segunda es automática por un cambio
de variables.
=
ρn−1 ωn u(y)dρ =
Nota 7.14. Para u ∈ C 2 (U ), si en vez de pedir ∆u = 0 se pide ∆u ≥ 0, las mismas
demostraciones del Teorema 7.10 y el Corolario 7.13 muestran que
Z
Z
1
n
u(y) ≤
u(y + rξ)dSξ y u(y) ≤
u(y + rξ)dVξ .
ωn |ξ|=1
ωn |ξ|≤1
Para el enunciado del próximo resultado necesitamos revisar la noción de supremo de
un subconjunto de R. Si A ⊂ R, se dice que s ∈ R es una cota superior de A si a ≤ s
para todo a ∈ A. El supremo de A, denotado por sup A, es la menor de todas las cotas
superiores de A. Si A es acotado superiormente, se deduce de la completitud de R que
sup A existe y es finito. Si A no es acotado superiormente se dice que sup A = ∞. Notar
que sup A puede pertenecer a A o no. De modo análogo se introduce el ínfimo de A como
la mayor de sus cotas inferiores.
Teorema 7.15 (Principio del Máximo). Si U ⊂ Rn es un abierto conexo y u ∈ C 2 (U )
satisface ∆u ≥ 0 en U entonces, o bien u es constante en U , o vale
u(y) < sup u(x)
para todo
y ∈ U.
x∈U
Demostración. Sea S = supx∈U u(x). Podemos suponer que S < ∞ ya que en caso
contrario el resultado es trivial. Definimos B := {x ∈ U : u(x) = S} = u−1 (S).
Siendo u continua y {S} un conjunto cerrado, tenemos que B = u−1 (S) es cerrado en
U.
Por otro lado, para y ∈ B, es decir que
R u(y) = S, sea r > 0 tal que Br (y) ⊂ U .
Entonces, por la Nota 7.14, S = u(y) ≤ ω1n |ξ|=1 u(y + rξ)dSξ , donde u(y + rξ) ≤ S para
todo ξ con |ξ| = 1. Luego, si existieraR x ∈ U con ky − xk = r tal que u(x) < S, por
la continuidad de u, resultaría que ω1n |ξ|=1 u(y + rξ)dSξ < S que, junto con el cálculo
anterior, muestra que S < S. Esta contradicción muestra que Br (y) ⊂ B, que resulta ser
un conjunto abierto en U .
Pero entonces, B es abierto y cerrado en U , conexo, con lo que B = ∅ o B = U , que
es exactamente la tesis del enunciado.
Corolario 7.16. Si U es compacto y u ∈ C 2 (U ) ∩ C 0 (U ) satisface ∆u ≥ 0 en U ,
entonces
m´ax u(x) = m´ax u(x).
x∈U
x∈∂U
82
7. LA ECUACIÓN DE LAPLACE
Nota 7.17. Es claro que para funciones u ∈ C 2 (U ) ∩ C 0 (U ) con ∆u ≤ 0 en U
valen resultados análogos al Teorema 7.15 y su Corolario 7.16, reemplazando máximos y
supremos por mínimos e ínfimos. Estos son, a veces, conocidos como principio del mínimo.
Corolario 7.18. Sea U ⊂ Rn un dominio acotado y u1 , u2 ∈ C 2 (U ) ∩ C 0 (U ) soluciones de la ecuación de Poisson −∆u = f en U . Dado > 0, si |u1 (x) − u2 (x)| < para
todo x ∈ ∂U , entonces vale |u1 (x) − u2 (x)| < para todo x ∈ U .
Demostración. En las condiciones del enunciado, u = u1 − u2 es armónica en U ,
con |u| < en ∂U . Por el Corolario 7.16 resulta u < en U y por su análogo para ∆u ≤ 0,
u > − en U , con lo que |u| < en U , de donde se sigue el enunciado.
Aplicando el Corolario al caso en que u1 = u2 en ∂U sale el siguiente resultado de
unicidad, análogo al Corolario 7.9, pero que no supone que la solución es C 2 (U ).
Corolario 7.19. El problema de Dirichlet
(
−∆u = f en U
u = g en ∂U
en un dominio acotado U tiene, a lo más, una única solución u ∈ C 2 (U ) ∩ C 0 (U ).
Nota 7.20. Los Corolarios 7.18 y 7.19, dicen que suponiendo que el problema de
Dirichlet tiene solución, entonces está bien planteado, ya que la solución es única y depende
continuamente del dato de contorno (pequeño dato de contorno lleva a soluciones pequeñas
en el interior del dominio).
La propiedad del valor medio para funciones armónicas u permite hallar cotas para
estimar el comportamiento de u y sus derivadas.
Teorema 7.21. Sea u armónica en U ⊂ Rn . Entonces, si r > 0 es tal que Br (x) ⊂ U ,
vale que
C1
|u(x)| ≤ n kukL1 (Br (x))
r
y
ux (x) ≤ C0 kuk 1
j
L (Br (x))
rn+1
para algunas constantes C0 , C1 ∈ R. La norma kukL1 (Br (x)) es
Z
|u(y)| dVy .
kukL1 (Br (x)) :=
Br (x)
Demostración. Por el Corolario 7.13,
Z
Z
n
n
|u(x)| = n
u(y)dVy ≤ n
|u(y)| dVy
r ωn Br (x)
r ωn Br (x)
de donde, tomando C0 = ωnn se tiene la primera desigualdad.
Como u es armónica en U , uxj también lo es. Por lo tanto, por la primera desigualdad
Z
2n n Z
2n n
ux (x) ≤ uxj (y)dVy = n
u(y)νj (y)dSy j
n
r ωn B r (x)
r ωn ∂B r (x)
2
2
Z
2n n
2n n
r
≤ n
|u(y)| dSy ≤ n ( m´ax |u(y)|)( )n−1 ωn
r ωn ∂B r (x)
r ωn y∈∂B r2 (x)
2
2
2n
=
m´ax |u(y)| .
r y∈∂B r2 (x)
4. REGULARIZACIÓN DE FUNCIONES
83
Para y ∈ ∂B r2 (x), vale B r2 (y) ⊂ Br (x) ⊂ U y, por la primera desigualdad
Z
Z
2n n
2n n
2n n
|u(z)| dVz = n kukL1 (Br (x)) .
|u(y)| ≤ n
|u(z)| dVz ≤ n
r ωn B r (y)
r ωn Br (x)
r ωn
2
Juntando las últimas estimaciones
n
2n+1 n2
ux (x) ≤ 2n m´ax |u(y)| ≤ 2n 2 n kuk 1
=
kukL1 (Br (x))
j
L (Br (x))
r y∈∂B r2 (x)
r rn ωn
rn+1 ωn
con lo que, definiendo C1 =
2n+1 n2
,
ωn
se tiene la segunda desigualdad del enunciado.
Corolario 7.22 (Teorema de Liouville). Sea u : Rn → R armónica y acotada. Entonces u es constante.
Demostración. Sea M = supx∈Rn |u(x)| < ∞. Fijando x ∈ Rn , para cada r > 0,
por la segunda desigualdad del Teorema 7.21 vale
Z
M C1 ωn
C1
C1
ωn r n
ux (x) ≤ C1 kuk 1
=
=
|u(y)|
dV
≤
M
y
j
L (Br (x))
n+1
n+1
n+1
r
r
r
n
nr
Br (x)
que tiende a 0 cuando r → +∞. Por tanto, uxj (x) = 0, para todo x ∈ Rn y para cualquier
j. En conclusión, ∇u se anula en Rn y, por tanto, u es constante.
Nota 7.23. Es posible dar una demostración más directa del Teorema de Liouville
que no usa el Teorema 7.21. Notemos que si u es armónica en U , entonces uxj también lo
es. Por tanto, usando el Corolario 7.13 y (7.12c), vale que
Z
Z
1
n
uxj (x) =
ux (y)dVy = n
ux (y)dVy
V ol(Br (x)) Br (x) j
r ωn Br (x) j
Z
n
u(y)νj (y)dSy
= n
r ωn ∂Br (x)
donde νj es la j-ésima componente del campo normal unitario a ∂Br (x). En consecuencia,
Z
Z
n
n
ux (x) ≤
|u(y)| νj (y)|dSy = n
|u(y)| dSy
j
rn ωn ∂Br (x)
r ωn ∂Br (x)
n
n
≤ n
sup |u(y)| rn−1 ωn =
sup |u(y)| .
r ωn y∈∂Br (x)
r y∈∂Br (x)
Entonces, cuando u es acotada se tiene supy∈∂Br (x) |u(y)| ≤ M para todo x y r > 0, con
lo que
ux (x) ≤ n M para todo r > 0
j
r
n
de donde sale que ∇u = 0 en R y, finalmente, u es constante en Rn .
4.
Regularización de funciones
En muchas situaciones es importante poder aproximar una función dada mediante
funciones con mayor suavidad (regularidad). En esta sección describiremos brevemente
un mecanismo que permite aproximar funciones mediante funciones C ∞ . Antes de pasar
a estudiar la regularización propiamente dicha introduciremos un nuevo “producto” entre
funciones, llamado producto de convolución que aparecerá varias veces en lo que resta de
estas notas.
84
7. LA ECUACIÓN DE LAPLACE
4.1.
Producto de Convolución.
Definición 7.24. Si f, g : Rn → R se define su convolución f ∗ g : Rn → R mediante
Z
(f ∗ g)(x) :=
f (x − y)g(y)dVy
Rn
siempre que la integral este definida.
Proposición 7.25. Siempre que las integrales en cuestión estén definidas vale que el
producto de convolución es:
conmutativo: f ∗ g = g ∗ f .
asociativo: f ∗ (g ∗ h) = (f ∗ g) ∗ h.
lineal en cada variable: (a1 f1 + a2 f2 ) ∗ g = a1 (f1 ∗ g) + a2 (f2 ∗ g) para a1 , a2 ∈ R.
Proposición 7.26. Si f, g ∈ L1 (Rn ) entonces f ∗ g ∈ L1 (Rn ) y kf ∗ gkL1 (Rn ) ≤
kf kL1 (Rn ) kgkL1 (Rn ) .
Demostración. Usando convenientemente
el Teorema de Fubini
tenemos
Z
Z Z
kf ∗ gkL1 (Rn ) =
|(f ∗ g)(x)| dVx =
n f (x − y)g(y)dVy dVx
Rn
Rn
R
Z Z
Z Z
≤
(
|f (x − y)g(y)| dVy )dVx =
(
|f (x − y)| |g(y)| dVx )dVy
Rn
Rn
Rn
Rn
Z Z
Z Z
|f (z)| dVz ) |g(y)| dVy
(
|f (x − y)| dVx ) |g(y)| dVy =
(
=
Rn
Rn
Rn
Rn
Z
Z
=
kf kL1 (Rn ) |g(y)|dVy = kf kL1 (Rn )
|g(y)|dVy
Rn
Rn
= kf kL1 (Rn ) kgkL1 (Rn ) .
Nota 7.27. Como muestra la Proposición 7.25, el producto de convolución comparte
varias propiedades con el producto usual de funciones. Sin embargo, en algunos aspectos
es bien diferente. Por ejemplo, el producto usual de funciones
tiene un elemento neutro,
R
la función constantemente 1. En cambio, (1 ∗ f )(x) = Rn f (y)dVy , que, salvo que f sea
nula no es f . En general, no hay una función que sea el elemento neutro (o unidad) de ∗.
Dicho esto, notamos que, extendiendo la noción de convolución adecuadamente para que
actúe sobre distribuciones
R (ver Sección ??), la distribución δ0 es el elemento neutro de ∗,
ya que (f ∗ δ0 )(x) “ = ” Rn f (x − y)δ0 (y)dVy “ = ” f (x − 0) = f (x).
Bibliografía
1. Milton Abramowitz and Irene A. Stegun, Handbook of mathematical functions with formulas, graphs,
and mathematical tables, National Bureau of Standards Applied Mathematics Series, vol. 55, For
sale by the Superintendent of Documents, U.S. Government Printing Office, Washington, D.C., 1964.
MR MR0167642 (29 #4914)
2. Manuel Balanzat, Matemática avanzada para la física, Manuales, EUDEBA, Buenos Aires, 1977.
3. Ruel V. Churchill, Fourier Series and Boundary Value Problems, McGraw-Hill Book Company, Inc.,
New York and London, 1941. MR MR0003251 (2,189d)
4. Lawrence C. Evans, Partial differential equations, Graduate Studies in Mathematics, vol. 19, American
Mathematical Society, Providence, RI, 1998. MR MR1625845 (99e:35001)
5. Georgi P. Tolstov, Fourier series, Dover Publications, Inc., New York, 1976, Second English translation,
Translated from the Russian and with a preface by Richard A. Silverman. MR 0425474 (54 #13429)
6. H. F. Weinberger, A first course in partial differential equations with complex variables and transform
methods, Blaisdell Publishing Co. Ginn and Co. New York-Toronto-London, 1965. MR MR0180739
(31 #4969)
85
Índice alfabético
B
bases de Hilbert, 16
F
fórmula de D’Alembert, 60
fórmula de Kirchoff, 72
fórmula de Lagrange, 22
fórmula de Poisson, 73
fenómeno de Gibbs, 6
frontera libre, 65
función Γ, 33
función continua a trozos, 6
función continua a trozos en [a, b], 6
función de Bessel de primera especie, 33
función de Bessel de primera especie
modificada, 36
función de Bessel de segunda especie, 34
función de Heaviside, 67
función de Neumann, 34
función de prueba, 48
función suave a trozos, 7
funciones armónicas, 75
C
característica, 50
completos, 18
conjuntos de medida nula, 15
constante de Euler, 34
convergencia puntual de funciones, 20
convergencia uniforme de funciones, 20
convolución, 84
cota superior, 81
cuasi lineal, 40
curva característica, 43
D
Dalembertiano, 59
derivada de orden α, 40
derivada normal, 41, 51
derivadas parciales, 39
desarrollo de Fourier–Bessel, 32
desigualdad de Parseval, 17
dominio de dependencia de (x, t), 61
dominio de influencia de (x0 , 0), 61
G
gradiente, 41
H
hiperbólica, 55
E
Ecuación de Airy, 42
Ecuación de Ampère, 42
Ecuación de Bessel de orden ν, 33
Ecuación de Bessel modificada, 36
Ecuación de Burgers, 42
Ecuación de Hamilton-Jacobi, 42
Ecuación de Korteweg-de Vries (KdV), 42
Ecuación de Laplace, 42, 75
Ecuación de onda, 42
ecuación de ondas no homogénea, 65
ecuación de Poisson, 75
Ecuación de Schrödinger, 42
Ecuación del calor o de difusión, 42
ecuación diferencial, 39
ecuación lineal, 40
Ecuación lineal de transporte, 42, 46
Ecuaciones de Maxwell, 42
Ecuaciones de Navier-Stokes, 42
elíptica, 55
espacio de Hilbert, 16
I
Igualdad de Parseval, 13
ínfimo de A, 81
L
laplaciano, 41
Lema de Riemann–Lebesgue, 17
M
método de las curvas características, 43
matriz Hessiana, 41
media cuadrática, 18
N
Núcleo de Dirichlet, 23
no característica, 50, 51
norma 2, 18
notación de multi-índices, 40
O
orden de la ecuación diferencial, 39
ordinaria, 39
87
88
7. LA ECUACIÓN DE LAPLACE
P
parabólica, 55
principio del mínimo, 82
Problema de Cauchy, 49
problema de Dirichlet, 77
problema de Neumann, 77
promedios esféricos, 71
S
serie de Fourier, 4
serie exponencial de Fourier, 12
signo de x, 67
sistemas de ecuaciones diferenciales, 40
solución, 39
solución clásica, 40, 47
solución débil, 40, 47, 48
solución distribucional, 40
solución fundamental, 76
sucesión convergente, 20
sucesión convergente en un espacio con
producto interno, 16
sucesión de Cauchy, 20
sucesión de Cauchy en un espacio con producto
interno, 16
sucesión puntualmente de Cauchy, 20
sucesión uniformemente de Cauchy, 21
supremo, 81
supremo de A, 81
T
Teoría de Sturm–Liouville, 28