Notas de Matemática II r a in n ó i rs m i l e r P Ve Javier Fernandez Instituto Balseiro 4 de marzo de 2015 Índice general Capítulo 1. Series de Fourier 1. Introducción a las Series de Fourier 2. Series de Fourier (trigonométricas) 3. Series de Fourier (exponenciales) 4. Interpretación Algebraica 5. Apéndice - Convergencia de sucesiones 6. Apéndice - Teoremas de convergencia de la serie de Fourier 1 1 3 12 15 20 22 Capítulo 2. Funciones Especiales 1. Algunas funciones especiales 2. Ecuación de Bessel 27 27 32 Capítulo 3. Introducción a las Ecuaciones Diferenciales 1. Generalidades 2. Notación 3. Algunas Ecuaciones Diferenciales 39 39 40 41 Capítulo 4. Ecuaciones de Primer Orden 1. Método de las curvas características 2. Datos iniciales 43 43 49 Capítulo 5. Ecuaciones de Segundo Orden 53 Capítulo 6. Ecuación de onda 1. Generalidades 2. Ecuación de onda en n = 1 3. Ecuación de onda en n > 1 59 59 59 71 Capítulo 7. La ecuación de Laplace 1. Generalidades 2. Nociones Básicas 3. Propiedades de las Funciones Armónicas 4. Regularización de funciones 75 75 76 79 83 i 1 Series de Fourier 1. Introducción a las Series de Fourier Vamos a discutir la ecuación diferencial ∆u = 0 en el dominio (0, π) × (0, π) ⊂ R2 . Más aún, queremos que las soluciones se anulen sobre los bordes superior, izquierdo y derecho del cuadrado considerado, mientras que sobre el borde inferior sea igual a alguna función dada, que se anule en los extremos del segmento a fin de que la función en el borde sea continua (por ejemplo, u(x, 0) = x(π − x)). La notación habitual para este problema diferencial es ∆u(x, y) = 0, ∀(x, y) ∈ (0, π) × (0, π) (1.1) u(0, y) = u(π, y) = 0, ∀y ∈ [0, π] u(x, π) = 0 y u(x, 0) = g(x), ∀x ∈ [0, π]. Un método explícito de resolución usado frecuentemente es el llamado separación de variables y que consiste en buscar, en principio, soluciones u(x, y) en las que la dependencia de las variables sea de la forma u(x, y) = X(x)Y (y), (1.2) es decir que, de algún modo, las variables aparecen separadas. Normalmente no es de esperar que este tipo de solución resuelva el problema por completo, pero suele ser un paso intermedio para hallar la solución completa. Si se reemplaza (1.2) en ∆u = 0 se obtiene X 00 (x)Y (y) + X(x)Y 00 (y) = 0 ⇒ X 00 (x) Y 00 (y) =− X(x) Y (y) donde 0 denota a la derivada con respecto a la variable que corresponda. En particular, en la última expresión vemos que el lado izquierdo es función únicamente de la variable x mientras que el lado derecho lo es de la variable y. Siendo ambas variables independientes, la única posibilidad es que ambos lados sean constantes: X 00 (x) Y 00 (y) =− = λ, con λ ∈ R. X(x) Y (y) De aquí obtenemos dos ecuaciones ordinarias; X 00 (x) − λX(x) = 0 y Y 00 (y) + λY (y) = 0. Notemos que estas ecuaciones involucran al parámetro desconocido λ. Ahora bien, u satisface ciertas condiciones en la frontera. Por ejemplo, u(0, y) = 0 para todo y. Entonces, X(0)Y (y) = 0 para todo y. Si X(0) 6= 0, sería Y (y) = 0 para todo y y u sería nula, cosa que no es compatible con una g no nula. Por lo tanto vemos que las 1 2 1. SERIES DE FOURIER ecuaciones ordinarias que encontramos traen asociadas ciertas condiciones de contorno: X(0) = 0 y, de un modo análogo, usando u(π, y) = 0 para todo y, X(π) = 0: X 00 (x) − λX(x) = 0, con X(0) = X(π) = 0. (1.3) Siendo esta una ecuación lineal ordinaria de coeficientes constantes, hay básicamente, tres tipos de soluciones: exponenciales (λ > 0), funciones trigonométricas (λ < 0) y funciones lineales (λ = 0). √ λ > 0: el polinomio característico tiene dos raíces distintas ± λ, con √ √ lo que la solución general de la ecuación es X(x) = A exp( λx) + B exp(− √ λx). Al imponer √ las condiciones de contorno obtenemos 0 = A + B y 0 = A exp( λπ) + B exp(− λπ), de donde se concluye fácil que A = B = 0, con lo que la única solución es la nula. λ = 0, lleva a que X(x) = Ax + B y de las condiciones iniciales se deduce que A = B = 0 y nuevamente la única solución es la nula. √ λ < 0:√ las raíces son complejas y la solución es de la forma X(x) = A sin( −λx) + B cos( −λx). Evaluando √ en x = 0 se obtiene√que B = 0. Por último, evaluando en x = π sale 0 = √ sin( −λπ), con lo que −λπ = kπ para algún k ∈ Z; en verdad, dado que −λ > 0, tiene que ser k ∈ N. Del análisis de arriba vemos que, salvo que λ = −k 2 para algún k ∈ N el problema (1.3) no tiene otra solución que la nula. En el caso “de interés”, es decir donde hay solución no nula, X(x) = A sin(kx). Volviendo a la ecuación para Y con λ = −k 2 y k ∈ N, tenemos: Y 00 (y) − k 2 Y (y) = 0, con lo que Y (y) = Aeky + Be−ky . De u(x, π) = 0 se deduce que 0 = Y (π) = A exp(kπ) + B exp(−kπ) de donde B = −A exp(2kπ). Entonces la forma general es Y (y) = A(exp(ky) − exp(2kπ) exp(−ky)) = A exp(kπ)(exp(k(y − π)) − exp(−k(y − π))) = 2A exp(kπ) sinh(k(y − π)). Todo junto, u(x, y) = Ck sin(kx) sinh(k(y − π)) con k ∈ N, Ck ∈ R, (1.4) donde hemos absorbido varias constantes (que dependían de k) en la constante Ck . Revisemos: por construcción, (1.4) satisface la ecuación diferencial así como también las condiciones de contorno nulas del problema. Sin embargo, salvo que g(x) tenga una forma muy especial, la función (1.4) no se restringirá a g cuando y = 0. Una condición “estructural” que no hemos usado es la linealidad de la ecuación ∆u = 0. Debido a esto podemos considerar no sólo soluciones de la forma (1.4) sino también combinaciones lineales suyas: u(x, y) = b X Ck sin(kx) sinh(k(y − π)). k=a Si bien esta expresión es más general que (1.4), aún no permite resolver el problema para una función g suficientemente arbitraria, es decir, para una g que no sea una combinación lineal finita de senos. Una idea razonable parece ser considerar no sólo sumas finitas sino sumas infinitas: ∞ X u(x, y) = Ck sin(kx) sinh(k(y − π)). (1.5) k=1 Este último paso lleva a una cantidad de inconvenientes. Por ejemplo, mientras la suma era finita, tomar derivadas conmutaba con la suma, lo que aseguraba que la función 2. SERIES DE FOURIER (TRIGONOMÉTRICAS) 3 propuesta era solución de la ecuación diferencial. Pero esto deja de ser cierto en general para series. La gran ventaja de las series es que permiten mucha más flexibilidad en el tipo de funciones de contorno g que se pueden utilizar. Este último punto es, precisamente, el punto de partida de nuestro estudio de las series de Fourier1. El tipo de preguntas que nos interesa responder es, por ejemplo, ¿bajo qué condiciones puede ser escrita una función como una combinación lineal (infinita) de funciones del tipo sin(kx)? ¿Qué tan buena es ésta aproximación? ¿Permite la conmutación de límites con derivadas? Entre la muy extensa bibliografía sobre series de Fourier sugerimos la lector consultar los libros de M. Balanzat [2] y R. Churchill [3]. 2. Series de Fourier (trigonométricas) Vamos a considerar ahora una situación ligeramente más general: vamos a estudiar la posibilidad de escribir ∞ X f (t) = a0 + (an cos(nt) + bn sin(nt)) (1.6) n=1 para t ∈ [−π, π] y f : [−π, π] → R razonablemente arbitraria. Suponiendo que la representación (1.6) es válida, podemos usarla para hallar las constantes an , bn ∈ R. La clave es recordar las fórmulas siguientes, válidas para n, m ∈ N: Z π 0= sin(nt) cos(mt)dt, para todo n, m −π Z π Z π (1.7) πδn,m = cos(nt) cos(mt)dt = sin(nt) sin(mt)dt para todo m, n ∈ N. −π −π Ejercicio 1.1. Escribir los senos y cosenos en términos de exponenciales complejas para probar las identidades (1.7). R P Para k ∈ N, intercambiando con sin preocuparnos (ya que esto es sólo heurístico) tenemos: Z π Z π ∞ X (an cos(nt) + bn sin(nt))) sin(kt)dt f (t) sin(kt)dt = (a0 + −π −π Z n=1 π =a0 sin(kt)dt + −π ∞ X Z π an n=1 cos(nt) sin(kt)dt −π Z π + bn (1.8) sin(nt) sin(kt)dt −π =πbk , de donde 1 bk = π Z π f (t) sin(kt)dt (1.9) −π Análogamente se ve que 1 ak = π 1Jean-Baptiste Z π f (t) cos(kt)dt si k>0 (1.10) −π Joseph Fourier (1768-1830) fue un matemático y físico francés reconocido por su trabajo en series de funciones (que hoy llevan su nombre) y sus aplicaciones a las ecuaciones en derivadas parciales (transferencia de calor y vibraciones). 4 1. SERIES DE FOURIER y 1 a0 = 2π Z π f (t)dt. (1.11) −π Definición 1.2. Dada f : [−π, π] → R se define su serie de Fourier como ∞ X a0 + (an cos(nt) + bn sin(nt)) (1.12) n=1 con los coeficientes an y bn dados por las fórmulas (1.9), (1.10) y (1.11). Nota 1.3. Para poder calcular la serie de Fourier de f hace falta poder evaluar las integrales (1.9), (1.10) y (1.11). Éstas pueden ser calculadas si, por ejemplo, f es integrable en [−π, π]. Una condición muy común es que f sea continua a trozos (ver Definición 1.11), que implica que f es integrable. Es importante tener en cuenta que aún cuando f es integrable y, por tanto, su serie de Fourier se puede calcular, esta serie no tiene por qué converger a f . Condiciones para que esto ocurra serán estudiadas más adelante. Nota 1.4. Es equivalente tener una función f : [−π, π) → R que tener una función f˜ : R → R periódica con período 2π. Nota 1.5. En general, f tiene período 2T si vale f (x + 2T ) = f (x) para todo x ∈ R. Es fácil ver que si f es 2T periódica se tiene Z a+2T Z 2T f (t)dt ∀a ∈ R f (t)dt = 0 a (por ejemplo, derivar el lado derecho respecto de a para concluir que su valor es independiente de a). De aquí que, por ejemplo, si f es 2π-periódica, Z Z 1 π 1 2π bk = f (t) sin(kt)dt = f (t) sin(kt)dt. π −π π 0 Más en general se tiene Definición 1.6. Dada f : R → R periódica con período 2T se define su serie de Fourier como ∞ X π π a0 + an cos n t + bn sin n t T T n=1 con los coeficientes an y bn dados por las fórmulas: Z T 1 f (t)dt, a0 = 2T −T Z 1 T π an = f (t) cos(n t)dt T −T T Z T 1 π bn = f (t) sin(n t)dt. T −T T si n > 0, Usualmente, la notación ∞ X π π f (t) ∼ a0 + an cos n t + bn sin n t T T n=1 significa que la serie del lado derecho es la serie de Fourier de la función f . 2. SERIES DE FOURIER (TRIGONOMÉTRICAS) 5 Nota 1.7. Cabe notar que la definición de coeficiente de Fourier puede aparecer, a veces, con algún cambio. Por ejemplo, algunos autores definen el coeficiente Z 1 T a0 := f (t)dt T −T que sigue la misma forma que los otros coeficientes an con n ∈ N. En este caso, la representación de la serie de Fourier asociada a f es ∞ a0 X π π f (t) ∼ + an cos n t + bn sin n t . 2 T T n=1 En estas notas usaremos únicamente la Definición 1.6. Ejemplo 1.8. Sea f la función 2π-periódica que vale f (t) = 21 (π − t) si 0 < t ≤ 2π. El gráfico de f se muestra en la Figura 1.1. Calculamos su serie de Fourier: 1.5 1 0.5 0 -2 0 2 4 6 8 x -0.5 -1 -1.5 Figura 1.1. Gráfico de f del Ejemplo 1.8 1 a0 = 2π y Z π f (t)dt = 0, −π Z 1 π ak = f (t) cos(kt)dt = 0, π −π en ambos casos por tratarse de integrales de funciones impares sobre un dominio simétrico respecto del origen. Por otro lado, Z Z Z 2π 1 π 1 2π 1 bk = f (t) sin(kt)dt = f (t) sin(kt)dt = (π − t) sin(kt)dt π −π π 0 2π 0 Z 2π Z 2π Z 2π 1 1 cos(kt) = ( π sin(kt)dt − t sin(kt)dt) = (0 + t d( )) 2π 0 2π k 0 0 2π Z 2π 1 cos(kt) cos(kt) 1 = (t ) − dt = . 2π k k k 0 0 Por lo tanto ∞ X 1 f (t) ∼ sin(kt). (1.13) k k=1 6 1. SERIES DE FOURIER La Figura 1.2 muestra como las distintas sumas parciales aproximan f . 1.5 1 0.5 x -2 0 2 4 6 8 0 -0.5 -1 -1.5 Figura 1.2. Gráfico de distintas sumas parciales de la serie de Fourier de f Nota 1.9. La serie de Fourier de la función f del Ejemplo 1.8 converge a 0 para t = 0. Este valor coincide, no con f (0) sino con el promedio de los límites laterales de f en 0. Se puede apreciar en la Figura 1.2 como la serie de Fourier parece converger a f (t) en los puntos t donde f es continua. Otra cosa que se puede apreciar en la Figura 1.2 es que cerca de las discontinuidades de f aparecen “picos” en las distintas aproximaciones. Se nota que los picos se desplazan hacia la discontinuidad a medida que la aproximación mejora pero, sin embargo, no disminuyen su altura. Este es un fenómeno general de la convergencia de la serie de Fourier de una función discontinua y se lo conoce como fenómeno de Gibbs. Ejercicio 1.10. Se define la función 2π-periódica f que satisface ( π + t si − π ≤ t ≤ 0 f (t) = . π − t si 0 ≤ t ≤ π Realizar un gráfico de f en un intervalo que incluya a [−2π, 2π] y probar que ∞ π 4 X cos((2k + 1)t) f∼ + . 2 π k=0 (2k + 1)2 Definición 1.11. Se dice que f es continua a trozos en [a, b] si los límites laterales f (a+ ) := l´ım+ f (t) t→a y f (b− ) := l´ım− f (t) t→b existen, son finitos y, además, f es continua en (a, b), salvo en, a lo sumo, finitos puntos en los cuales los límites laterales existen y son finitos. Se dice que f : R → R es continua 2. SERIES DE FOURIER (TRIGONOMÉTRICAS) 7 a trozos si lo es en cada intervalo [a, b]. Se dice que f es suave a trozos si f y f 0 son continuas a trozos. Ejemplo 1.12. La función f del Ejemplo 1.8 es suave a trozos, g(t) := p a trozos y h(t) := |t| es continua pero no es suave a trozos. 1 t no es continua Los siguientes resultados establecen condiciones suficientes para la convergencia de las series de Fourier. Teorema 1.13. Si f es periódica con período 2T , suave a trozos y ∞ X π π f ∼ a0 + (an cos(n t) + bn sin(n t)), T T n=1 entonces vale ∞ X f (t+ ) + f (t− ) π π = a0 + (an cos(n t) + bn sin(n t)) ∀t ∈ R. 2 T T n=1 En particular, si f es continua en t0 vale: f (t0 ) = a0 + ∞ X π π (an cos(n t0 ) + bn sin(n t0 )). T T n=1 Demostración. Ver Sección 6.1. Corolario 1.14. Si f y g son continuas, 2T -periódicas, suaves a trozos y tienen la misma serie de Fourier, entonces son idénticas. Teorema 1.15. Si f es 2T -periódica y suave a trozos, entonces la serie de Fourier de f converge a f uniformemente si y sólo si f es continua. Además, si f es continua, la convergencia de su serie de Fourier asociada es absoluta. Demostración. Ver Sección 6.2. Ejemplo 1.16. Sea f la función 2π-periódica f del Ejercicio 1.10. Como se vio en dicho ejercicio, ∞ π 4 X cos((2k + 1)t) f∼ + . 2 π k=0 (2k + 1)2 Dado que f es suave a trozos y continua, por el Teorema 1.13 sabemos que ∞ π 4 X cos((2k + 1)t) f (t) = + 2 π k=0 (2k + 1)2 ∀t ∈ R (de hecho, la convergencia de la serie es uniforme por el Teorema 1.15). En particular, evaluando ambos lados de la última igualdad en t = 0 se obtiene ∞ π 4X 1 π= + , 2 π k=0 (2k + 1)2 de donde sale que ∞ π2 X 1 = . 2 8 (2k + 1) k=0 8 1. SERIES DE FOURIER RT Nota 1.17. Si f es una función par y 2T -periódica, todas las integrales −T f (t) sin(k Tπ t)dt se anulan (por ser el integrando impar y el dominio de integración simétrico respecto de 0). Por lo tanto, la serie de Fourier de f es una serie de cosenos. Del mismo modo, si f es impar y 2T -periódica, su serie de Fourier es una serie de senos. En verdad, cuando f es continua y suave a trozos, ambas observaciones son obviamente si y sólo si. La Nota 1.17 resulta muy útil en la práctica, como muestra el ejemplo siguiente. Ejemplo 1.18. En el contexto de la Sección 1, estamos interesados en escribir la función g(t) = t(π − t) como una serie de senos de modo que la descripción valga para t ∈ [0, π]. Una primera idea sería pensar a g como función π-periódica (ver Figura 3(a)) y hallar su serie de Fourier. Sin embargo, al hacer esto, se obtiene una función par y, por lo tanto, su serie de Fourier es una serie de cosenos, que no es lo que se busca. Tomando en cuenta esta primera idea, otra posibilidad es extender g de manera impar al intervalo [−π, π] (ver Figura 3(b)) y luego extenderla a todo R como función 2π-periódica. En este caso, al ser la función impar, nos aseguramos de que su serie de Fourier ( es una serie de senos. g(t) si t ∈ [0, π] Entonces, sea g˜ la función 2π-periódica que satisface g˜(t) = . −g(−t) si t ∈ [−π, 0] 2.4 2.4 2.0 2.0 1.6 1.6 1.2 1.2 0.8 0.8 0.4 0.4 0.0 −5.0 −2.5 0.0 0.0 2.5 7.5 5.0 −0.4 10.0 12.5 −5.0 0.0 −2.5 −0.4 x −0.8 −0.8 −1.2 −1.2 −1.6 −1.6 −2.0 −2.0 −2.4 −2.4 (a) periódica, con período π 2.5 7.5 5.0 10.0 12.5 x (b) impar en (−π, π), extendida con período 2π Figura 1.3. Posibles extensiones de g(t) = t(π − t) Para hallar el desarrollo de Fourier de g˜ alcanza con calcular los coeficientes bk : Z Z Z 2 π 2 π 1 π g˜(t) sin(kt)dt = g˜(t) sin(kt)dt = g(t) sin(kt)dt bk = π −π π 0 π 0 Z Z π Z π 2 2 π t(π − t) sin(kt)dt = ( = πt sin(kt)dt − t2 sin(kt)dt) π 0 π 0 0 k 2 k k 2 2 (−1) π (−1) (−1) π 1 4 1 − (−1)k = (− −2 3 + + 2 3) = . π k k k k π k3 Por lo tanto, bk = 0 si k es par y bk = continua vale que g˜(t) = ∞ X j=0 8 πk3 si k es impar. Como g˜ es suave a trozos y 8 sin((2j + 1)t) ∀t ∈ [−π, π]. π(2j + 1)3 2. SERIES DE FOURIER (TRIGONOMÉTRICAS) 9 Notemos que, en la última expresión, reemplazamos la suma en k, donde las únicas contribuciones eventualmente no nulas correspondían a los k impares, por una suma en j, sustituyendo k por 2j + 1. De la última identidad, en particular, obtenemos ∞ X 8 t(π − t) = sin((2j + 1)t) ∀t ∈ [0, π], (1.14) 3 π(2j + 1) j=0 con la serie convergiendo uniformemente. Nota 1.19. En el Ejemplo 1.18 los coeficientes bk con k par son nulos. Esto está relacionado con el hecho de que g es “par” respecto del punto medio de [0, π], es decir, π2 . Ejercicio 1.20. Demostrar que la observación de la nota 1.19 es correcta y que se aplica a cualquier función g con la misma propiedad. Estudiar que ocurre si g es “impar” respecto del punto medio del intervalo. Por último, vamos a usar la serie de Fourier calculada en el Ejemplo 1.18 para terminar de construir la solución del problema (1.1). La separación de variables nos había llevado a proponer la forma (1.5) para la solución de (1.1). Resta determinar los valores de Ck para que u satisfaga la condición en el borde inferior de la región. Para ser más concretos vamos a poner la condición de contorno g(x) := x(π − x) allí, es decir, u(x, 0) = x(π − x). Usando (1.5) tenemos: ∞ X u(x, 0) = Ck sin(kx) sinh(−kπ) = x(π − x). k=1 Tomando en cuenta (1.14) esta última ecuación dice que ( 8 3 si k es impar πk Ck sinh(−kπ) = 0 si k es par, de donde, los valores de Ck no nulos son de la forma 8 −8 C2j+1 = = , 3 3 π(2j + 1) sinh(−(2j + 1)π) π(2j + 1) sinh((2j + 1)π) con lo que la solución propuesta es ∞ X −8 u(x, y) = sin((2j + 1)x) sinh((2j + 1)(y − π)). 3 π(2j + 1) sinh((2j + 1)π) j=0 (1.15) La Figura 4(a) muestra el gráfico de la función obtenida al truncar en el primer término la serie que define u. La misma Figura muestra el gráfico de la parábola correspondiente al valor en y = 0. La Figura 4(b) es similar pero incluye los dos primeros términos de la suma. En este caso no hay diferencia visible entre la aproximación y el valor dado en y = 0. La Figura 4(c) muestra el gráfico de la diferencia entre las dos aproximaciones anteriores (es decir, se grafica el término correspondiente a j = 1). Ahora bien, como mencionamos en la Sección 1, hay que verificar que (1.15) sea solución de la ecuación diferencial ya que, si bien cada sumando lo es, al haber una suma infinita, no es obvio que se puedan intercambiar sumas y derivadas. Para poder ver esto, comenzamos por recordar un resultado de Análisis I. Teorema 1.21. Sean sn : (a, b) → R una sucesión de funciones C 1 (a, b) que converge puntualmente a la función s. Si l´ımn→∞ s0n (x) existe uniformemente para todo x ∈ (a, b), entonces s es diferenciable en (a, b) y s0 (x) = l´ımn→∞ s0n (x) 10 1. SERIES DE FOURIER 2.5 2.5 2.0 2.0 1.5 1.5 1.0 1.0 0.5 0.5 3 0.0 0.0 0.5 1.0 1.5 1 2.0 x 2.5 3 0.0 0.0 2 y 0.5 1.0 1.5 0 3.0 1 2.0 x (a) N = 0 2.5 3.0 2 y 0 (b) N = 1 0.05 0.0 −0.05 3 0.0 0.5 2 1.0 1.5 2.0 x 2.5 1 3.0 0 y (c) diferencia Figura 1.4. Sumas parciales de la función u definida por (1.15) Demostración. Sea σ : (a, b) → R el límite uniforme de (s0n )n∈N . Por ser cada s0n continua en (a, b), su límite uniforme σ es una función continua en (a, b). Para x ∈ (a, b) y h tal que x + h ∈ (a, b), usando que el límite uniforme de funciones conmuta con la integral (en una región acotada) tenemos que Z x+h Z x+h Z x+h 0 l´ım sn (t)dt = l´ım s0n (t)dt σ(t)dt = x x n→∞ n→∞ x = l´ım (sn (x + h) − sn (x)) = s(x + h) − s(x). n→∞ Dividiendo por h 6= 0, tomando h → 0 y aplicando el Teorema Fundamental del Cálculo (usando que σ es continua en x), obtenemos que Z s(x + h) − s(x) 1 x+h l´ım = l´ım σ(t)dt = σ(x), h→0 h→0 h x h mostrado que s es derivable y que su derivada s0 es σ. Definimos sn (x, y) := n X j=0 π(2j + 1)3 −8 sin((2j + 1)x) sinh((2j + 1)(y − π)). sinh((2j + 1)π) (1.16) 2. SERIES DE FOURIER (TRIGONOMÉTRICAS) 11 Es claro que, siendo la suma finita, sn es C ∞ . Veamos que la convergencia es uniforme. Para esto vamos a ver que la sucesión es uniformemente de Cauchy23: es decir que las colas de la serie están uniformemente acotadas. Para y ∈ (0, π) fijo tenemos, para k = 2j + 1, 2k(y−π) sinh(k(y − π)) ek(y−π) − e−k(y−π) −1 ek(y−2π) − e−ky −ky e = = e = sinh(−kπ) e−kπ − ekπ e−2kπ − 1 e−2kπ − 1 (1.17) 2k(y−π) 1 − e = e−ky ≤ e−ky 1 − e−2kπ donde, en la desigualdad se usó que, si y ∈ (0, π), e2k(y−π) ≥ e−2kπ . Entonces, suponiendo que n ≥ m, |sn (x, y) − sm (x, y)| n X 8 = sin((2j + 1)x) sinh((2j + 1)(y − π)) 3 π(2j + 1) sinh(−(2j + 1)π) j=m+1 n X sinh((2j + 1)(y − π)) 8 ≤ |sin((2j + 1)x)| 3 π(2j + 1) sinh(−(2j + 1)π) j=m+1 n n ∞ X 8 X 1 j 8 X 1 j 8 −(2j+1)y e = y ≤ ( 2y ) ≤ y ( 2y ) . (1.18) π e π e e π e j=m+1 j=m+1 j=m+1 Siendo y > 0, esta última expresión es la cola de una serie geométrica convergente (e independiente de x), por lo que dicha cola puede ser hecha arbitrariamente pequeña, uniformemente en x, para n y m suficientemente grandes. Por lo tanto, lo mismo vale para las colas de las sn . Luego, sn (x, y) es uniformemente de Cauchy y, por la Proposición 1.51, ∂ converge uniformemente (para y fijo). Con argumentos similares se ve que ∂x sn (x, y) también converge uniformemente para y fijo. Por el Teorema 1.21 se puede intercambiar ∂ ∂2 con la sumatoria. Reiterando el razonamiento se puede ver que lo mismo vale para ∂x 2. ∂x ∂2 Razonamientos paralelos para x fijo permiten ver que ∂y2 también se puede intercambiar con la sumatoria. En conclusión, ∆ entra en la sumatoria y, siendo cada sumando una función armónica, se concluye que ∆u = 0 en (0, π) × (0, π). Ejercicio 1.22. Completar el razonamiento anterior para mostrar que ∆u(x, y) = l´ım ∆sn (x, y) = 0 n→∞ para todo (x, y) ∈ (0, π)×(0, π), donde u está definida por (1.15) y sn por (1.16). Sugerencia: para probar la convergencia uniforme para x fijo y como función de y puede resultar útil hacerlo en intervalos de la forma (y0 , π) con y0 ∈ (0, π) fijo. Si se prueba este resultado, 2 2 n (x,y) = l´ımn→∞ ∂ s∂y para cualquier (x, y) ∈ (0, π) × (0, π). es fácil deducir que ∂ u(x,y) 2 ∂y 2 Nota 1.23. Los Teoremas 1.13 y 1.15 permiten recuperar el valor en cada punto de una función continua a partir de su serie de Fourier, siempre que la función sea, además, suave a trozos. Esta última condición puede ser relajada si lo que se permite que la frase “a partir de su serie de Fourier” tome un sentido más amplio que el de pedir la convergencia puntual de la serie al valor de la función en cada punto. Por ejemplo, un resultado clásico dice que si sn es una sucesión que converge a s, entonces la sucesión cn := n1 (s1 + · · · + sn ) 2Ver la Sección 5 para más detalles sobre convergencia uniforme Cauchy (1789-1857): matemático francés recordado por sus variadas contribuciones al Análisis, siendo uno de los principales creadores del Análisis Complejo. Es autor de alrededor de 800 trabajos científicos. 3Augustin-Louis 12 1. SERIES DE FOURIER –conocida como suma Cesàro4 de sn – también converge a s. Lo interesante es que cn puede ser convergente aún en casos en que sn no lo es, como por ejemplo cuando sn := (−1)n , n en cuyo caso cn = − 1−(−1) tiende a 0. Si se aplica esta idea al caso en que sn es la suma 2n parcial de la serie de Fourier de f en t, es un resultado de L. Fejér5 que la sucesión cn asociada converge a 21 (f (t+ )+f (t− )) con la única hipótesis de que f sea continua a trozos. En particular, si f es continua, las sumas Cesàro de su serie de Fourier convergen al valor de la función en cada punto. 3. Series de Fourier (exponenciales) 3.1. Definiciones. Usando las expresiones eit + e−it eit − e−it y cos(t) = sin(t) = 2i 2 se puede reescribir una serie de Fourier (1.12) en términos de exponenciales complejas: ∞ ∞ X X eikt − e−ikt eikt + e−ikt 0t a0 + + bk ) (ak cos(kt) + bk sin(kt)) = a0 e + (ak 2 2i k=1 k=1 ∞ X ak − ibk ikt ak + ibk −ikt = a0 e + ( e + e ) 2 2 k=1 0t = ∞ X (1.19) ck eikt , k=−∞ donde ak −ibk si k>0 2 ck := a0 si k=0 a−k +ib−k si k < 0. 2 Notamos que los ck tienen una simetría: c−k = ck para todo k ∈ Z. Es claro que este proceso se puede revertir mostrando que hay una equivalencia entre las series de Fourier trigonométricas y exponenciales (que satisfacen la condición de simetría mencionada). Más en general, es posible obtener desarrollos exponenciales para funciones periódicas a valores complejos. En este caso no se verifica la propiedad c−k = ck . Un razonamiento análogo al (1.8) lleva a la siguiente definición. Definición 1.24. Si f : R → C es 2T -periódica se define su serie exponencial de Fourier como Z T ∞ X π 1 ik Tπ t ck e con ck := f (t)e−ik T t dt. (1.20) 2T −T k=−∞ Vale los siguientes resultados, análogos a los Teoremas 1.13 y 1.15 para series trigonométricas. Teorema 1.25. Si f : R → C es 2T -periódica y suave a trozos vale f (t+ ) + f (t− ) X ik π t = ck e T 2 k∈Z para todo t ∈ R. 4Ernesto Cesàro (1859-1906) fue un matemático italiano recordado por su trabajo en sumas de series divergentes y ciertas curvas. 5Lipót Fejér (1880-1959) matemático húngaro reconocido por su trabajo en análisis armónico. Dirigió a numerosos alumnos brillantes como, por ejemplo, a John von Neumann, Paul Erdõs y George Pólya. 3. SERIES DE FOURIER (EXPONENCIALES) 13 Teorema 1.26. Si f : R → C es 2T -periódica y suave a trozos, entonces la serie de Fourier de f converge a f uniformemente si y sólo si f es continua. Además, si f es continua, la convergencia de su serie de Fourier asociada es absoluta. Por último se tiene Teorema 1.27 (Igualdad de Parseval6). Si f : R → C es 2T -periódica y suave a trozos vale Z T X 1 |f (t)|2 dt = |ck |2 . (1.21) 2T −T k∈Z Demostración. Ver Sección 6.3. Corolario 1.28. Si f es real y satisface las condiciones del Teorema 1.27 entonces Z ∞ X X 1 T f (t)2 dt = 2 |ck |2 = 2a20 + (a2k + b2k ), T −T k∈Z k=1 donde ak y bk son los coeficientes de la serie de Fourier trigonométrica de f . 3.2. Diferenciación e integración término a término. Concluimos esta sección con algunos comentarios sobre la diferenciabilidad e integrabilidad término a término de las series de Fourier. Lema 1.29. Si f : R → C es 2T -periódica, suave a trozos y continua con X π ck eik T t , f∼ k∈Z entonces f0 ∼ π π ik ck eik T t T k∈Z X Demostración. Dado que f 0 es continua a trozos es posible partir al intervalo [−T, T ] = [t0 , t1 ] ∪ · · · ∪ [tK−1 , tK ] de modo que f 0 sea continua en cada intervalo (tj , tj+1 ). Entonces, denotando por c0k al k-ésimo coeficiente de Fourier de f 0 e integrando por partes, se tiene Z T K Z π 1 1 X tj 0 0 −ik Tπ t 0 f (t)e ck = dt = f (t)e−ik T t dt 2T −T 2T j=1 tj−1 tj Z tj K 1 X π −ik Tπ t −ik Tπ t f (t)e − = f (t)e (−ik )dt 2T j=1 T tj−1 tj−1 Z K 1 X π tj − −ik Tπ tj + −ik Tπ tj−1 −ik Tπ t f (tj )e f (t)e = − f (tj−1 )e + ik dt 2T j=1 T tj−1 K K Z π 1 X π 1 X tj − −ik Tπ tj + −ik Tπ tj−1 = (f (tj )e − f (tj−1 )e ) +ik f (t)e−ik T t dt . 2T j=1 T 2T j=1 tj−1 | {z } | {z } =A =B + f (tj ) = Ahora bien, tomando en cuenta que f es continua, vale que f (t− j ) = f (tj ), con lo que prácticamente todos los términos de A se cancelan dando A = f (T )e−ikπ − 6Marc-Antoine Parseval (1755-1836) fue un matemático francés, de quien poco se conoce. Es recordado por sus trabajos en ecuaciones diferenciales en derivadas parciales, muy especialmente por el Teorema 1.27. 14 1. SERIES DE FOURIER f (−T )e−ikπ = 0 por la periodicidad de f . Por otro lado, B = En conclusión, c0k = ik Tπ ck . 1 2T RT −T π f (t)e−ik T t dt = ck . Ejercicio y continua a trozos. Mostrar R x1.30. Sea f : R → C una función 2TR-periódica T que F (x) := 0 f (t)dt es 2T -periódica si y solo si −T f (t)dt = 0. R T Lema 1.31. Sea f : R → C una función 2T -periódica y continua a trozos tal que f (t)dt = 0, con −T X π f∼ ck eik T t . k∈Z−{0} Entonces, si F (x) = Rx f (t)dt, vale que T X F ∼ − iπ 0 k∈Z−{0} ck k X + k∈Z−{0} π T ck eik T t ikπ Demostración. Por ser F la integral de una función continua a trozos resulta ser continua y con F 0 = f continua a trozos. Entonces, aplicando el Lema 1.29 a F si X π F ∼ dk eik T t , k∈Z entonces f = F0 ∼ π π dk ik eik T t T k∈Z | {z } X =ck y, por lo tanto, T ck si k 6= 0. ikπ Por otro lado, siendo F continua (además de suave a trozos) y F (0) = 0 se tiene X X T π ck 0 = F (0) = dk eik T 0 = d0 + ikπ k∈Z dk = k∈Z−{0} de donde d0 = − T iπ X k∈Z−{0} ck . k Nota 1.32. Los Lemas 1.29 y 1.31 muestran que, bajo hipótesis adecuadas, las series asociadas a derivadas e integrales de funciones se obtienen derivando o integrando término a término la serie original. Cabe destacar, sin embargo, que las hipótesis de los Lemas deben ser satisfechas. Por ejemplo, si f (t) es la función 2π-periódica que vale t en [−π, π), se tiene X (−1)k+1 i f∼ eikt . k k∈Z−{0} Sin embargo, la serie obtenida derivando término a término esta última serie es X (−1)k eikt k∈Z−{0} k cuyos coeficientes ck = (−1) para k 6= 0 no son los coeficientes de Fourier de ninguna P función suave a trozos. Esto es así ya que si fuera g(t) ∼ k∈Z−{0} (−1)k eikt con g suave P a trozos, debiera ser 12 (g(0+ ) + g(0− )) = k∈Z−{0} (−1)k , pero el límite del lado izquierdo 4. INTERPRETACIÓN ALGEBRAICA 15 no existe. Más aún, tampoco puede ser la serie de Fourier de una función continua a trozos (o integrable), debido al Lema 1.36, que veremos más adelante. Es claro que no hay contradicción con el Lema 1.29 ya que f no es una función continua. Corolario 1.33. Sea f : R → R una función 2T -periódica y suave a trozos con ∞ X π π f ∼ a0 + (ak cos(k t) + bk sin(k t)). T T k=1 Entonces: 1. si f es continua vale que ∞ X π π π π 0 f ∼ − k ak sin(k t)) + k bk cos(k t) . T T T T k=1 Rx 2. si a0 = 0, para F (x) := 0 f (t)dt vale que ∞ ∞ T X bk X T π T π F ∼ + ak sin(k t) − bk cos(k t) π k=1 k kπ T kπ T k=1 Ejercicio 1.34. Demostrar el Corolario 1.33 usando los Lemas 1.29 y 1.31. 4. Interpretación Algebraica La igualdad de Parseval (Teorema 1.27) nos da la siguiente idea. La expresión del RT 1 lado izquierdo, 2T |f (t)|2 dt, es una medida del tamaño de f . En álgebra lineal una −T manera de introducir longitudes es a través de un producto interno y su norma asociada. Consideremos el conjunto de las funciones 2T -periódicas a valores complejos cuyo módulo al cuadrado sea integrable (conjunto que contiene a las funciones sean continuas a trozos). Este conjunto es un C-espacio vectorial con el “producto interno” Z T 1 hf, gi := f (t)g(t)dt. (1.22) 2T −T cuya norma asociada es Z T 1 2 kf k = hf, f i = |f (t)|2 dt. 2T −T Nota 1.35. La operación (1.22) no define realmente un producto interno sobre el espacio que estamos considerando. El problema es que hay funciones no nulas que tienen norma 0. RPor ejemplo, si f (t) := 1 para t entero y 0 en todo otro caso, tiene norma 1 kf k2 = 21 −1 |f (t)|2 dt = 0 ya que f se anula en todos los puntos del intervalo salvo en 3. Este problema parece solucionarse si uno identifica dos funciones que difieren en un número finito de puntos (ya que una integral no puede distinguir entre tales funciones). La solución correcta es un poco más sutil y pasa por identificar funciones que difieren solamente en conjuntos de medida nula, noción esta que no profundizaremos. En conclusión, para tener un auténtico producto interno, los elementos del espacio vectorial tienen que ser clases de funciones (cada clase consiste de funciones que difieren en conjuntos de medida nula). En lo que sigue trabajaremos en estas condiciones sin mencionarlo explícitamente. π Con este producto interno, ¿qué propiedades tienen las funciones eik T t ? Calculemos: Z T Z T ik π t ij π t π π π 1 1 −ik t ij t e T ,e T = e T e T dt = ei(j−k) T t dt = δj,k . 2T −T 2T −T 16 1. SERIES DE FOURIER π Es decir que las funciones eik T t forman un conjunto ortonormal para el producto interno (1.22). Por claridad, llamaremos π φk (t) := eik T t . ¿Qué podemos decir de los coeficientes de Fourier de f ? 1 ck = 2T T Z π f (t)e−ik T t dt = hφk , f i . −T Es decir que, si el conjunto {φk }k∈Z fuese una base ortonormal de nuestro espacio, los coeficientes de Fourier de f serían las coordenadas de f con respecto a esa base y, entonces, la serie de Fourier de f sería la manera de escribir a f como combinación lineal de los elementos de la base. Sin embargo, el conjunto {φk }k∈Z no es una base de nuestro espacio vectorial. La razón es simple: una base de un espacio vectorial cualquiera tiene que generar, es decir que todo elemento del espacio vectorial tiene que ser una combinación lineal finita de elementos de la base. Esto no ocurre para el conjunto {φk }k∈Z . A fin de poder considerar combinaciones lineales infinitas se introduce la noción de espacio de Hilbert, que es una variación de la noción de espacio vectorial con producto interno7. Entonces, lo que se puede ver es que {φk }k∈Z es una base del espacio de Hilbert considerado (tales cosas, a veces, son llamadas bases de Hilbert). Supongamos ahora que {ψk }k∈Z es un conjunto ortonormal en un espacio vectorial con producto interno. SiP f es una función cualquiera del espacio, cabe preguntarse cuál es la α ψk (con αk ∈ C y K fijo) que aproxima mejor a f , en el combinación lineal K k=−K kP 2 K sentido de que “el error” f − k=−K αk ψk sea mínimo. Tenemos 2 * + K K K X X X αk ψk = f − αk ψk , f − αj ψj f − k=−K j=−K k=−K = hf, f i − 2 = kf k − K X = kf k − hαk ψk , f i + k=−K k,j=−K K X K X K X K X k=−K = kf k2 − K X j=−K j=−K 2 hf, αj ψj i − K X K X αj hf, ψj i − αk hψk , f i + k=−K (αk hf, ψk i + αk hψk , f i) + hαk ψk , αj ψj i αj αk hψk , ψj i k,j=−K K X αj αk δj,k k,j=−K (αk hf, ψk i + αk hψk , f i − |αk |2 ) k=−K 7Si (H, h·, ·i) es un espacio vectorial con producto interno se dice que una sucesión (hn )n∈N en H es 2 convergente si existe h ∈ H tal que l´ımn→∞ khn − hk = 0 (donde kvk := hv, vi). De modo similar al caso de sucesiones en R o C, se dice que la sucesión (hn )n∈N en H es de Cauchy si, para cada > 0 existe N ∈ N tal que khn − hm k < si n, m ≥ N . Se dice que (H, h·, ·i) es un espacio de Hilbert cuando toda sucesión de Cauchy es convergente. Por ejemplo, (R, |·|) es un espacio de Hilbert. 4. INTERPRETACIÓN ALGEBRAICA 17 P 2 Sumando y restando K k=−K |hψk , f i| al lado derecho obtenemos 2 K K X X 2 αk ψk = kf k − |hψk , f i|2 f − k=−K k=−K + K X (|hψk , f i|2 − αk hf, ψk i − αk hψk , f i + |αk |2 ) (1.23) k=−K 2 = kf k − K X 2 |hψk , f i| + k=−K K X |αk − hψk , f i|2 . k=−K P 2 Ahora bien, esta última expresión tiene una primera parte, kf k2 − K k=−K |hψk , f i| , que PK es independiente de los αk , mientras que la segunda, k=−K |αk − hψk , f i|2 , dependiente 2 P de los αk , es positiva. De aquí que el mínimo de f − K α ψ k=−K k k ocurre precisamente cuando esta segunda parte se anula, es decir, cuando vale αk = hψk , f i para −K ≤ k ≤ K. En otras palabras, la combinación lineal de ψ−K , . . . , ψK que minimiza su distancia a f es aquella que tiene por coeficientes αk a los “coeficientes de Fourier” de f respecto de las ψk . Para esta elección de coeficientes, de (1.23) sale que 2 K K X X 2 |hψk , f i|2 (1.24) hψk , f i ψk = kf k − 0 ≤ f − k=−K k=−K y, por tanto, K X |hψk , f i|2 ≤ kf k2 . k=−K Como en la última desigualdad el lado derecho es independiente de K, se puede tomar el límite K → +∞ para obtener la desigualdad ∞ X |hψk , f i|2 ≤ kf k2 , (1.25) k=−∞ conocida como desigualdad de Parseval y que vale para cualquier conjunto ortonormal observación elemental es que, siendo la serie de términos positivos P∞ {ψk }k∈Z . Una 2 k=−∞ |hψk , f i| acotada, resulta convergente y, por tanto, su término general tiende a 0: l´ım hψk , f i = 0. (1.26) k→±∞ Este último resultado es conocido como Lema de Riemann–Lebesgue que enunciamos π explícitamente en el caso ψk (t) = φk (t) = eik T t . Lema 1.36 (Riemann-Lebesgue). Si f es una función continua a trozos en [−T, T ], entonces Z T π 1 l´ım hφk , f i = l´ım f (t)e−ik T t dt = 0. k→±∞ k→±∞ 2T −T Si, en particular, f es una función real, Z T Z T 1 π 1 π l´ım f (t) sin(k t)dt = 0 y l´ım f (t) cos(k t)dt = 0. k→∞ 2T −T k→∞ 2T −T T T 18 1. SERIES DE FOURIER ¿Qué nos dice la igualdad de Parseval (Teorema 1.27)? Esencialmente es una versión sofisticada del Teorema de Pitágoras! El cuadrado de la longitud de un vector (el lado izquierdo de la igualdad) es igual a la suma de los módulos cuadrados de sus componentes (los “catetos al cuadrado”, el lado derecho). También dice que para el sistema ortogonal π φk (t) := eik T t con k ∈ Z, la desigualdad de Parseval (1.25) se convierte en una igualdad (1.21) que, reescrita usando la notación del producto interno, queda ∞ X |hφk , f i|2 = kf k2 (1.27) k=−∞ Los sistemas ortogonales que tienen esta última propiedad para toda f son llamados completos y coinciden con las bases de Hilbert. Nota 1.37. Nada hemos dicho sobre el tipo de funciones que estamos considerando, más allá de ser periódicas. Uno puede considerar funciones “buenas”, como ser funciones continuas. Sin embargo se ve que para que el espacio tenga las buenas propiedades necesarias para ser un espacio de Hilbert es necesario agregar otras funciones (de modo que el conjunto sea completo). El resultado es que se toma el conjunto de todas las funciones f : [−T, T ] → C cuyo cuadrado es integrable. Por ejemplo, f (t) := |t|−1/4 es una tal función (que no es continua a trozos). ¿En qué sentido es una función f una combinación lineal de los elementos de la base del espacio de Hilbert {φk }k∈Z ? En un espacio de Hilbert se dice que f es el límite de la sucesión fn si l´ımn→∞ kf − fn k2 = 0, donde las P barras verticales denotan la norma asociada al producto interno. En particular, la serie ∞ k=−∞ ck φk converge a la función f si vale 2 2 Z T K K X X 1 ck φk (t) = l´ım l´ım f − ck φk (t) dt = 0. (1.28) f (t) − K→∞ 2T −T K→∞ k=−K k=−K Se suele decir en este caso que la serie converge a f en media cuadrática o en norma 2, en ambos casos en alusión al cuadrado que aparece en la integral. Esta manera de converger es muy natural y útil. De algún modo mide el “área entre los gráficos” de las funciones y la convergencia asegura que esta tiende a 0. No da información sobre el comportamiento en cada punto, sino sobre conjuntos de “medida positiva”. Reformulamos esta última discusión en el siguiente resultado. Teorema 1.38. Sea f : [−T, T ] → C una función de cuadrado integrable (por ejemplo, es continua a trozos). La serie de Fourier de f converge a f en media cuadrática. Es decir, vale (1.28). Demostración. El Teorema 2 en la página 119 de [5] provee una demostración para series trigonométricas. En resumen, la familia de funciones {φk }k∈Z es una base del espacio de Hilbert de funciones 2T -periódicas y las series de Fourier no son otra cosa que la expansión de los vectores respecto de esta base. Nota 1.39. El lector puede ya estar familiarizado con distintas nociones de convergencia, como ser la convergencia puntual o la convergencia uniforme. En esta sección hemos introducido una nueva noción de convergencia: la convergencia en media cuadrática. La sucesión (fn )n∈N converge a f en media cuadrática en [a, b] si Z b l´ım |f (t) − fn (t)|2 dt = 0. n→∞ a 4. INTERPRETACIÓN ALGEBRAICA 19 Por ejemplo, la sucesión fn (t) = tn converge a la función nula en media cuadrática en [0, 1]: Z 1 Z 1 1 1 1 n→∞ n 2 t2n dt = |t − 0| dt = t2n+1 0 = −−−→ 0. 2n + 1 2n + 1 0 0 Es interesante notar que las funciones fn (x) no convergen puntualmente a la función nula ya que fn (1) = 1 para todo n. Dado que las fn no convergen puntualmente a la función nula, tampoco lo hacen uniformemente. No es difícil ver que la convergencia uniforme en un intervalo [a, b] con a y b finitos implica la convergencia en media cuadrática. Esto no es cierto si se reemplaza la convergencia uniforme por convergencia puntual. Dado que la noción de convergencia en media cuadrática se basa en el cálculo de integrales y el valor de las integrales no se altera si se modifica a las funciones (por ejemplo a la función límite) en un número finito de puntos (o en un conjunto de medida nula), se ve que el límite de una sucesión convergente en media cuadrática no es único: por ejemplo, la sucesión fn (t) = tn converge en media cuadrática a la función nula, pero también lo hace hacia la función que es nula para t < 1 y que vale 1 en t = 1. El límite pasa a ser único cuando se piensa en clases de equivalencia de funciones, donde dos funciones son equivalentes si y solo si difieren en un conjunto de medida nula, en el sentido ya discutido en la Nota 1.35. Ejercicio 1.40. En el contexto de las funciones continuas a trozos en el intervalo [a, b] (con a y b finitos), 1. probar que si una sucesión (fn )n∈N converge uniformemente a f , entonces también lo hace puntualmente y en media cuadrática. 2. Probar que la convergencia puntual a una función no implica la convergencia uniforme ni en media cuadrática a dicha función. 3. Probar que la convergencia en media cuadrática a una función no implica la convergencia puntual ni la convergencia uniforme a dicha función. p u Demostración. Si fn → − f , de la definición misma sale que fn → − f . Veamos que si u L2 − f entonces fn −→ f . Dado > 0, sea N ∈ N tal que |fn (x) − f (x)| < para todo fn → x ∈ [a, b] si n ≥ N . Entonces, si n ≥ N , Z b 1 2 kfn − f k = |fn (x) − f (x)|2 dx < 2 , {z } b−a a | <2 L2 es decir que kfn − f k < . En conclusión, kfn − f k → 0 y, por tanto, fn −→ f . Esto prueba el punto 1. Para cada n ∈ N sea fn : [0, 1] → R definida por √ 1 2 si x ∈ [0, 2n ], q4n x 1 1 1 f (x) := −4n2 (x − 2n ) si x ∈ [ 2n , n] 0 si x ∈ [ 1 , 1]. n Es inmediato que fn es continua. Si x ∈ (0, 1], para n suficientemente grande se tiene que 1 < x, por lo que, para tales n, fn (x) = 0. Por otro lado, fn (0) = 0 para todo n. En n p conclusión, fn → − 0. El cálculo directo muestra que Z 1 Z 1 2n 2 2 kfn − 0k = |fn (x)| dx = 2 4n2 xdx = 1 para todo n 0 0 20 1. SERIES DE FOURIER por lo que kfn k = 1 y no puede tender a 0. Por tanto, fn no tiende 0 en media cuadrática. En consecuencia, fn tampoco converge a 0 uniformemente ya que, si lo hiciera, por el punto 1, también debiera converger a 0 en media cuadrática. Esto muestra el punto 2. Definimos ahora fn ∈ C 0 ([0, 1]) mediante fn (x) := xn . Como ya se vio en la Nota 1.39 esta sucesión converge en media cuadrática a la función nula. Sin embargo, no lo hace puntualmente ya que fn (1) = 1 6= 0 para todo n. No convergiendo puntualmente a 0, por el punto 1, tampoco converge uniformemente a 0, mostrando la validez del punto 3. 5. Apéndice - Convergencia de sucesiones En este breve apéndice repasamos las nociones básicas de convergencia puntual y convergencia uniforme de funciones. Definición 1.41. Sea (xn )n∈N una sucesión de números reales y x ∈ R. Se dice que (xn )n∈N converge a x si, para todo > 0, existe N ∈ N tal que |x − xn | < si n ≥ N . En este caso se escribe xn → x. Definición 1.42. Sea (xn )n∈N una sucesión de números reales. Se dice que (xn )n∈N es una sucesión de Cauchy si, para todo > 0, existe N ∈ N tal que |xn − xm | < si n, m ≥ N . Proposición 1.43. Sea (xn )n∈N una sucesión de Cauchy de números reales. Entonces (xn )n∈N es convergente si y sólo si es de Cauchy. En lo que sigue nos referiremos a sucesiones de funciones (fn )n∈N en X. Esto quiere decir que para cada n ∈ N, fn : X → R es una función, donde X es un intervalo fijo en R (puede ser abierto, cerrado, acotado, etc.). Definición 1.44. Sea (fn )n∈N una sucesión de funciones en X y f : X → R. Se dice que (fn )n∈N converge puntualmente a f si, para todo > 0 y para cada x ∈ X, existe p N ∈ N tal que |f (x) − fn (x)| < si n ≥ N . En este caso, se escribe fn → − f . Cabe destacar que el N aludido en esta definición depende tanto de como de x. Definición 1.45. Sea (fn )n∈N una sucesión de funciones en X. Se dice que (fn )n∈N es puntualmente de Cauchy si, para cada x ∈ X, la sucesión de números reales (fn (x))n∈N es una sucesión de Cauchy. Corolario 1.46. Sea (fn )n∈N una sucesión de funciones en X. Entonces (fn )n∈N es puntualmente convergente si y sólo si es puntualmente de Cauchy. p Proposición 1.47. Sean fn , f : [a, b] → C funciones tales que fn → − f y sea φ : C → C p una función continua. Entonces, φ ◦ fn → − φ ◦ f en [a, b]. Demostración. Fijemos x ∈ [a, b] y sea > 0. Por la continuidad de φ en f (x), p existe δ > 0 tal que |φ(y) − φ(f (x))| < si |y − f (x)| < δ. Como fn → − f , vale que fn (x) → f (x), por lo que existe N ∈ N tal que |fn (x) − f (x)| < δ si n ≥ N . Por lo tanto, si n ≥ N tenemos que |fn (x) − f (x)| < δ y, por tanto, |φ(fn (x)) − φ(f (x))| < . Como p era arbitrario, esto muestra que φ ◦ fn → − φ ◦ f en [a, b]. Definición 1.48. Sea (fn )n∈N una sucesión de funciones en X y f : X → R. Se dice que (fn )n∈N converge uniformemente a f si, para todo > 0, existe N ∈ N tal que u |f (x) − fn (x)| < para todo x ∈ X si n ≥ N . En este caso, se escribe fn → − f . Cabe destacar que el N aludido en esta definición depende sólo de . 5. APÉNDICE - CONVERGENCIA DE SUCESIONES 21 Definición 1.49. Sea (fn )n∈N una sucesión de funciones en X. Se dice que (fn )n∈N es uniformemente de Cauchy si, para todo > 0 existe N ∈ N tal que |fn (x) − fm (x)| < para todo x ∈ X si n, m ≥ N . Nota 1.50. La convergencia uniforme de una sucesión implica la convergencia puntual de la sucesión (con el mismo límite). Toda sucesión uniformemente de Cauchy es puntualmente de Cauchy. Proposición 1.51. Sea (fn )n∈N una sucesión de funciones en X. Entonces (fn )n∈N es uniformemente convergente si y sólo si es uniformemente de Cauchy. Demostración. Si (fn )n∈N es uniformemente convergente, sea f : X → R tal que u u fn → − f . Dado > 0, por ser fn → − f existe N ∈ N tal que |f (x) − fn (x)| < 2 para todo x ∈ X si n ≥ N . Entonces, si n, m ≥ N y x ∈ X |fn (x) − fm (x)| = |fn (x) − f (x) + f (x) − fm (x)| ≤ |fn (x) − f (x)| + |f (x) − fm (x)| < + = , 2 2 por lo que (fn )n∈N es uniformemente de Cauchy. Supongamos ahora que (fn )n∈N es uniformemente de Cauchy. Notemos que entonces p (fn )n∈N es puntualmente de Cauchy y, por tanto, fn → − f para alguna f : X → R. Por otro lado, dado > 0, existe N ∈ N tal que |fn (x) − fm (x)| < 2 para todo x ∈ X si n, m ≥ N . Pero entonces, para cada x ∈ X, tomando m → ∞ obtenemos |fn (x) − f (x)| ≤ 2 < u − f. (para todo x ∈ X si n ≥ N ). Por lo tanto fn → Es interesante estudiar condiciones que permitan transformar una sucesión que converge uniformemente en otra que también lo haga. u Ejercicio 1.52. Sean fn , f : [a, b] → C funciones continuas tales que fn → − f . Probar que existe M > 0 tal que, para todo x ∈ [a, b], |f (x)| ≤ M y |fn (x)| ≤ M , para todo n ∈ N (la misma constante M en todos los casos). Ejercicio 1.53. Sean fn , f : [a, b] → C funciones tales que (fn )n∈N no converge uniformemente a f . Probar que existen > 0 y sucesiones (nj )j∈N de números naturales y (xj )j∈N en [a, b] tales que fn (xj ) − f (xj ) ≥ para todo j ∈ N. (1.29) j u Proposición 1.54. Sean fn , f : [a, b] → C funciones continuas tales que fn → − f y u sea φ : C → C una función continua. Entonces, φ ◦ fn → − φ ◦ f en [a, b]. u Demostración. Supongamos que no fuera cierto que φ ◦ fn → − φ ◦ f . En este caso, por el Ejercicio 1.53 existen > 0, una sucesión (nj )j∈N de números naturales y otra (xj )j∈N contenida en [a, b] tales que φ(fn (xj )) − φ(f (xj )) ≥ para todo j ∈ N. (1.30) j Siendo (xj )j∈N una sucesión en el intervalo cerrado y acotado [a, b], tiene una subsucesión convergente (xjk )k∈N que converge a x ∈ [a, b]. u u Ahora notemos que, por ser fn → − f , en particular fnjk → − f y, entonces, dado 0 > 0, existe K ∈ N tal que fnjk (x0 ) − f (x0 ) < 0 para todo x0 ∈ [a, b] si k ≥ K. En particular, como xjk ∈ [a, b], vale que fnjk (xjk ) − f (xjk ) < 0 para todo k ≥ K. Esto muestra que fnjk (xjk ) − f (xjk ) → 0. Por otro lado, siendo f continua y xjk → x, tenemos que 22 1. SERIES DE FOURIER f (xjk ) → f (x). Juntando ambos resultados obtenemos que fnjk (xjk ) → f (x). Usando ahora la continuidad de φ, vemos que φ(fnjk (xjk )) → φ(f (x)) y que φ(f (xjk )) → φ(f (x)), por lo que φ(fnjk (xjk )) − φ(f (xjk )) → 0. Sin embargo, esto no es compatible con (1.30). u La contradicción muestra que φ ◦ fn → − φ ◦ f. u Ejemplo 1.55. Sean fn , f : [a, b] → C funciones continuas tales que fn → − f . Entonces, u 2 siendo z 7→ |z| una función continua, por la Proposición 1.54, vale que |fn |2 → − |f |2 . 6. Apéndice - Teoremas de convergencia de la serie de Fourier En esta Sección daremos una demostración de los Teoremas 1.13 y 1.15, en el caso de funciones de período 2π, siendo el caso de período 2T fácilmente deducible de éste. 6.1. Convergencia puntual. Comenzaremos haciendo algunos cálculos auxiliares. Usando la fórmula de la suma para una suma geométrica se tiene n X n n n X X X e−inu − 1 einu − 1 iku −iku iku 2 cos(ku) = + e−iu −iu (e + e )= e + e−iku = eiu iu e −1 e −1 k=1 k=1 k=1 k=1 1 u 1 u einu − 1 e−inu − 1 ei(n+ 2 )u − ei 2 − e−i(n+ 2 )u + e−i 2 −i u 2 = e iu u + e u = u u u e 2 − e−i 2 e−i 2 − ei 2 ei 2 − e−i 2 1 1 sin((n + 12 )u) ei(n+ 2 )u − e−i(n+ 2 )u = −1 + = −1 + u u sin( u2 ) ei 2 − e−i 2 iu 2 de donde se concluye que, siempre que sin( u2 ) 6= 0, n sin((n + 12 )u) 1 X cos(ku) = , + 2 k=1 2 sin( u2 ) (1.31) conocida como fórmula de Lagrange. P∞ Si f ∼ a0 + k=1 (ak cos(kx) + bk sin(kx)), entonces su n-ésima suma parcial es Sn (x) := a0 + n X (ak cos(kx) + bk sin(kx)) k=1 Z π Z Z n X 1 1 π 1 π = ( f (t)dt + f (t) cos(kt)dt cos(kx) + f (t) sin(kt)dt sin(kx)) 2π −π π −π π −π k=1 Z n 1 π 1 X = f (t)( + (cos(kt) cos(kx) + sin(kt) sin(kx)))dt π −π 2 k=1 Z n 1 π 1 X = f (t)( + cos(k(t − x)))dt π −π 2 k=1 que, usando (1.31), se convierte en sin((n + 12 )(t − x)) f (t) dt 2 sin( t−x ) −π 2 1 Sn (x) = π Z π 1 Sn (x) = π Z π o, definiendo z = t − x, f (z + x) −π sin((n + 12 )z) dz. 2 sin( z2 ) 6. APÉNDICE - TEOREMAS DE CONVERGENCIA DE LA SERIE DE FOURIER 23 Se define el Núcleo de Dirichlet como Dn (z) := 1 sin((n + 12 )z) . 2π sin( z2 ) Integrando (1.31) se obtiene Z π Dn (z)dz = 1 n ∈ N. para todo −π De lo anterior se deduce la fórmula Z Z π f (z + x)Dn (z)dz − Sn (x) − A = π Z −π −π π (f (z + x) − A)Dn (z)dz (1.32) ADn (z)dz = −π para cualquier A ∈ R. Demostración del Teorema 1.13. Sea A := f (x+ )+f (x− ) . 2 Por (1.32) se tiene Z π f (x+ ) + f (x− ) f (x+ ) + f (x− ) = f (z + x) − Dn (z)dz Sn − 2 2 −π Z 0 Z 0 Z 0 f (x+ ) f (x− ) − = f (z + x) − f (x ) Dn (z)dz − Dn (z)dz + Dn (z)dz 2 2 −π −π −π Z π Z π Z π f (x− ) f (x+ ) + + f (z + x) − f (x ) Dn (z)dz − Dn (z)dz + Dn (z)dz 2 2 0 0 0 Z 0 Z π − = f (z + x) − f (x ) Dn (z)dz + f (z + x) − f (x+ ) Dn (z)dz {z } {z } |0 | −π I1 I2 donde, en la última igualdad, las 4 integrales se cancelan usando la sustitución y = −z. A continuación analizamos la integral I1 , siendo el tratamiento de I2 enteramente análogo. Sea ( f (x+z)−f (x− ) z si z<0 z sin( z2 ) f˜(z) := 0 si z ≥ 0. Veamos que f˜ es continua a trozos en [−π, π]. Si z > 0 no hay nada que decir, mientras que si z < 0 dicha propiedad se deduce de la continuidad a trozos de f ya que sin(z z ) es 2 continua allí. Queda por analizar el comportamiento en z = 0. Nuevamente, por derecha el límite es 0. Por izquierda, f (x + z) − f (x− ) l´ım− = f 0 (x− ) z→0 z es la derivada por izquierda en x, que existe por hipótesis. Se concluye que f˜ es continua a trozos en [−π, π]. 24 1. SERIES DE FOURIER Volviendo a I1 , Z 0 f (z + x) − f (x− ) Dn (z)dz I1 = −π Z 0 1 f (z + x) − f (x− ) z 1 = z sin((n + )z)dz 2π −π z sin( 2 ) 2 Z π 1 1 = f˜(z) sin((n + )z)dz 2π −π 2 Z π 1 1 1 = f˜(z)(sin(nz) cos( z) + cos(nz) sin( z))dz 2π −π 2 2 Z π Z π 1 1 1 1 = f˜(z) cos( z) sin(nz)dz + f˜(z) sin( z) cos(nz)dz. 2π −π 2 2π −π 2 Dado que f˜(z) cos( 21 z) y f˜(z) sin( 12 z) son continuas a trozos en [−π, π] se concluye del Lema 1.36 que l´ımn→+∞ I1 = 0. De modo análogo se ve que l´ımn→+∞ I2 = 0, con lo que se concluye que f (x+ ) + f (x− ) = 0, l´ım Sn − n→+∞ 2 es decir que el límite de las sumas parciales de la serie de Fourier de f en x es tal como se quería demostrar. f (x+ )+f (x− ) , 2 6.2. Convergencia uniforme. Ahora estudiaremos condiciones para la convergencia uniforme de la serie de Fourier asociada a una función en [−π, π]. Demostración del Teorema 1.15. Sea ∞ X f ∼ a0 + (an cos(nt) + bn sin(nt)). n=1 P Para demostrar la convergencia uniforme de la serie a0 + P∞ n=1 (an cos(nt)+bn sin(nt)) para t ∈ [−π, π] alcanza con demostrar que la serie numérica ∞ n=1 (|an | + |bn |) es convergente ya que esta última serie acota superiormente el valor absoluto de la serie original de funciones (omitiendo el término a0 que no altera P∞ la convergencia ni uniformidad ya que es constante). EsPclaro que laP convergencia de n=1 (|an | + |bn |) se reduce a la convergencia ∞ de las series ∞ |a | y n n=1 |bn |. A continuación estudiaremos la convergencia de la n=1 primera de estas series, siendo el caso de la segunda totalmente análogo. Por el Corolario 1.33 se tiene que si ∞ X f0 ∼ (a0n cos(nt) + b0n sin(nt)) n=1 entonces b0n = −nan con lo que K X 1 1 K X K K X 1 0 1 2 X 0 2 2 |an | = |b | ≤ |bn | n n n2 n=1 n=1 n=1 n=1 donde la última desigualdad es la de Cauchy-Schwarz en RK . Siendo f suave a trozos, f 0 es continua a trozos y, por la desigualdad de Parseval (1.25) aplicada a f 0 , se tiene Z K K X X 1 π 0 2 0 2 0 2 0 2 |f (t)| dt < ∞ |bn | ≤ (|an | + |bn | ) ≤ π −π n=1 n=1 6. APÉNDICE - TEOREMAS DE CONVERGENCIA DE LA SERIE DE FOURIER Por lo tanto K X n=1 |an | ≤ X K n=1 1 n2 12 X K |b0n |2 21 ≤ X ∞ n=1 n=1 1 n2 12 X ∞ |b0n |2 25 12 <∞ n=1 P∞ con lo que la serie de términos positivos n=1 |an | es acotada y, por lo tanto, convergente. P El análisis de la serie ∞ |b | es similar. Esto termina la demostración de que la serie de n n=1 f converge uniformemente. Más aún, dado que se han tomado valores absolutos en todo momento, esto también demuestra que la serie converge absolutamente. La recíproca, es decir que si la serie de Fourier converge uniformemente f resulta continua, es un resultado general puesto que las sumas parciales de la serie de Fourier son funciones continuas y el límite uniforme de funciones continuas en siempre una función continua. 6.3. Igualdad de Parseval. Por último, daremos una demostración de la igualdad de Parseval. La versión del Teorema 1.56 requiere más hipótesis que las formulaciones habituales pero, a cambio, tiene una demostración elemental. La versión del Teorema 1.57 requiere menos hipótesis pero referimos a la bibliografía para su demostración. Teorema 1.56. Sea f : R → C una función 2T -periódica, suave a trozos y continua. Entonces Z T X 1 |ck |2 . (1.33) |f (t)|2 dt = 2T −T k∈Z Demostración. Por PKser f continua πy suave a trozos, por el Teorema 1.26, la serie de Fourier de f , sK (f ) = k=−K ck exp(ik T t), converge uniformemente a f , en particular, u en [−T, T ]. En vista del Ejemplo 1.55 tenemos que |sK (f )|2 → − |f |2 en [−T, T ]. Siendo [−T, T ] un intervalo cerrado y acotado, por esta última convergencia uniforme tenemos que Z T Z T 1 1 2 |sK (f )| (t)dt → |f |2 (t)dt. 2T −T 2T −T Por otro lado, expandiendo |sK (f )|2 (t) Z T Z T X K π π 1 1 2 |sK (f )| (t)dt = ca cb eia T t e−ib T t dt 2T −T 2T −T a,b=−K K X 1 = ca cb 2T a,b=−K | Z T −T ia Tπ t −ib Tπ t ca cb e {z δa,b La fórmula (1.33) se obtiene de los dos cálculos anteriores. e K X dt = |ca |2 . } a=−K Teorema 1.57. Sea f : [−T, T ] → C una función de cuadrado integrable. Entonces vale (1.33). Demostración. Ver [5]. En la página 54 se define un sistema completo como un sistema ortonormal de funciones que satisface (1.33). Luego, en la Sección 2 del Capítulo 5 se prueba la completitud del sistema trigonométrico (de donde es inmediata la del sistema exponencial). Corolario 1.58. Sea f : R → C una función 2L periódica de P tipo C r para r ≥ 1 con P ik Tπ t f ∼ k∈Z ck e . Entonces sus coeficientes de Fourier satisfacen k∈Z k 2r |ck |2 < ∞. 26 1. SERIES DE FOURIER Demostración. Siendo f ∈ C r , es posible aplicar el Lema 1.29 reiteradamente mientras f (a) sea C 1 . De este modo obtenemos X π r π (r) f ∼ ik ck eik T t . T k∈Z Aplicando ahora el Teorema 1.57 a la función continua (y, por tanto, integrable) f (r) , obtenemos que X π r 2 π 2r X ck = k 2r |ck |2 , ∞> ik T T k∈Z k∈Z de donde se desprende el enunciado. 2 Funciones Especiales 1. Algunas funciones especiales Mirando las secciones anteriores cabe preguntarse si la teoría de Fourier está esencialmente unida a las funciones seno y coseno, o la exponencial, o si habrá otras funciones que permiten desarrollar teorías similares. La respuesta a esto es que, si bien hay partes de la teoría que son específicas de estas funciones, una buena parte de la misma se extiende en otras direcciones. Una dirección que no exploraremos aquí es la de reemplazar el dominio básico, el intervalo [−T, T ] (o más precisamente el círculo S 1 que corresponde a identificar los extremos del intervalo), por otras regiones en dimensiones más altas. En cambio, volveremos al comienzo para recordar que las funciones trigonométricas (o la exponencial) aparecieron como soluciones de una cierta ecuación diferencial ordinaria (ver (1.3)). Antes de continuar, cabe mencionar que en esta sección nos limitaremos a considerar problemas sobre R. Valen propiedades análogas sobre C, agregando algunas barras de conjugación en lugares convenientes. Se sugiere el Capítulo 7 de [6] como referencia para esta sección y la siguiente. La ecuación (1.3) puede ser reescrita como X 00 (x) = λX(x) con X(0) = X(π) = 0 lo que permite reinterpretarla como que X es una autofunción de autovalor λ del operador L(u) := u00 , definido sobre el espacio de funciones (digamos C ∞ ) con u(0) = u(π) = 0. Este enfoque lleva directamente a una idea de como generalizar la teoría: dada una ecuación diferencial lineal y homogénea, se la puede interpretar como buscar el núcleo de un operador lineal entre ciertos espacios vectoriales (que toman en cuenta los valores de contorno de la ecuación dada). Entonces las autofunciones del operador proveen una base (de Hilbert) del espacio vectorial considerado. Más aún, las soluciones de las versiones homogéneas e inhomogéneas de la ecuación diferencial dada pueden escribirse como combinación lineal de esta base de autofunciones. Lo expuesto en el párrafo anterior es cierto si la ecuación dada satisface algunas condiciones, como veremos más abajo. Vamos a mencionar algunas propiedades de los operadores lineales de la forma L(u) := Au00 + Bu0 + Cu con u ∈ C 2 ([a, b]). (2.1) con A, B, C funciones reales con A ∈ C 1 ([a, b]) nunca nula y B, C ∈ C 0 ([a, b]). Ejercicio 2.1. 1. Un operador diferencial lineal de segundo orden se dice (for˜ malmente) autoadjunto si es de la forma L(u) := (pu0 )0 + qu con p, q funciones 27 28 2. FUNCIONES ESPECIALES reales, p ∈ C 1 ([a, b]) positiva y q ∈ C 0 ([a, b]). Probar que para un tal operador vale Z b ˜ ˜ [(L(u))(x)v(x) − u(x)(L(v))(x)]dx = p(x)(u0 (x)v(x) − u(x)v 0 (x))|ba . a para todo par de funciones u, v ∈ C 2 ([a, b]). 2. Sea Z x B(t) 1 ρ(x) := exp dt , p := ρA |A(x)| a A(t) y q := ρC, (2.2) ˜ con A, B, C y L como más arriba. Probar que L(u) = ρ1 ((pu0 )0 + qu) = ρ1 L(u) y, por lo tanto, Z b [(L(u))v − u(L(v))]ρdx = p(u0 v − uv 0 )|ba (2.3) a para todo par de funciones u, v ∈ C 2 ([a, b]). En el espacio vectorial V de las funciones de clase C 2 ([a, b]), nulas en a y b, se considera el producto escalar con peso ρ definido en (2.2), Z b hu, viρ := u(t)v(t)ρ(t)dt. (2.4) a Usando el Ejercicio 2.1 vemos que hL(u), viρ = hu, L(v)iρ para todo par de funciones u, v ∈ V. Una consecuencia inmediata de esta fórmula es que si λ1 y λ2 son autovalores de L distintos y con autofunciones u1 y u2 respectivamente, entonces estas autofunciones son ortogonales: λ1 hu1 , u2 iρ = hλ1 u1 , u2 iρ = hL(u1 ), u2 iρ = hu1 , L(u2 )iρ = hu1 , λ2 u2 iρ = λ2 hu1 , u2 iρ , de donde, como λ1 6= λ2 , se tiene que hu1 , u2 iρ = 0. Hemos descripto el primer paso de la llamada Teoría de Sturm–Liouville 12, que estudia los autovalores y autofunciones asociados a ecuaciones lineales. Dado un operador, un problema básico es si posee suficientes autofunciones, es decir, si es diagonalizable. Aún en el caso de operadores en espacios vectoriales de dimensión finita, no todos los operadores poseen una base de autofunciones, aunque esto sí vale para operadores autoadjuntos. Ejercicio 2.2. Con la notación como más arriba, si u es una autofunción de L de autovalor λ, proba que Rb (−A(t)(u0 (t))2 + C(t)u(t)2 )ρ(t)dt λ= a . (2.5) Rb 2 ρ(t)dt u(t) a ˜ asociado en el Ejercicio 2.1. Sugerencia: considerar el operador L 1Jacques Charles François Sturm (1803-1855): matemático francés reconocido por su estudio de las raíces reales de polinomios y las soluciones de la ecuación del calor. 2Joseph Liouville (1809-1882): matemático francés reconocido por su trabajo en múltiples áreas de la matemática. En Física–Matemática se lo recuerda por su trabajo en sistemas integrables y la introducción de las variables de ángulo-acción. 1. ALGUNAS FUNCIONES ESPECIALES 29 La fórmula (2.5) tiene varias consecuencias si −A es (estrictamente) positiva y C es no negativa3, como por ejemplo que los autovalores de L son todos (estrictamente) positivos. También es posible ver que el menor autovalor de L minimiza los cocientes (2.5) cuando u (en vez de ser una autofunción) varía sobre todo el espacio vectorial. De hecho, esta idea se utiliza para demostrar la existencia de autofunciones. Nota 2.3. En toda la discusión anterior hemos sido bastante descuidados con la especificación del espacio vectorial en cuestión. El espacio vectorial correcto no es el de las funciones C ∞ sino, de modo análogo a lo mencionado en la Nota 1.37, uno más grande, llamado L2 ([a, b], ρ) y formado por las (clases de equivalencia de) las funciones de cuadrado integrable con peso ρ en [a, b], pero no entramos en esta cuestión que es más técnica. Bajo las condiciones que venimos trabajando se tiene el siguiente resultado. Teorema 2.4. Con L definido por (2.1) con las condiciones allí especificadas y −A (estrictamente) positiva y C no negativa: 1. L posee infinitos autovalores λ1 ≤ λ2 ≤ · · · con λ1 > 0 y l´ımj→∞ λj = ∞ 2. Existe una base de Hilbert del espacio L2 ([a, b], ρ) formada por autofunciones φj de L con autovalores λj . Ejemplo 2.5. Para el operador L(u) := −u00 con u(0) = u(T ) = 0, los autovalores y autofunciones que menciona el Teorema 2.4 fueron calculados en la Sección 2 del Capítulo 1 y son λk := (k Tπ )2 (notar la diferencia de signos debido a que consideramos −u00 = 0 en vez de u00 = 0) y φk (t) = sin(k Tπ t), con k ∈ N. Nota 2.6. Como consecuencia del Teorema 2.4 tenemos que cualquier función f del espacio vectorial puede escribirse como X ck φk (2.6) f= k∈N para ciertos coeficientes ck . Como ya vimos en el Capítulo 1, este tipo de igualdad debe interpretarse como que la serie converge a f en la norma del espacio, es decir que 2 2 Z b K K X X ck φk (x) dx = 0. l´ım f − ck φk = l´ım f (x) − K→∞ a K→∞ k=1 k=1 Esto es importante ya que puede ocurrir que (2.6) no valga punto a punto. Como ya se vio, los coeficientes ck en (2.6) se pueden encontrar multiplicando escalarmente por φj , para obtener hφk , f iρ ck = (2.7) kφk k2ρ o, si suponemos que las autofunciones han sido normalizadas, ck = hφk , f iρ , que es exactamente la fórmula para los coeficientes de Fourier que encontramos en las secciones anteriores. Rb Teorema 2.7. Si f : [a, b]P→ R es continua, satisface f (a) = f (b) = 0 y a Af 02 ρdt es convergente entonces la serie k∈N ck φk con ck definido por (2.7) converge uniformemente a f en [a, b]. 3Notar que −A positiva quiere decir que A es negativa. Por este motivo, cuando se estudian ecuaciones lineales es común “arreglar” este signo en la ecuación misma. Por ejemplo, para resolver u00 = 0, que tiene A = 1, es común pasar a −u00 = 0 que tiene las mismas soluciones y A = −1 < 0. 30 2. FUNCIONES ESPECIALES Demostración. Ver página 167 de [6]. Ejemplo 2.8. La separación de variables en la ecuación diferencial 1 (1+x)2 utt − uxx = 0 para (x, t) ∈ (0, 1) × R u(x, 0) = f (x) ut (x, 0) = 0 u(0, t) = u(1, t) = 0 lleva a las ecuaciones X 00 (x) + λ X(x) = 0 (1 + x)2 y T 00 (t) + λT (t) = 0 con las condiciones de contorno X(0) = X(1) = 0, además de otras condiciones adicionales. En particular, la ecuación para X es el problema de autovalores para el operador L 1 de (2.1) con A(x) = −(1 + x)2 , B = C = 0, por lo que ρ(x) = (1+x) 2. λ La ecuación X 00 (x) + (1+x)2 X(x) = 0 es muy similar a una del tipo de Euler (es decir, donde cada derivada viene multiplicada por una potencia igual al orden de la derivada). Para hacer esto más preciso, comenzamos por multiplicar la ecuación por (1 + x)2 y proponer el cambio de variable y = 1 + x. En este caso, definiendo la función incógnita ˜ ˜ X(y) = X(x) (es decir, el valor de x que corresponde al y dado), o sea X(y) = X(y − 1) ˜ o, también, X(1 + x) = X(x). Usando la regla de la cadena se obtiene ˜ 0 (1 + x) = X 0 (x) X ˜ 00 (1 + x) = X 00 (x) X y ˜ 00 (1 + x) + λX(1 ˜ + x) = 0 que, en términos ˜ satisface la ecuación (1 + x)2 X por lo que, la X ˜ 00 (y) + λX(y) ˜ de y queda y 2 X = 0 que es una ecuación de Euler. Las soluciones de este tipo de ecuaciones son de la forma y a , por lo que reemplazando se obtiene la condición a(a − 1) + λ = 0, de donde √ 1 ± 1 − 4λ a= . 2 Para λ 6= 14 hay entonces un espacio de dimensión 2 de soluciones de esta forma. En términos de x, se tiene √ 1+ 1−4λ 2 X(x) := A(1 + x) + B(1 + x) √ 1− 1−4λ 2 . La condición X(0) = 0 restringe la solución a √ √ 1+ 1−4λ 1− 1−4λ X(x) := A (1 + x) 2 − (1 + x) 2 La condición X(1) = 0 lleva a √ 2 1−4λ =1 (2.8) Si el exponente es real, la única posibilidad es λ = 14 . Este caso es especial ya que tenemos 1 una única solución, (1 + x) 2 . Usando reducción del orden vemos que otra solución es, en 1 este caso, (1 + x) 2 ln(1 + x). Pero entonces, la condición X(0) = 0 lleva a que la solución es un múltiplo de la función logarítmica. Como esta función no se anula para x = 1, la condición X(1) = 0 lleva a que la única solución es la nula, con lo que λ = 41 no puede ser autovalor. 1. ALGUNAS FUNCIONES ESPECIALES 31 La única posibilidad que queda es entonces que el exponente de (2.8) sea complejo, es decir, λ > 14 . En este caso es más conveniente reescribir la solución como e √ 1+i 4λ−1 2 ln(1+x) =e ln(1+x) 2 e = (1 + x) i 1 2 √ 4λ−1 2 ln(1+x) √ cos √ 4λ − 1 4λ − 1 ln(1 + x) + i sin ln(1 + x) 2 2 Como la ecuación original es lineal y real, las partes reales e imaginarias son soluciones independientes (en R) de la misma: r r 1 1 1 1 (1 + x) 2 cos λ − ln(1 + x) y (1 + x) 2 sin λ − ln(1 + x) 4 4 La condición X(0) = 0 elimina la posibilidad del cos y la X(1) = 0 lleva a que r 1 sin λ − ln(2) = 0 4 con lo que r 1 ln(2) = nπ para n ∈ N. 4 Es decir, los autovalores del operador asociado a la ecuación son π 2 1 λn = (n ) + ln(2) 4 λ− y sus correspondientes autofunciones ln(1 + x) φn (x) = (1 + x) sin nπ . ln(2) 1 2 Los resultados de esta sección muestran que las {φn } son una base de Hilbert del espacio de funciones L2 ([0, 1], (1 + x)−2 ), con el producto Z 1 1 hu, viρ := u(x)v(x) dx (1 + x)2 0 R1 1 y que cualquier función f con 0 f (x)2 (1+x) 2 dx < ∞ es aproximada por su serie de Fourier P∞ 2 −2 f = n=1 cn φn en L ([0, 1], (1+x) ) con los coeficientes cn definidos por (2.7). Más aún, si R1 P f es continua y 0 f 0 (x)2 dx es convergente, el Teorema 2.7 dice que f (x) = ∞ n=1 cn φn (x) para todo x. √ Ejercicio 2.9. En el contexto del Ejemplo 2.8, hallar kφn kρ . Probar que 1 + x ∈ L2 ([0, 1], (1 + x)−2 ) y hallar su expansión en términos de las autofunciones φn . Lamentablemente las condiciones para el Teorema 2.4 no se cumplen en varios problemas de interés. Una razón típica para esto es que alguna de las condiciones sobre los coeficientes en (2.1) deja de valer en alguno o ambos extremos del intervalo considerado. A pesar de esto, en muchos casos, los resultados de los Teoremas 2.4 y 2.7 siguen valiendo (en el último caso con alguna variación). Las condiciones precisas para que valgan estos resultados son un tanto complicadas de describir y se sugiere consultar la bibliografía. Un ejemplo de lo descripto en el párrafo anterior es la familia de operadores 1 ν2 u(x) 7→ u00 (x) + u0 (x) − 2 u(x), x x (2.9) 32 2. FUNCIONES ESPECIALES donde ν es una constante no negativa (es posible, también desarrollar la teoría para ν ∈ C en cuyo caso se pide Re(ν) ≥ 0). Modificando los signos para que el coeficiente de u00 sea negativo, el problema de autovalores asociado es 1 ν2 −u00 (x) − u0 (x) + 2 u = λu(x), x x o ν2 1 0 00 u (x) + u (x) + (λ − 2 )u(x) = 0. (2.10) x x En la Sección 2 analizaremos esta ecuación y sus soluciones en detalle. En particular veremos que el problema de autovalores en este caso (con las condiciones de contorno u acotada en el origen, xu0 (x) → 0 cuando x → 0 y u(1) = 0) tiene por solución a las funciones (ν) (ν) φk (x) := Jν (xpk ) (ν) donde pk es el k-ésimo cero de la función de Bessel4 Jν (x). El autovalor correspondiente a esta función es (ν) λk := (pk )2 . (ν) En este caso vale que las funciones {φk }k∈N son una base de Hilbert del espacio de funciones correspondiente al problema con el producto interno Z 1 u(x)v(x)xdx. (2.11) hu, viρ := 0 Notemos que el peso ρ(x) = x de (2.11) coincide con el dado por (2.2). Dada una función en el espacio L2 ([0, 1], x), su desarrollo X (ν) ck φk f= k∈N es llamado el desarrollo de Fourier–Bessel de f . 2. Ecuación de Bessel Comencemos por ver si existen soluciones u(x) de (2.10) con las condiciones xu0 (x) → 0 cuando x → 0 y u(1) = 0 cuando λ = 0. En este caso, (2.10) es una ecuación de Euler, por lo que proponemos una solución de la forma u(x) = xα . Es inmediato que esta función es solución de la ecuación si y sólo si α2 = ν 2 . Si ν 6= 0 la solución general es u(x) = Axν + Bx−ν y la condición u(1) = 0 impone que B = −A, por lo que u(x) = A(xν − x−ν ). Entonces, como xu0 (x) = νA(xν + x−ν ), la condición xu0 (x) → 0 sólo se satisface si A = 0. Luego, si ν 6= 0 no hay soluciones no nulas del problema. Cuando ν = λ = 0, (2.10) se resuelve directamente dando u(x) = A ln(x)+B. Entonces u(1) = 0 lleva a que B = 0 y, como xu0 (x) = A, la condición xu0 (x) → 0 sólo se satisface si A = 0. Por lo tanto, en este caso tampoco hay soluciones no nulas. Concluimos que λ = 0 no es autovalor del operador (2.9) con las condiciones de contorno dadas. Descartado el caso λ = 0, vamos a tratar el caso λ > 0. Mediante el cambio de variable √ t = x λ, (2.12) la ecuación (2.10) se reduce a d2 u˜ 1 d˜ u ν2 + + (1 − 2 )˜ u = 0, dt2 t dt t 4Friedrich (2.13) Wilhelm Bessel (1784-1846): astrónomo y matemático alemán recordado por el estudio sistemático de las funciones que llevan su nombre (y que fueran descubiertas por D. Bernoulli) y por ser el primero en determinar la distancia a una estrella en 1838. 2. ECUACIÓN DE BESSEL 33 donde t u˜(t) := u √ . λ (2.13) es conocida como la Ecuación de Bessel de orden ν. Ejercicio 2.10. Si α > 0 es una constante, y u(x) √ satisface (2.10), hallar la ecuación t satisfecha por u˜(t) := u( α ). Concluir que para α = λ, u˜(t) satisface (2.13). La solución de la ecuación de Bessel es por medio del método de Frobenius ya que t = 0 es un punto singular regular de la misma. El polinomio indicial es r2 − ν 2 , con lo que la raíz más a la derecha es r = ν. Para este valor se obtiene la serie ∞ X (−1)k 2k ν . t u(t) = a0 t 1 + 22k k!(ν + 1) · · · (ν + k) k=1 1 2ν Γ(ν+1) Tomando5 a0 = se tiene la solución particular Jν (t) := ∞ X k=0 (−1)k t ( )2k+ν k!Γ(ν + k + 1) 2 conocida como función de Bessel de primera especie. En particular, si ν = n ∈ N ∪ {0} se tiene ∞ X (−1)k t Jn (t) := ( )2k+n . k!(n + k)! 2 k=0 La Figura 2.1 muestra los gráficos de distintas funciones de Bessel. 1 0.3 0.6 0.8 0.2 0.4 0.6 0.1 0.4 0.2 0.2 0 0 0 0 0 0 10 20 30 x 40 10 20 30 x 50 40 10 20 30 40 50 x 50 -0.1 -0.2 -0.2 -0.2 -0.4 (a) ν = 0 (b) ν = 0.5 (c) ν = 10 Figura 2.1. Gráficos de Jν para distintos valores de ν Cuando ν ∈ / N ∪ {0} la función J−ν definida como ∞ X (−1)k t J−ν (t) := ( )2k−ν k!Γ(−ν + k + 1) 2 k=0 está bien definida (en particular, los denominadores Γ(−ν + k + 1) se pueden evaluar sin problemas. En este caso, el estudio de las recurrencias muestra que J−ν es otra solución de la ecuación de Bessel, linealmente independiente de Jν ya que tienen distinto comportamiento cerca de t = 0 (Jν está acotada mientras que J−ν diverge). En cambio, si R∞ función Γ se define como Γ(z) := 0 tz−1 e−t dt y es una función meromorfa con polos simples en z = 0, −1, −2, . . .. Satisface, entre otras, las propiedades Γ(1) = 1, Γ(z) = (z − 1)Γ(z − 1) si Re(z) > 1. De aquí se deduce que para n ∈ N, Γ(n) = (n − 1)!. 5La 34 2. FUNCIONES ESPECIALES ν = n ∈ N∪{0} las expresiones Γ(−ν +k +1) para k = 0, . . . , ν −1 carecen de sentido pues Γ posee polos en los valores en los que se la evalúa. Una interpretación posible es tomar 1 = 0, con lo que se tiene, para ν = n ∈ N ∪ {0} Γ(−ν + k + 1) = ∞, con lo que Γ(−ν+k+1) J−n (t) = ∞ X k=n ∞ X (−1)k t (−1)k t ( )2k−n = ( )2k−n . k!Γ(−n + k + 1) 2 k!(−n + k)! 2 k=n En verdad, la “interpretación” mencionada se justifica ya que esta última serie es la solución del tipo de Frobenius obtenida de la ecuación de Bessel (2.13) cuando se toma la raíz del polinomio indicial r = −n y para una elección apropiada del coeficiente a0 . Se puede verificar que J−n = (−1)n Jn , con lo que J−n y Jn resultan ser linealmente dependientes. Para encontrar una segunda solución linealmente independiente de la ecuación de Bessel si ν = n ∈ N ∪ {0} es posible usar el método de reducción del orden y la solución conocida Jν . Una alternativa es proceder del siguiente modo: para ν ∈ / N ∪ {0} la función Nν (t) := cos(νπ)Jν (t) − J−ν (t) sin(πν) está bien definida. Se demuestra que el límite Nn (t) := l´ım Nν (t) ν→n existe y se lo conoce como función de Neumann o función de Bessel de segunda especie. Nn (t) es solución de la ecuación de Bessel. Además 2 t Pn (t) Jn (t)(γ + ln( )) + n + tn Hn (t), π 2 t donde γ ' 0.577 . . . es la constante de Euler, Pn es un polinomio con P (0) 6= 0 y Hn una función entera. Una vez más, debido al comportamiento de Nn en el origen se ve que el linealmente independiente de Jn . La Figura 2.2 muestra los gráficos de Nν para distintos valores de ν. Nn (t) = x 10 x 0.5 0 x 0 10 20 10 20 20 30 40 50 0 30 40 50 0 30 40 50 0 -5 -1 -0.5 -10 -2 -1 -15 -1.5 -3 -2 -4 -20 -25 (a) ν = 0 (b) ν = 0.5 (c) ν = 10 Figura 2.2. Gráficos de Nν para distintos valores de ν Como {Jν , J−ν } es una base del espacio de soluciones de (2.13) para ν ∈ / N ∪ {0}, {Jν , Nν } resulta ser otra base, la diferencia es que esta última base sigue teniendo esta propiedad al considerar cualquier valor de ν ≥ 0, mientras que la primera no. En conclusión, la solución general de la ecuación de Bessel (2.13) para cualquier ν con ν ≥ 0 es u(t) = AJν (t) + BNν (t). 2. ECUACIÓN DE BESSEL 35 1 0.8 0.6 0.4 0.2 0 0 10 20 30 40 50 x -0.2 -0.4 Figura 2.3. Varias Jν (x) mostrando la similitud con funciones sinusoidales para |x| 0 Los gráficos de Jν y Nν son sinusoides amortiguadas. Sus ceros son reales, simples y forman una sucesión creciente, con la distancia entre dos ceros consecutivos convergiendo a (ν) 2π (ver Figura 2.3). Los ceros de las funciones Jν serán denotados por pk con k = 1, 2, . . .. Se puede ver que eit sin(θ) = ∞ X Jn (t)einθ n=−∞ con lo que Jn son los coeficientes de Fourier de eit sin(θ) (como función de θ) y entonces vale Z π Z 1 π 1 it sin(θ) −int e e dθ = cos(t sin(θ) − nθ)dθ. Jn (t) = 2π −π π 0 Se tiene que r 2 sin(t) J 1 (t) = 2 πt y, más en general, r 1 1 2 Jn+ 1 (t) = (Pn ( ) sin(t) + Qn ( ) cos(t)) 2 πt t t donde Pn y Qn son polinomios. Por último, hay fórmulas que relacionan las derivadas de las funciones de Bessel con las funciones mismas, como por ejemplo tJν0 (t) = νJν (t) − tJν+1 (t). Para volver al problema de autovalores (2.10), revertimos el cambio de variables (2.12), para obtener las soluciones (sólo las acotadas en t = 0) √ u(x) = AJν (x λ) Al imponer la condición de contorno u(1) = 0 tiene que valer √ Jν ( λ) = 0 36 2. FUNCIONES ESPECIALES con lo que los autovalores (correspondientes a λ > 0) del operador (2.9) resultan ser los cuadrados de los ceros de Jν . A diferencia de las funciones trigonométricas, los ceros de las funciones de Bessel no están equiespaciados ni se los puede describir de manera explícita. (ν) Como antes, los llamamos pk . Entonces, los autovalores del problema (2.10) son (ν) (ν) λk = (pk )2 (2.14) y una base de las autofunciones correspondientes está dada por (ν) (ν) φk (x) = Jν (xpk ). (2.15) Para terminar el análisis de los autovalores y autovectores resta considerar el caso λ < 0. En este caso se puede proceder como en el caso λ > 0, con la diferencia de que el cambio de variables (2.12) hace que t sea un número imaginario puro. El resto de lo discutido para la ecuación de Bessel (2.13) vale sin modificaciones para el caso complejo (después de todo, las series involucradas se pueden evaluar sin problemas en el caso en que t ∈ C), dando por resultado de la ecuación (2.10) a √ u(x) = AJν (x λ). Ahora bien, al imponer la condición u(1) = 0, se obtiene √ 0 = AJν ( λ), √ donde λ es un imaginario puro. El problema es que Jν sólo se anula en el origen del eje imaginario puro, es decir que λ = 0, contradiciendo λ < 0. La afirmación sobre los ceros de Jν (is) para s ∈ R se sigue inmediatamente de que ν X ∞ is s 1 Jν (is) = ( )2k 2 k!Γ(ν + k + 1) 2 {z } |k=0 >0 que sólo se anula cuando s = 0. En conclusión, los únicos autovalores y autofunciones del problema son los dados por (2.14) y (2.15). Una ecuación muy relacionada con la ecuación de Bessel (2.13) es la llamada Ecuación de Bessel modificada: d2 u 1 du ν2 + − (1 + 2 )u = 0. (2.16) dt2 t dt t Mediante el cambio de variable independiente a y = it, (2.16) se vuelve ν2 d2 u 1 du + + (1 − )u = 0 dy 2 y dy y2 que es, formalmente, (2.13) y, por tanto, tiene soluciones Jν (y) y Nν (y). Volviendo a la variable original t, una base de soluciones de (2.16) es {Jν (it), Nν (it)}. En vez de Jν (it) se suele usar la función (real) ∞ X 1 t −ν Iν (t) := i Jν (it) = ( )2k+ν , k!Γ(ν + k + 1) 2 k=0 conocida como función de Bessel de primera especie modificada. De algún modo, estas funciones Iν guardan la misma relación con Jν que las funciones hiperbólicas con las trigonométricas usuales. Algunas propiedades sencillas de las funciones de Bessel son: Proposición 2.11. Para Re(ν) ≥ 0, 1. dtd (tν Jν (t)) = tν Jν−1 (t). 2. ECUACIÓN DE BESSEL 37 2. dtd (t−ν Jν (t)) = −t−ν Jν+1 (t). 3. dtd (t2 (Jν2 (t) − Jν+1 (t)Jν−1 (t))) = 2tJν2 (t). R1 (ν) (ν) (ν) 4. 0 (Jν (pk x))2 xdx = 12 (Jν+1 (pk ))2 , donde pk es el k-ésimo cero de Jν (x). Nota 2.12. Como mencionamos en la Sección 1, para ν fijo, se puede probar que (ν) las funciones φk (x) := Jν (p(ν) x) con k ∈ N son una base de un espacio de Hilbert. En concreto, el espacio es L2 ([0, 1], x) con el producto interno (2.11). Debido a esto, cualquier función en L2 ([0, 1], x) puede ser escrita como suma de funciones de Bessel. Por ejemplo, para f (x) = 1 para todo x ∈ [0, 1] y con ν = 0, se puede escribir 1= ∞ X (0) ck J0 (pk x) k=1 con 1 ck = 2 (0) J (p x) 0 k D E (0) 1, J0 (pk x) x Z 1 = R1 1 (0) J0 (pk x)xdx. (0) J (p x)2 xdx 0 0 k 0 x Usando la Proposición 2.11 se obtiene =y ck = R 1 0 = Z 1 (0) J0 (pk x)2 xdx 2 1 (0) J1 (pk )2 (0) (pk ) 1 z}|{ (0) J0 (pk x)xdx = 0 p(0) k yJ1 (y) = 2 0 1 (0) 1 J (p )2 2 1 k Z 0 (0) pk 1 (0) (pk )2 J0 (y)ydy 2 (0) (0) pk J1 (pk ) con lo que 1= ∞ X 2 (0) J0 (pk x). (0) (0) k=1 pk J1 (pk ) (2.17) (ν) En muchos casos es necesario usar aproximaciones numéricas de los pk y las funciones Jν . Estas aproximaciones se pueden obtener de tablas como las de Abramowitz y Stegun [1] o de software como Maple, pari o matlab. La Tabla 2.1 muestra algunos de los valores obtenidos para el cálculo de los 5 primeros coeficientes de la serie (2.17). k p0k J1 (p0k ) ck 1 2.404825558 0.5191474972 1.601974697 2 5.520078110 −0.3402648066 −1.064799259 3 8.653727913 0.2714522999 0.8513991928 4 11.79153444 −0.2324598313 −0.7296452400 5 14.93091771 0.2065464331 0.6485236142 Cuadro 2.1. Tabla de ceros y valores de funciones de Bessel Hay que entender correctamente el significado de (2.17): la igualdad quiere decir que el límite de la serie de la derecha existe y es la función 1. Sin embargo, este límite es el límite en L2 ([0, 1], x) con el producto interno (2.11); ver Nota 1.39. En otras palabras, (2.17) dice que 2 2 Z 1 X N N X 2 2 (0) (0) l´ım 1 − J0 (pk x) = l´ım 1− J0 (pk x) xdx = 0. (0) (0) (0) (0) N →+∞ N →+∞ 0 p J (p ) p J (p ) 1 k 1 k k=1 k k=1 k 38 2. FUNCIONES ESPECIALES En palabras, el área del cuadrado de la diferencia entre 1 y las sumas parciales de la serie tiende a 0. La discusión anterior es muy importante pues no es cierto que la igualdad en (2.17) ocurra en todos los puntos x ∈ [0, 1]. De hecho, cada sumando de la serie se anula en x = 1, mientras que el lado izquierdo de (2.17) no lo hace. La Figura 2.4 muestra aproximaciones de 1 por distintas sumas parciales de (2.17), mientras que la Figura 2.5 muestra el cuadrado de las diferencias entre la función 1 y la suma parcial de la serie. 1.2 1.2 1 1 0.8 0.8 0.6 0.6 0.4 0.4 0.2 0.2 0 0 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 x x (a) N = 10 (b) N = 50 0.8 1 Figura 2.4. Aproximaciones de la función f (x) = 1 por sumas parciales de su serie de Fourier en términos de J0 1 1 0.8 0.8 0.6 0.6 0.4 0.4 0.2 0.2 0 0 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 x x (a) N = 10 (b) N = 50 0.8 1 Figura 2.5. Cuadrado de las diferencias en las aproximaciones de la función f (x) = 1 por sumas parciales su serie de Fourier en términos de J0 3 Introducción a las Ecuaciones Diferenciales 1. Generalidades En muchas ramas de la ciencia y la tecnología es común expresar las relaciones entre las magnitudes que describen un sistema a través de relaciones diferenciales. Es, por tanto, muy importante poder estudiar este tipo de problema. En muchos casos, si las relaciones están bien planteadas es posible ver que hay una única solución para el problema, dados ciertos datos adicionales (por ejemplo, los valores del sistema en algún o algunos momentos prefijados). El saber que un problema tiene solución no es, sin embargo, garantía de que tal solución pueda ser hallada en forma explícita. Mucho ingenio se ha invertido en hallar métodos que permiten hallar una forma cerrada para la solución de estos problemas pero, aún así, de algún modo son pocos los problemas para los cuales tal cosa es posible. Para compensar esta ignorancia se han desarrollado teorías que permiten el estudio de propiedades cualitativas de las soluciones y que se aplican aún cuando no se dispone de una forma cerrada para las mismas. En lo que sigue trataremos métodos explícitos para resolver ecuaciones diferenciales así como también algunos métodos cualitativos. Una ecuación diferencial es una relación de la forma F (u(x), x1 , . . . , xn , D[1] u(x), D[2] u(x), . . . , D[k] u(x)) = 0 donde F es una función de finitas variables (en muchos casos es un polinomio), u : Rn → R es la incógnita, (x1 , . . . , xn ) son las coordenadas en Rn , D[1] u(x) denota a las derivadas primera de u en x, D[2] u(x) las derivadas segundas de u en x, etc. El mayor orden de derivada que aparece explícitamente en F –k en este caso– es llamado el orden de la ecuación diferencial. En el caso n = 1 se dice que la ecuación es ordinaria y si n ≥ 2 es en derivadas parciales. Una función es solución de una ecuación diferencial si al sustituirla en la ecuación se obtiene una identidad para todos los valores de la variable independiente. En verdad, en muchos casos sólo se buscan soluciones en un subconjunto U de Rn , en cuyo caso solo se pide que la función esté definida y satisfaga la ecuación en U . Ejemplo 3.1. La ecuación ordinaria de orden dos más general es de la forma F (u, x, D(1,0) u(x), D(1,1) u(x)) = 0. donde D(1,0) u(x) = ux (x) = u0 (x) y D(1,1) u(x) = uxx (x) = u00 (x) (más sobre esta notación en la sección 2). Por ejemplo, u00 (x) + x2 (u(x))2 u0 (x) − sin(x) = 0 es una tal ecuación. 39 40 3. INTRODUCCIÓN A LAS ECUACIONES DIFERENCIALES Ejemplo 3.2. La ecuación en derivadas parciales de primer orden en dos variables más general tiene la forma F (u, x1 , x2 , D(1) u(x), D(2) u(x)) = 0. Por ejemplo, xux uy − u2x + exy = 0 es una tal ecuación. También es posible considerar varias ecuaciones diferenciales que involucran a más de una función incógnita simultáneamente; estos son llamados sistemas de ecuaciones diferenciales y, si bien son muy importantes, no serán tratados en este curso. Algunos tipos de ecuaciones tienen nombres especiales. Por ejemplo, si F es lineal en u y sus derivadas, se dice que la ecuación es una ecuación lineal. Por ejemplo xux + y 2 uy − u + xy = 0 es una ecuación lineal de primer orden. Si F es lineal en, al menos, las derivadas de orden más alto de u, se dice que la ecuación es cuasi lineal. Un ejemplo es la ecuación xuxx + y 2 u2y − u7 + xy = 0 que es una ecuación cuasi lineal de segundo orden (ya que es lineal en uxx ). En lo que sigue estudiaremos algunos tipos particulares de ecuaciones en derivadas parciales Una cuestión no menor en el estudio de ecuaciones diferenciales es ¿qué es una solución?. La versión más sencilla de solución es, como ya se dijo antes, “algo que reemplazado en la ecuación la reduce a una identidad”, incluyendo en esto a las posibles condiciones iniciales o de contorno. Para poder “reemplazar” una posible solución es necesario que la función propuesta admita, al menos, tantas derivadas como el orden de la ecuación ya que de otro modo el “reemplazo” no es posible. Esta es la noción de solución clásica de una ecuación. Si bien esta idea es muy intuitiva, presenta el problema de que solo podrían ser soluciones de ecuaciones diferenciales funciones con derivadas. En particular, no sería posible que una función discontinua fuese solución de una ecuación diferencial. Esto limita en buena medida el estudio de problemas con singularidades (ondas de choque, por ejemplo). Por este motivo se usan distintas nociones más generales de solución, como ser la de solución distribucional, en la que se permiten distribuciones (una generalización de la noción de función que será vista en el Capítulo 7) o la de solución débil en la que se reemplaza la ecuación diferencial dada por una condición integral a ser satisfecha por cualquier “función de prueba”. Para un ejemplo de solución débil, consultar las Notas 4.8 y 4.9 del Capítulo 4. 2. Notación En lo que sigue vamos a usar con frecuencia funciones de varias variables. Para trabajar con mayor comodidad es útil tener una notación abreviada para escribir las distintas derivadas. Si se trabaja en Rn con n ≤ 3 lo usual es denotar a las variables independientes por 2 o uxz (x, y, z) = ∂ u(x,y,z) . (x, y, z), siendo las derivadas uy (x, y) = ∂u(x,y) ∂y ∂x∂z n Para trabajar en R con n arbitrario es más conveniente usar notación de multi-índices. Si las coordenadas del espacio son x = (x1 , . . . , xn ) y α = (α1 , . . . , αn ) ∈ (Z≥0 )n es un multi-índice se define la derivada de orden α como ∂ |α| u(x1 , . . . , xn ) ∂ |α| u(x1 , . . . , xn ) D u(x1 , . . . , xn ) := = , ∂xα ∂xα1 1 · · · ∂xαnn α 3. ALGUNAS ECUACIONES DIFERENCIALES donde |α| = Pn j=1 41 αj . Por ejemplo, si n = 3 y α = (1, 0, 2), se tiene ∂ 3 u(x1 , x2 , x3 ) . ∂x1 ∂x23 Dα u(x1 , x2 , x3 ) = Para el caso especial α = (0, . . . , 0), se define Dα u = u. Se define el factorial de un multi-índice α = (α1 , . . . , αn ) como α! := α1 ! · · · αn !. Usando multi-índices el desarrollo de Taylor de una función u centrado en x0 ∈ Rn adquiere una expresión razonablemente compacta: u(x) = ∞ X X k=0 {α:|α|=k} Dα u(x0 ) (x − x0 )α α! donde (x − x0 )α = (x1 − x01 )α1 · · · (xn − x0n )αn . Por ejemplo, en R2 , los términos de orden ≤ 1 de dicho desarrollo son D(0,0) u(x0 ) D(1,0) u(x0 ) D(0,1) u(x0 ) (x − x0 )(0,0) + (x − x0 )(1,0) + (x − x0 )(0,1) (0, 0)! (1, 0)! (0, 1)! ux (x0 ) ux (x0 ) = u(x0 ) + 1 (x1 − x01 ) + 2 (x2 − x02 ). 1! 1! Los operadores usuales (gradiente, laplaciano, etc) también tienen distintas notaciones. Por ejemplo, el gradiente se denota por Du = ∇u = ( ∂u ∂u ,..., ). ∂x1 ∂xn El laplaciano es ∆u = n X uxj xj . j=1 En ocasiones se usa la notación D2 u para la matriz Hessiana de u, es decir la matriz cuadrada formada por todas las derivadas segundas de u. En particular vale ∆u = Tr D2 u. Si S ⊂ Rn es una hipersuperficie (es decir que tiene dimensión n−1) y ν = (ν1 , . . . , νn ) : S → Rn es un campo vectorial unitario normal a S, se define la derivada normal a S de orden k ∈ N de una función u : Rn → R como X X ∂ku ∂ku α α := (D u)ν = ν1α1 · · · νnαn . (3.1) k α α n 1 ∂ν ∂ x1 · · · ∂ xn α +···+α =k |α|=k 1 n Un caso particular de la fórmula anterior es la derivada normal (de orden 1): X ∂u := (Dα u)ν α = Du · ν ∂ν |α|=1 que no es otra cosa que la derivada direccional de u en la dirección del campo ν normal a S. 3. Algunas Ecuaciones Diferenciales En esta sección enumeraremos algunas ecuaciones diferenciales de distintos tipos. Para una lista más extensa se puede consultar, por ejemplo, el Capítulo 1 del libro de Evans [4]. 42 3. INTRODUCCIÓN A LAS ECUACIONES DIFERENCIALES 3.1. Ecuaciones lineales. Ecuación de Laplace ∆u = n X uxj xj = 0. (3.2) bj uxj = 0. (3.3) j=1 Ecuación lineal de transporte ut + n X j=1 Ecuación del calor o de difusión ut − ∆u = 0. (3.4) iut + ∆u = 0. (3.5) utt − ∆u = 0. (3.6) ut + uxxx = 0. (3.7) ut + H(Du, x) = 0. (3.8) det(D2 u) = f. (3.9) ut + uux = 0. Ecuación de Korteweg-de Vries (KdV) (3.10) Ecuación de Schrödinger Ecuación de onda Ecuación de Airy 3.2. Ecuaciones no lineales. Ecuación de Hamilton-Jacobi Ecuación de Ampère Ecuación de Burgers ut + uux + uxxx = 0. 3.3. Sistemas de ecuaciones. Ecuaciones de Maxwell Et = rot B Bt = − rot E div B = div E = 0. Ecuaciones de Navier-Stokes(para fluido viscoso incompresible) ( ut + u · Du − ∆u = −Dp div u = 0. (3.11) (3.12) (3.13) 4 Ecuaciones de Primer Orden 1. Método de las curvas características Estas ecuaciones son de la forma F (u, x1 , . . . , xn , ux1 , . . . , uxn ) = 0. Muchas ecuaciones de este tipo remiten a problemas geométricos si se piensa en la (hiper)superficie que es el gráfico de u. Veremos un ejemplo de esto a la brevedad. Las ecuaciones lineales de primer orden son de la forma A1 (x)ux1 + · · · + An (x)uxn + B(x)u + C(x) = 0. (4.1) Una manera útil de interpretar este tipo de ecuaciones pasa por reescribirla como A1 (x)ux1 + · · · + An (x)uxn = −B(x)u − C(x). (4.2) En esta expresión podemos reconocer en su lado izquierdo a la derivada direccional de u con respecto a la dirección A(x) := (A1 (x), . . . , An (x)). Sea γ(s) = (γ1 (s), . . . , γn (s)) una curva integral de este campo de direcciones (llamada curva característica en este contexto), es decir que vale γ 0 (s) = A(γ(s)) = (A1 (γ(s)), . . . , An (γ(s))). (4.3) Entonces, si u˜(s) := u(γ(s)) es u restringida a la curva integral γ, tenemos ∂u ∂u (γ(s))γ10 (s) + · · · + (γ(s))γn0 (s) ∂x1 ∂xn ∂u ∂u = (γ(s))A1 (γ(s)) + · · · + (γ(s))An (γ(s)) ∂x1 ∂xn = −B(γ(s))u(γ(s)) − C(γ(s)) = −B(γ(s))˜ u(s) − C(γ(s)) u˜0 (s) = (4.4) con lo que u˜ satisface una ecuación ordinaria lineal y de primer orden. Recapitulando, si u es una solución de (4.1) y γ es una curva integral del vector de coeficientes A(x), la restricción u˜ de u a γ satisface (4.4). El método de las curvas características consiste en resolver esta última ecuación diferencial para hallar u˜ y usar esta restricción para definir u en todo un abierto. El método de las curvas características permite hallar una solución de (4.1) mediante el cálculo de las curvas características (es decir, la resolución de un sistema de n ecuaciones ordinarias), y la solución de una ecuación ordinaria satisfecha por u˜; de este modo, se reduce la solución del problema de ecuaciones en derivadas parciales al de n + 1 ecuaciones ordinarias de primer orden. Más aún, bajo las condiciones adecuadas, el teorema de 43 44 4. ECUACIONES DE PRIMER ORDEN 5 4 3 2 1 0 -2 -1 0 1 2 -1 Figura 4.1. Curvas características de la ecuación (4.5) existencia de soluciones para ecuaciones ordinarias de primer orden asegura la existencia de las soluciones y, por tanto, la de la solución de (4.1). El proceso descripto más arriba deja una cantidad de información (“constantes de integración”) sin determinar. Por lo común, se pide que la solución de (4.1) satisfaga alguna condición adicional que termina determinando estas constantes. Nota 4.1. El método descripto arriba parece depender de la existencia de u. Sin embargo se puede probar que la función u˜ realmente produce una solución u de (4.1) para los puntos x por los que pasa una curva característica que intersecta en un único punto a la superficie donde está definido el dato inicial. La clave de la demostración es que si se define u como en el párrafo anterior, su derivada direccional en la dirección de A es, precisamente u˜0 y la ecuación (4.4) asegura que esta derivada, y por tanto la derivada direccional de u, son iguales al lado derecho de (4.2). Ejemplo 4.2. Consideremos la ecuación ( ux + 2xuy = αu + β u(1, y) = g(y) (4.5) con α y β constantes reales, α 6= 0. Siendo una ecuación lineal de primer orden, comenzamos por determinar sus curvas características, es decir, queremos resolver (γ10 (s), γ20 (s)) = (1, 2γ1 (s)). La primera componente nos dice que γ1 (s) = s+A, con A constante. Entonces, la segunda componente queda γ20 (s) = 2s + 2A, con lo que γ2 (s) = s2 + 2As + B para B constante. De aquí, eliminando s, vemos que las características son parábolas de ecuación y = x2 − A2 + B. La Figura 4.1 muestra algunas curvas características. Vemos que, en particular, la característica que pasa por (x0 , y0 ) cuando s = 0 es γ(s) = (s + x0 , s2 + 2x0 s + y0 ). Ahora busquemos la solución u restringida a esta característica, es decir u˜(s) = u(s + x0 , s2 + 2x0 s + y0 ). Usando la ecuación diferencial tenemos: u˜0 (s) = αu(γ(s)) + β = α˜ u(s) + β, Que podemos integrar obteniendo u˜(s) = C1 eαs − β , α 1. MÉTODO DE LAS CURVAS CARACTERÍSTICAS 45 con lo que β α y sólo nos resta calcular la “constante de integración” C1 para conocer u. Cabe aclarar que C1 es constante para la característica elegida, pero que otra característica (otro (x0 , y0 ) por ejemplo) puede tener otro valor de C1 . Para esto notemos que la característica pasa por x = 1 cuando s = 1 − x0 . En ese momento, se tiene y = (1 − x0 )2 + 2x0 (1 − x0 ) + y0 = 1 − x20 + y0 , por lo tanto, la segunda condición de (4.5) dice que u(x0 , y0 ) = u˜(0) = C1 − u˜(1 − x0 ) = u(1, 1 − x20 + y0 ) = g(1 − x20 + y0 ). Por otro lado, u˜(1 − x0 ) = C1 eα(1−x0 ) − β , α de donde C1 = (g(1 − x20 + y0 ) + β −α(1−x0 ) )e . α En total β −α(1−x0 ) β )e − . α α 2 y como esta expresión vale para todo (x0 , y0 ) ∈ R concluimos que la solución general de (4.5) es β −α(1−x) β 2 u(x, y) = g(1 − x + y) + (4.6) e − α α u(x0 , y0 ) = u˜(0) = (g(1 − x20 + y0 ) + Ejercicio 4.3. Probar explícitamente que la expresión (4.6) es solución del problema (4.5). Ejercicio 4.4. Resolver el problema (4.5) con α = 0. Nota 4.5. Para una ecuación lineal de primer orden el comportamiento de la solución sobre cada característica queda completamente determinado (en cada componente conexa de la característica) si se conoce su valor en un punto de la misma. En el Ejemplo 4.2 fue posible determinar este valor de manera completa ya que el dato inicial, g, estaba prescrito sobre la recta x = 1 que corta exactamente en un punto a cada curva característica, como se ve en la Figura 4.2. Sin embargo, otro podría ser el comportamiento si el dato inicial estuviese dado sobre otra curva. Por ejemplo, si fuese u(x, 1) = g(x), entonces habría muchas características sobre las que no hay dato de contorno ya que no son intersectadas por la recta x = 1, como se ve en la Figura 4.3. Esto indicaría que puede haber más de una solución ya que los valores de u pueden ser determinados casi arbitrariamente sobre algún punto de las características que no cortan la recta. Por otro lado, no cualquier función g da origen a una solución del problema: la recta y = 1 intersecta en dos puntos a casi todas las características. Ahora bien, el valor de la solución en uno de esos puntos determina (via la ecuación) el valor de la solución en el otro. Si los valores de g no satisfacen esta condición entonces el problema no tiene solución. Un caso extremo de los problemas mencionados es el caso en que el dato inicial está dado completamente sobre una característica. Estos comentarios valen en situaciones mucho más generales que la del Ejemplo 4.2: la existencia y unicidad de solución de un problema diferencial puede variar completamente dependiendo de donde se especifique el dato inicial (para una misma ecuación). 46 4. ECUACIONES DE PRIMER ORDEN 6 5 4 3 2 1 0 -2 -1 0 1 2 -1 Figura 4.2. Características y condición de contorno para la ecuación (4.5) 6 5 4 3 2 1 0 -2 -1 0 1 2 -1 Figura 4.3. Características y condición de contorno en y = 1 para la ecuación (4.5) Ejercicio 4.6. Hallar las condiciones que debe satisfacer la función g(x) de modo que el problema ( ux + 2xuy = αu + β u(x, 1) = g(x) tenga solución en R2 . Mostrar un ejemplo de g para el cual el problema no admita solución. Ejemplo 4.7. Consideremos la Ecuación lineal de transporte ut (x, t) + b · ∇u(x, t) = 0 en Rn × (0, ∞), (4.7) con b ∈ Rn constante1. Las características γ(s) son soluciones de (γx0 (s), γt0 (s)) = (b, 1), con lo que γ(s) = (sb + B, s + a) 1En (4.7) se usa, como es habitual, la convención de que los operadores diferenciales como ∇ actúan sólo sobre las coordenadas espaciales cuando la función depende de coordenadas espaciales y del tiempo, t. 1. MÉTODO DE LAS CURVAS CARACTERÍSTICAS 47 para a ∈ R y B ∈ Rn constantes. En particular, la característica que pasa por (x, t) cuando s = 0 es γ(s) = (sb + x, s + t). La Figura 4(a) muestra las curvas características. La solución restringida a una característica u˜(s) = u(γ(s)) satisface u˜0 (s) = 0 con lo que u(x, t) es constante sobre las características. En particular, dada una condición inicial u(x, 0) = g(x) ∀x ∈ Rn (4.8) vale u(x, t) = u(x − tb, 0) = g(x − tb) (4.9) con lo que (4.9) es la solución general del problema (4.7) con la condición inicial (4.8). Notemos que la solución (4.9) traslada el dato inicial en la dirección del vector b, que actúa de velocidad del desplazamiento (ver Figura 4(b)). t 1 b x (a) Vector velocidad y curvas características t t1 1 b x (b) Dato inicial a t = 0 y solución a t = t1 Figura 4.4. Curvas características del Ejemplo 4.7 con n = 1 Nota 4.8. Es claro que si el dato inicial g en (4.8) es C 1 (Rn ), la solución (4.9) admite derivadas y da una solución clásica de (4.7). Sin embargo, aún cuando g no sea derivable, parece razonable pensar que la fórmula (4.9) aún da una solución en algún sentido más general. Con las definiciones apropiadas se puede ver que este es un caso de solución débil de (4.7). Para más detalles ver la Nota 4.9. Nota 4.9. ♦ Soluciones débiles de (4.7) con la condición inicial (4.8). Como se observó en la Nota 4.8, cuando el dato inicial g en (4.8) no es diferenciable para algún x0 ∈ Rn , la solución u dada por (4.9) no es diferenciable sobre toda la región x0 = x − tb y, por tanto, dicha u no es una solución clásica del problema. Para entender qué clase de solución es, 48 4. ECUACIONES DE PRIMER ORDEN una posibilidad es modificar (extender) el problema dado, del siguiente modo. En lo que sigue y para simplificar la notación vamos a fijar n = 1. Si u es una solución clásica de (4.7) y φ es una función de prueba, es decir una función C ∞ (R2 ) y con soporte compacto (se anula fuera de una bola), entonces se tiene que Z 0= (ut (x, t) + bux (x, t))φ(x, t)dxdt 2 ZR Z Z Z = ( ut (x, t)φ(x, t)dt)dx + b ( ux (x, t)φ(x, t)dx)dt R R R R t=∞ Z Z Z − u(x, t)φt (x, t)dt dx = (u(x, t)φ(x, t) R R R t=−∞ x=∞ Z Z − u(x, t)φx (x, t)dx dt +b u(x, t)φ(x, t) x=−∞ R R de donde, usando que φ tiene soporte compacto (y por tanto se anula para |t| 0 o |x| 0), se obtiene que Z 0= u(x, t)(−φt (x, t) − bφx (x, t))dxdt (4.10) R2 para toda función de prueba φ. Cabe notar que por ser φ una función en C ∞ (R2 ) las derivadas que aparecen en (4.10) siempre tienen sentido. Por otro lado, en (4.10) u no aparece afectada por ninguna operación que requiera su diferenciabilidad. Por estos motivos se dice que una función (integrable) u es una solución débil de (4.7) si vale (4.10) para toda función de prueba φ. Es claro que si u es una solución clásica, entonces u es una solución débil, pero la recíproca no es cierta como veremos a continuación. Sean ( 1 si x ≥ 0 g(x) := 0 si x < 0. y u la función definida por (4.9), es decir ( 1 si x ≥ tb u(x, t) := 0 si x < tb. Es claro que u no es continua sobre la recta x = tb, de modo que no es una solución clásica de (4.7). Veamos que u satisface (4.10) y es, por lo tanto, una solución débil de dicha ecuación. Sea φ una función de prueba. Entonces Z Z Z u(−φt − bφx )dxdt = − u(x, t)φt (x, t)dxdt − b u(x, t)φx (x, t)dxdt R2 R2 R2 Z Z Z Z = − ( u(x, t)φt (x, t)dt)dx − b ( u(x, t)φx (x, t)dx)dt R R R R Z Z x Z Z x=+∞ b =− ( φt (x, t)dt)dx − b ( φx (x, t)dx)dt R t=−∞ R x=tb Z Z x = − φ(x, )dx + b φ(|{z} tb , t)dt b R R =y Z Z x y = − φ(x, )dx + φ(y, )dy b b R R = 0. 2. DATOS INICIALES 2. 49 Datos iniciales Un problema de gran importancia en el estudio de ecuaciones diferenciales es el de resolver una ecuación de orden k, con k − 1 derivadas de la solución fijadas en una hipersuperficie dada. Más en concreto se tiene la siguiente definición. Definición 4.10. Dada una ecuación diferencial de orden k definida en un abierto U ⊂ Rn , una hipersuperficie S ⊂ Rn con campo normal unitario ν : S → Rn y funciones gj : S → R para j = 0, . . . , k − 1, el Problema de Cauchy consiste en hallar una solución u de la ecuación de modo que ∂j u (x) = gj (x) ∂ν j donde se entiende que ∂0u ∂ν 0 para todo x ∈ S, = g0 . Por ejemplo, el Problema de Cauchy para la ecuación ordinaria u00 (x) − u(x) = 0 para x ∈ R con dato en S := {0} dado por g0 , g1 ∈ R es el problema de valores iniciales dado por ( u00 (x) − u(x) = 0 para x∈R 0 u(0) = g0 y u (0) = g1 . En lo que sigue vamos a estudiar el Problema de Cauchy para ecuaciones lineales de primer orden. En particular vamos a ver la relación entre S y la ecuación de modo que el problema pueda tener solución (local) única. Consideremos la ecuación lineal de primer orden (4.1) con dato inicial ( A1 (x)ux1 + · · · + An (x)uxn + B(x)u + C(x) = 0 ∀(x1 , . . . , xn−1 , xn ) ∈ Rn−1 × R>0 u(x1 , . . . , xn−1 , 0) = g(x1 , . . . , xn−1 ) ∀(x1 , . . . , xn−1 ) ∈ Rn−1 (4.11) Llamaremos S al hiperplano xn = 0, sobre el que está dada la condición inicial y U := Rn−1 × R>0 , de modo que S = ∂U , el borde de U . Si u es una solución analítica de (4.11) se puede escribir la serie de Taylor u(x) = ∞ X X k=0 {α:|α|=k} Dα u(x0 ) (x − x0 )α α! para cualquier x0 ∈ U y con radio de convergencia x0n (la distancia de x0 a S). Supongamos que u es analítica en U , con lo que es posible tomar x0 ∈ S y la serie tiene algún radio de convergencia positivo. En este caso vale u(x0 ) = u(x01 , . . . , x0n−1 , 0) = g(x˜0 ), donde x˜0 = (x01 , . . . , x0n−1 ) ∈ Rn−1 es el vector formado por las primeras n − 1 componentes de x0 . Del mismo modo, para j = 1, . . . , n − 1, uxj (x0 ) = ∂u 0 (x , . . . , x0n−1 , 0) = gxj (x˜0 ), ∂xj 1 es decir que tanto u como casi todas sus derivadas primeras quedan determinadas por el dato inicial g. Para hallar uxn (x0 ) hay que considerar la ecuación diferencial que satisface u, suponiendo que u la satisface aún en U . Reescribiendo la ecuación como An (x)uxn = −B(x)u − C(x) − A1 (x)ux1 − · · · − An−1 (x)uxn−1 , y evaluando en x0 se tiene An (x0 )uxn (x0 ) = −B(x0 )g(x˜0 ) − C(x0 ) − A1 (x0 )gx1 (x˜0 ) − · · · − An−1 (x0 )gxn−1 (x˜0 ). (4.12) 50 4. ECUACIONES DE PRIMER ORDEN Ahora bien, el lado derecho de (4.12) queda determinado por datos conocidos. Si An (x01 , . . . , x0n−1 , 0) 6= 0, (4.13) entonces es posible despejar uxn (x0 ) en términos de datos conocidos (los coeficientes de la ecuación y el dato de contorno). De este modo, el desarrollo de Taylor en x0 queda determinado, hasta el primer orden, por los datos. Es claro que este argumento se puede aplicar nuevamente para las derivadas de orden superior permitiendo la caracterización de todas las derivadas de u en x0 en términos de los datos del problema. Es posible estudiar la convergencia de la serie obtenida y usar este argumento para demostrar la existencia de solución de (4.11) en un entorno de S. Más allá de la existencia de solución, el argumento muestra que hay, a lo más, una solución analítica de (4.11). El paso crucial en el razonamiento anterior es la condición (4.13). Si esta condición falla no es posible determinar las derivadas “normales” de u sobre S (en este caso uxn , ver (3.1)) y, por tanto, determinar el comportamiento de u fuera de esta zona. Desde el punto de vista de las curvas características, la condición (4.13) dice que toda curva característica que pasa por (x01 , . . . , x0n−1 , 0) es transversal a S (es decir, su tangente no esta contenida en el espacio tangente a S). Por esto se dice que cuando vale (4.13) S es una hipersuperficie no característica, mientras que si no vale, S es llamada característica. Hemos visto, pues, que el Problema de Cauchy para S = {x ∈ Rn : xn = 0} tiene, a lo sumo, una solución analítica si S es no característica. Más en general, la condición inicial de (4.1) está dada sobre la hipersuperficie S := {x ∈ Rn : f (x) = 0} (4.14) 1 para alguna f : Rn → R, de modo que ν := |∇f ∇f es un campo unitario normal a S. En | este caso, si u es una solución analítica aún en S se tiene que para x0 ∈ S, ∇u(x0 ) = (∇u)t + (∇u)n , (4.15) donde (∇u)t es la componente del gradiente de u tangente a S (es decir que ∇f ·(∇u)t = 0) ∇f y (∇u)n es la componente del gradiente normal a S (es decir que (∇u)n = ∂u , para ∂ν |∇f | ∂u la derivada normal definida en (3.1)). Se puede ver que (∇u)t queda completamente ∂ν determinada por g. Por lo tanto, para calcular ∇u(x0 ) hay que hallar ∂u . Usando la ∂ν ecuación diferencial escrita vectorialmente como A(x) · ∇u = −B(x)u − C(x) y la descomposición (4.15) se tiene −B(x0 )u(x0 ) − C(x0 ) = A(x0 ) · ∇u(x0 ) = A(x0 ) · (∇u)t + A(x0 ) · (∇u)n y, por tanto, A(x0 ) · (∇u)n = −B(x0 )u(x0 ) − C(x0 ) − A(x0 ) · (∇u)t . ∇f Recordando que (∇u)n = ∂u se obtiene ∂ν |∇f | ∂u A(x0 ) · ∇f = |∇f |(−B(x0 )u(x0 ) − C(x0 ) − A(x0 ) · (∇u)t ). ∂ν Si A(x0 ) · ∇f (x0 ) = n X Aj (x0 )fxj (x0 ) 6= 0 ∀x0 ∈ S (4.16) (4.17) j=1 ∂u ∂ν queda determinada por (4.16) en términos de los datos de la ecuación y la entonces condición inicial. Se puede probar que todas las derivadas superiores de u pueden ser halladas del mismo modo siempre que se mantenga la condición (4.17), que se reduce a la condición (4.13) cuando f (x) = xn , es decir, cuando S := {x ∈ Rn : xn = 0}, que es el 2. DATOS INICIALES 51 caso analizado antes. Se dice que S es no característica dependiendo de si (4.17) vale o no. Igual que antes, si S es no característica, se puede ver que hay a lo más una solución analítica del problema de valores iniciales. Ejemplo 4.11. En las condiciones del Ejemplo 4.2, si se da una condición inicial sobre S definida por f (x, y) = y − x2 = 0, la condición de ser no característica (4.17) es 1 · (−2x) + 2x · 1 6= 0 que no vale en ningún punto de S, que resulta ser una hipersuperficie (curva, en este caso) característica del problema. Esto coincide con la observación sobre la imposibilidad de extender un dato inicial sobre una curva característica hecha en la Nota 4.5. Más en general, el argumento anterior se puede aplicar a ecuaciones de orden mayor. En el caso de ecuaciones lineales de orden 2 n n X X ∂ 2u ∂u + + C(x)u = D(x) Ajk (x) Bj (x) ∂xj ∂xk j=1 ∂xj j,k=1 con condición inicial u y ∇u dadas sobre S como en (4.14), la condición de S no característica es n X Ajk (x)νj νk 6= 0 ∀x ∈ S, (4.18) j,k=1 donde ∇f (x) . |∇f (x)| es un campo unitario normal a S. La condición (4.18) se deduce de que n n X X ∂ 2u ∂ 2u Ajk (x) Ajk (x)νj νk + T (x) = 2 ∂x ∂ν j ∂xk j,k=1 j,k=1 ν = (ν1 , . . . , νn ) = 2 donde ∂∂νu2 es la derivada normal de u con respecto a ν y T (x) está determinado por u y ∇u en S, es decir, por los valores de contorno y la ecuación dados. 5 Ecuaciones de Segundo Orden Las ecuaciones de segundo orden son las ecuaciones más comunes de la física matemática, comenzando por la famosa Ley de Newton1: F = m¨ x. Si bien hay muchas ecuaciones de interés que son no lineales, en estas notas nos restringiremos a considerar ecuaciones lineales, es decir aquellas de la forma L(u)(x) = D(x) con n n X X ∂ 2u ∂u Ajk (x) L(u) := + Bj (x) + C(x)u ∂x ∂x j ∂xk j j=1 j,k=1 con alguno de los coeficientes Ajk 6= 0. Se define la matriz A de modo que su coeficiente (A)jk es Ajk . Por simplicidad nos restringiremos al caso en que Ajk , Bj y C toman sólo valores reales. Vale la pena notar que la matriz A se puede suponer simétrica ya que si no lo fuese se la puede reemplazar por A˜ = 21 (A + At ) puesto que n X ∂ 2u ∂ 2u A˜jk = . Ajk ∂xj ∂xk j,k=1 ∂xj ∂xk j,k=1 n X Consideremos que A es constante. En este caso, las derivadas segundas n X ∂ 2u L2 (u) := Ajk ∂xj ∂xk j,k=1 admiten una escritura muy conveniente: L2 = hA∂x , ∂x i = (A∂x )t ∂x donde h, i es el producto interno usual en Rn y ∂ x1 ∂x := ... ∂xn Esto es así ya que n n X n n X X X hA∂x , ∂x i = (A∂x )k (∂x )k = Akj ∂xj ∂xk = Ajk ∂xj ∂xk = L2 . k=1 j=1 k=1 1Isaac j,k=1 Newton (1642-1727): físico, matemático y alquimista inglés reconocido por su enormes contribuciones a la Física (Leyes de Newton, gravitación, Óptica) y la Matemática (Cálculo diferencial e integral). 53 54 5. ECUACIONES DE SEGUNDO ORDEN Ahora bien, para estudiar la ecuación L2 (u) = 0 trataremos de simplificarla de algún modo. Una manera es proponiendo un cambio de variable independiente. Dado que un cambio de variable a través de una función no lineal hace perder la condición de que la ecuación tenga coeficientes constantes, consideraremos sólo cambios lineales de coordenadas, es decir, pasemos de la variable x a y = Gx con G ∈ Rn×n invertible. Como x = G−1 y, se tiene n X xj = (G−1 )jk yk . k=1 Entonces n n n n X ∂u ∂xj X ∂u ∂u = = G−1 j1 ∂y1 ∂x ∂y ∂x j 1 j j=1 j=1 .. . X ∂u ∂xj X ∂u ∂u = = G−1 ∂yn ∂xj ∂yn ∂xj jn j=1 j=1 o, formalmente, t ∂y = (G−1 ) ∂x ó ∂x = Gt ∂y . Volviendo a L2 L2 = hA∂x , ∂x i = hAGt ∂y , Gt ∂y i = hGAGt ∂y , ∂y i. (5.1) donde, la ultima igualdad se puede ver como t t hAGt ∂y , Gt ∂y i = (AGt ∂y ) (Gt ∂y ) = (G(AGt ∂y )) ∂y = hGAGt ∂y , ∂y i. Por (5.1), la matriz de L2 respecto de las coordenadas y, Ay , es Ay = GAx Gt . (5.2) Ahora recordamos un resultado de álgebra lineal Proposición 5.1. Toda matriz simétrica A ∈ Mn×n (R) posee una base de autovectores ortonormales respecto del producto interno usual en Rn . Como Ax es simétrica, se puede aplicar el resultado anterior. Sea C la matriz cuyas columnas son los autovectores de la base, de modo que C −1 Ax C es la matriz diagonal cuyas componentes en la diagonal son los autovalores de Ax . Se puede suponer que los autovectores de la base están ordenados de modo que las primeras componentes de la diagonal sean > 0, las siguientes < 0 y las últimas nulas. A continuación se define G := C t = C −1 , ya que C es una matriz ortogonal. De este modo se tiene que Ay = GAx Gt = C −1 Ax C es una matriz diagonal con los autovalores de Ax en la diagonal. En conclusión, es posible construir un cambio lineal de coordenadas en las variables independientes de modo que en las nuevas variables la matriz de coeficientes es una matriz diagonal. Aún es posible hacer otra simplificación. Si A es una matriz diagonal, escribamos Ajj = j rj2 con j = 0, 1, −1 según si Ajj es nulo, positivo o negativo. En estos dos últimos casos, rj2 = |Ajj | y, si j = 0, rj := 1. El cambio de variables zj = r1j yj lleva a ∂ yj = 1 ∂z rj j 5. ECUACIONES DE SEGUNDO ORDEN 55 con lo que n X n n n 2 2 X X X ∂2 ∂2 2 ∂ 2 1 ∂ L2 = Ajj 2 = j rj 2 = j rj 2 2 = j 2 . ∂yj ∂yj rj ∂zj ∂zj j=1 j=1 j=1 j=1 En total tenemos P 2 Proposición 5.2. El operador L2 := nj,k=1 Ajk ∂x∂j ∂xk puede ser transformado mediante un cambio lineal de variables independientes en un operador de la forma r+ r− X X ∂2 ∂2 − 2 ∂zj2 j=1 ∂zj+r + j=1 donde r+ y r− son los números de autovalores positivos y negativos de A respectivamente. Es práctica común decir que una ecuación de segundo orden es elíptica si r+ = n ó r− = n, hiperbólica si no es elíptica pero n = r+ + r− y parabólica si n > r+ + r− . Ejercicio 5.3. Estudiar las curvas características en R2 para ecuaciones elípticas, hiperbólicas y parabólicas. ¿Puede decir qué ocurre en Rn ? Proposición 5.4. Dada la ecuación n X n X ∂ 2u ∂u Ajk L(u) := + Bj + Cu = 0 ∂xj ∂xk j=1 ∂xj j,k=1 (5.3) con A, B y C constantes, su conjunto de soluciones es isomorfo al de la ecuación r+ r− n−r+ −r− X X ∂ 2v X ∂ 2v ∂v − + βj + γv = 0 2 2 ∂wj ∂wj+r+ ∂wj+r+ +r− j=1 j=1 j=1 (5.4) donde βj = 0, 1, γ es constante y r+ y r− son los números de autovalores positivos y negativos de la matriz de coeficientes A. Demostración. Por la Proposición 5.2, mediante un cambio lineal de variables la ecuación (5.3) se convierte en r+ X ∂ 2u j=1 r− n X X ∂ 2u ∂u − + Bj0 + C 0 u = 0. 2 2 ∂zj ∂zj+r+ j=1 ∂zj j=1 Es más conveniente reescribir esto como n X n ∂ 2 u X 0 ∂u Bj + C 0u = 0 j 2 + ∂z ∂z j j j=1 j=1 con j = 0, 1, −1 según corresponda. Ahora proponemos Pn u(z) = e j=1 αj zj v(z) = eα·z v(z) y se ve que v satisface n X n n X ∂ 2v X 0 ∂v j 2 + (2j αj + Bj ) + ( (j αj2 + Bj0 αj ) + C)v = 0. ∂z ∂z j j j=1 j=1 j=1 56 5. ECUACIONES DE SEGUNDO ORDEN ∂v Es claro que en esta última ecuación es posible anular los coeficientes de ∂z con j = j −1 0 1, . . . , r+ + r− definiendo αj = 2j Bj . Con esta elección v satisface la ecuación r+ +r− X j=1 n X ∂ 2u j 2 + ∂zj j=r +r Bj0 − +1 + ∂u + C 00 u = 0 ∂zj Ahora podemos normalizar los coeficientes Bj0 6= 0 mediante el cambio de variable independiente wj = B10 zj (y wj = zj si j 6= 0), lo que finalmente lleva a que v satisface (5.4). j Es claro que el proceso es reversible y que toda solución v da origen a una solución u de (5.3). Ejemplo 5.5. La Proposición 5.4 dice que las soluciones de toda ecuación lineal de segundo orden en dos variables y con coeficientes constantes se corresponde con el conjunto de soluciones de exactamente una de las siguientes ecuaciones: uxx + uyy + γu = 0 uxx − uyy + γu = 0 uxx + uy + γu = 0 uxx + γu = 0 con γ constante. En los casos γ = 0 estas son ecuaciones bien conocidas: la ecuación elíptica, de ondas y del calor2. La cuarta es una ecuación ordinaria y por lo tanto no es de interés para el tema que estamos tratando aquí. Ejemplo 5.6. Queremos estudiar la “forma normal” dada por la Proposición 5.4 a la ecuación 3ux1 x1 + 10ux1 x2 + 3ux2 x2 − 2ux2 = 0. El primer paso es estudiar la parte puramente de segundo orden L2 (u) = 3ux1 x1 + 10ux1 x2 + 3ux2 x2 que tiene por matriz de coeficientes A := 3 5 5 3 . Los autovectores ortonormales de A son 1 1 1 1 √ y √ 2 1 2 −1 que tienen autovalores 8 y −2 respectivamente, con lo que vemos que la parte de orden 2 corresponde a una ecuación de onda. Conocidos los autovectores de A se define 1 1 1 C := √ y G := C t = C. 1 −1 2 De este modo, definiendo las nuevas variables y = Gx, es decir, y1 := y2 := √12 (x1 − x2 ) se tiene L2 (u) = 8uy1 y1 − 2uy2 y2 . 2La √1 (x1 2 + x2 ) e forma usual de escribir la ecuación del calor es uxx − ut = 0, que corresponde a un cambio lineal de variables, como se vio en la Proposición 5.4. Este cambio no es enteramente trivial en este caso ya que habitualmente se estudia esta ecuación cuando y > 0 y el cambio de variables necesario para cambiar el signo del coeficiente justamente convierte esta región en y < 0. 5. ECUACIONES DE SEGUNDO ORDEN El nuevo cambio z1 := √1 y1 8 y z2 := √1 y2 2 57 reduce la parte cuadrática a L2 (u) = uz1 z1 − uz2 z2 . Para volver al estudio de la ecuación completa vemos como afectan los cambios de variables realizados hasta acá al término de primer orden: ∂y1 ∂y2 1 1 1 1 1 1 ux2 = uy1 + uy2 = √ (uy1 − uy2 ) = √ ( √ uz1 − √ uz2 ) = uz1 − uz2 , ∂x2 ∂x2 4 2 2 2 8 2 con lo que la ecuación original se escribe, en términos de z1 y z2 como 1 uz1 z1 − uz2 z2 − uz1 + uz2 = 0. 2 Ahora proponemos u(z1 , z2 ) = eα1 z1 +α2 z2 v(z1 , z2 ). Se ve que v satisface: 1 1 vz1 z1 − vz2 z2 + (2α1 − )vz1 + (−2α2 + 1)vz2 + (α12 − α22 − α1 + α2 )v = 0. 2 2 Por tanto, para escribir la ecuación original en forma normal hay que tomar α1 = 41 y α2 = 21 . Finalmente, la forma normal de la ecuación es 3 vz1 z1 − vz2 z2 + v = 0. 16 6 Ecuación de onda 1. Generalidades La ecuación de onda es la ecuación utt (x, t) − ∆u(x, t) = 0 en U × (0, +∞), (6.1) donde U ⊂ Rn es un conjunto abierto. Usualmente se ponen condiciones de contorno, sobre el comportamiento de la solución en ∂U × (0, +∞) y sobre sus valores iniciales cuando t = 0. En la literatura aparece el operador Dalembertiano ∂2 −∆ ∂t2 con lo que la ecuación de onda se convierte en u = 0. Es habitual encontrar la ecuación de onda escrita como := utt (x, t) − c2 ∆u(x, t) = 0. (6.2) Es práctica común en matemática tratar de eliminar todas las constantes posibles. En este caso, mediante el cambio de variables s = ct se obtiene la ecuación de onda usual uss (x, s) − ∆u(x, s) = 0. En lo que sigue veremos distintas maneras de resolver la ecuación de onda, con distintas condiciones de contorno. Una particularidad a tener en cuenta para esta ecuación es que el comportamiento de sus soluciones depende fuertemente de la dimensión n del espacio, como discutiremos más adelante. Se sugiere al lector consultar el comienzo del Capítulo 1 del libro de Weinberger [6] para ver como aparece la ecuación de onda como modelo de diferentes fenómenos físicos. 2. Ecuación de onda en n = 1 La ecuación de onda es, en este caso, utt (x, t) − uxx (x, t) = 0. Vamos a buscar su solución en R × (0, +∞). Ejercicio 6.1. Probar que, mediante el cambio de variables ξ = x + t y η = x − t, la ecuación utt (x, t) − uxx (x, t) = 0 (6.3) se convierte en la ecuación u˜ξη = 0, (6.4) donde u˜(ξ, η) := u( 12 (ξ + η), 12 (ξ − η)). 59 60 6. ECUACIÓN DE ONDA Por el Ejercicio 6.1, para resolver (6.3), alcanza con resolver (6.4). Esta última ecuación se resuelve directamente integrando en una de las variables y luego en la otra, (en una región conexa): u˜(ξ, η) = α(ξ) + β(η) con α y β funciones arbitrarias. Volviendo a las coordenadas (x, t) tenemos u(x, t) = u˜(x + t, x − t) = α(x + t) + β(x − t). (6.5) Notemos que la dependencia funcional x + t significa que α(x + t) es constante sobre las rectas x + t = constante (¿quienes son estas rectas?). Lo mismo ocurre para β(x − t) en x − t = constante. Apliquemos esto a resolver el problema de Cauchy utt (x, t) − uxx (x, t) = 0 en R × (0, +∞) (6.6) u(x, 0) = g(x) u (x, 0) = h(x). t Evaluando (6.5) y su derivada respecto de t en t = 0 se obtienen u(x, 0) = α(x) + β(x) = g(x) y ut (x, 0) = α0 (x) − β 0 (x) = h(x) y, derivando la primera respecto de x, α0 (x) + β 0 (x) = g 0 (x) con lo que tenemos un sistema de dos ecuaciones con dos incógnitas para α0 y β 0 . Su solución es g 0 (x) + h(x) g 0 (x) − h(x) α0 (x) = y β 0 (x) = . 2 2 Integrando entre 0 y x se obtiene Z Z 1 x 0 1 1 x α(x) = α(0) + (g (s) + h(s))ds = α(0) + (g(x) − g(0)) + h(s)ds 2 0 2 2 0 Z Z 1 x 0 1 1 x β(x) = β(0) + (g (s) − h(s))ds = β(0) + (g(x) − g(0)) − h(s)ds. 2 0 2 2 0 Con esto volvemos a (6.5) para obtener la fórmula conocida como fórmula de D’Alembert 1 Z g(x + t) + g(x − t) 1 x+t u(x, t) = + h(s)ds (6.7) 2 2 x−t donde usamos que α(0) + β(0) − g(0) = 0. Nota 6.2. La lógica de nuestro razonamiento hasta aquí fue así: si hay una solución u con suficiente regularidad (es decir, suficientemente derivable), entonces u tiene que estar dada por (6.7). Sin embargo, esto no demuestra que la ecuación tenga solución. En todo caso, la fórmula (6.7) nos da un candidato a solución. Es decir, dadas g y h, definimos u(x, t) por (6.7). El siguiente resultado muestra que esta idea es acertada. Proposición 6.3. Sean g ∈ C 2 (R) y h ∈ C 1 (R). Definiendo u mediante (6.7) se verifica que u(x, t) ∈ C 2 (R2 ). utt − uxx = 0 en R2 . u se aproxima a los valores iniciales con continuidad, es decir l´ımt→0 u(x, t) = g(x) y l´ımt→0 ut (x, t) = h(x). 1Jean le Rond d’Alembert (171-1783): matemático y filósofo francés, recordado por su trabajo en Mecánica, Dinámica de Fluidos y el uso de las ecuaciones en derivadas parciales en problemas de Física. 2. ECUACIÓN DE ONDA EN n = 1 61 R x+t Demostración. Notamos que, por ser h continua en R, x−t h(s)ds está definida para todo x, t ∈ R. Del mismo modo, estando g definida en R, g(x+t)+g(x−t) también está 2 definida para todo x, t ∈ R. Usando el Teorema Fundamental del Cálculo tenemos que g 0 (x + t) + g 0 (x − t) h(x + t) − h(x − t) + , 2 2 g 0 (x + t) − g 0 (x − t) h(x + t) + h(x − t) + . ut (x, t) = 2 2 Derivando nuevamente obtenemos g 00 (x + t) + g 00 (x − t) h0 (x + t) − h0 (x − t) uxx (x, t) = + , 2 2 g 00 (x + t) − g 00 (x − t) h0 (x + t) + h0 (x − t) + = uxt (x, t), utx (x, t) = 2 2 g 00 (x + t) + g 00 (x − t) h0 (x + t) − h0 (x − t) utt (x, t) = + . 2 2 ux (x, t) = Como g ∈ C 2 (R) y h ∈ C 1 (R) por hipótesis, los cálculos anteriores muestran que u ∈ C 2 (R2 ) y que utt (x, t) − uxx (x, t) = 0 para todo (x, t) ∈ R2 . Por otro lado, Z x+t g(x + t) + g(x − t) 1 h(s)ds = g(x) + 0 = g(x), l´ım u(x, t) = l´ım + l´ım t→0 t→0 t→0 2 2 x−t donde el primer límite se sigue de la continuidad de g y el segundo de que la integral de una función (integrable, por ser continua) tiende a 0 cuando el intervalo de integración tiene longitud → 0. Finalmente, g 0 (x + t) − g 0 (x − t) h(x + t) + h(x − t) + l´ım = 0 + h(x) = h(x), t→0 t→0 t→0 2 2 debido a la continuidad de g 0 y h. l´ım ut (x, t) = l´ım Nota 6.4. Una aplicación directa de la fórmula de D’Alembert (6.7) nos permite entender como se propagan los datos iniciales en el espacio y tiempo: para (x, t) fijo, el valor de u(x, t) depende sólo de los valores de g(x − t), g(x + t) y de los de h sobre el segmento que une a x − t con x + t. Cualquier cambio de las funciones g y h fuera de este segmento no afecta el valor de la solución en (x, t). Todo cambio fuera de esta región afectará, si, el valor de la solución en x, pero a un tiempo mayor. Por ejemplo, si el dato inicial es h = 0 y g es un pulso concentrado en x = 0 (por ejemplo, g(x) := exp(−100x2 )), se ve que el pulso recién es detectado en x > 0 cuando t ∼ x. Es decir que la perturbación inicial, concentrada en el origen, se propaga en dirección positiva y negativa con velocidad 1. Si hubiésemos partido de (6.2) en vez de (6.1), hubiésemos obtenido propagación con velocidad c. En todo caso, la ecuación de onda presenta propagación del dato inicial con velocidad finita. Estas observaciones motivan la noción de dominio de dependencia de (x, t), la región de la curva inicial que puede afectar el valor de u(x, t), y de dominio de influencia de (x0 , 0), que es el cono infinito con vértice en (x0 , 0) formado por los puntos (x, t) que pueden ser influenciados por el valor del dato inicial en (x0 , 0). Ver Figura 6.1. Los siguientes ejemplos muestran como en muchos casos es posible usar la solución de D’alembert con otros tipos de dominios. 62 6. ECUACIÓN DE ONDA t t (x, t) x−t x+t (a) dominio de dependencia (x0 , 0) x x (b) dominio de influencia Figura 6.1. Dominios de dependencia e influencia Ejemplo 6.5. Queremos resolver el siguiente problema en el primer cuadrante: utt − uxx = 0 en R>0 × (0, +∞) (6.8) u(x, 0) = g(x), ut (x, 0) = h(x) para x > 0 u(0, t) = 0 para t > 0 La idea es pasar del problema dado, en la semirrecta a otro problema con dominio en todo R, para así poder usar (6.7) para solucionarlo. El primer paso es buscar soluciones a la ecuación de onda sobre R × (0, +∞). El problema con esto es que hay que hallar condiciones de contorno adecuadas. Para esto podemos extender g(x) y h(x) a toda la recta. Sin embargo, esto hay que hacerlo cuidadosamente ya que la solución tiene que satisfacer la condición u(0, t) = 0. Para conseguir esto vamos a extender ambas funciones de manera impar, es decir, definimos ( ( g(x) si x ≥ 0 h(x) si x ≥ 0 ˜ g˜(x) = y h(x) = −g(−x) si x ≤ 0 −h(−x) si x ≤ 0 Ahora buscamos soluciones del problema ( utt − uxx = 0 en R × (0, +∞) ˜ u(x, 0) = g˜(x), ut (x, 0) = h(x) para x∈R ˜ tienen las mismas derivadas que g y h salvo, eventualmente en x = 0. Cabe notar que g˜ y h Esto puede llevar a alguna falta de regularidad en la solución hallada por D’Alembert. Más allá de esta observación, la fórmula (6.7) provee un candidato a solución: Z g˜(x + t) + g˜(x − t) 1 x+t ˜ u(x, t) = + h(s)ds, (6.9) 2 2 x−t que podemos reescribir para (x, t) ∈ R>0 × (0, +∞) como ( R x+t g(x+t)+g(x−t) + 12 x−t h(s)ds si x ≥ t ≥ 0 2 u(x, t) = g(x+t)−g(t−x) 1 R x+t (6.10) + 2 −x+t h(s)ds si t ≥ x ≥ 0 2 Rt g (−t) ˜ Notemos que de (6.9) sale que u(0, t) = g˜(t)+˜ + 12 −t h(s)ds = 0 debido a la paridad 2 ˜ Es fácil ver que (6.10) provee una solución del problema (6.8). de g˜ y h. Nota 6.6. En el problema (6.8), si h(x) = 0 para todo x, la Figura 6.2 muestra la evolución del dato inicial impar, g˜ para distintos valores de t. La restricción de esta 2. ECUACIÓN DE ONDA EN n = 1 1 1 1 1 y 0.5 y 0.5 y 0.5 y 0.5 0 -10 63 -5 0 0 5 10 -10 -5 0 0 5 x 10 -10 -5 0 0 5 x 10 -10 -5 0 -0.5 -0.5 -0.5 -1 -1 -1 -1 (b) t = 2.9 10 x -0.5 (a) t = 1 5 x (c) t = 3.1 (d) t = 4 Figura 6.2. Propagación de una onda en una semirrecta (interpretación sobre toda la recta) 0.8 0.8 y 0.8 y 0.4 0.4 0 2 4 6 8 10 -0.4 2 4 6 8 10 0 0 x -0.4 (a) t = 1 0.4 0 0 x y 0.4 0 0 0.8 y 2 4 6 -0.4 (b) t = 2.9 8 10 0 x 2 4 6 8 10 x -0.4 (c) t = 3.1 (d) t = 4 Figura 6.3. Propagación de una onda en una semirrecta (interpretación sobre la semirrecta) evolución a la semirrecta x > 0 se ve en la Figura 6.3, que se puede interpretar del modo siguiente. En principio g se divide en dos partes iguales, “ondas”, cada una de las cuales viaja a derecha o izquierda con velocidad 1. La parte que viaja a la derecha continúa viajando sin cambios. La onda que viaja a la izquierda, sin embargo, al llegar al extremo (x = 0) presenta una inversión y cambia su dirección. En resumen, se comporta como si se reflejase contra el extremo fijo x = 0. Ejercicio 6.7. Sea f : R → R una función 2L-periódica y tal que f (−x) = −f (x) para todo x ∈ [−L, L]. Probar que f es una función impar y que f (L + x) = −f (L − x) para todo x ∈ R. Ejemplo 6.8. Queremos resolver la ecuación de onda sobre un intervalo finito utt − uxx = 0 para (x, t) ∈ (0, L) × (0, +∞) (6.11) u(x, 0) = g(x), ut (x, 0) = h(x) si x ∈ (0, L) u(0, t) = u(L, t) = 0 para todo t > 0. Al igual que antes, vamos a convertir este problema en un problema sobre toda la recta para poder aplicar la solución de D’Alembert. Al igual que en el Ejemplo 6.5, conviene extender usando prolongaciones impares a fin de asegurar las condiciones nulas de contorno. Sin embargo, esta vez es necesario, también, extender de manera impar con respecto al extremo derecho del intervalo, x = L. Para conseguir ambas cosas vamos a prolongar pri˜ como la extensión mero g y h al intervalo [−L, L] de manera impar, luego definimos g˜ y h 2L periódica de esas funciones a todo R (ver Ejercicio 6.7). Para estos datos de contorno 64 6. ECUACIÓN DE ONDA se resuelve el problema ( utt − uxx = 0 en R × (0, +∞) ˜ u(x, 0) = g˜(x), ut (x, 0) = h(x) para x∈R y la restricción del resultado a (0, L) es la solución buscada. Verifiquemos que valen las dos ˜ son impares condiciones verticales de contorno. Por construcción y el Ejercicio 6.7, g˜ y h e “impares respecto de L”, de donde la fórmula (6.7) muestra que u(0, t) = 0 = u(L, t) para todo t. En particular, si h(x) = 0 y g(x) = sin(k Lπ x) para algún k ∈ N, se tiene g˜(x) = sin(k Lπ x) con lo que u(x, t) = 12 (sin(k Lπ (x − t)) + sin(k Lπ (x + t))). Más en general, para una g arbitraria esto mismo se puede repetir usando series de Fourier. Notar que en este caso, la técnica de las series de Fourier de senos sirve para construir las extensiones impares y periódicas buscadas. Ejemplo 6.9. Queremos resolver nuevamente la ecuación de onda sobre un intervalo finito utt − uxx = 0 para (x, t) ∈ (0, L) × (0, +∞) (6.12) u(x, 0) = g(x), ut (x, 0) = h(x) si x ∈ (0, L) u(0, t) = u(L, t) = 0 para todo t > 0. Esta vez usaremos la técnica de separación de variables. Describiremos esta solución brevemente puesto que ideas muy similares ya fueron discutidas en el Capítulo 1. Se buscan soluciones de la forma u(x, t) = X(x)T (t). La sustitución de esta forma en la ecuación arroja las condiciones X 00 − λX = 0 y T 00 − λT = 0 para alguna constante λ ∈ R y con las condiciones X(0) = X(L) = 0. De la ecuación para X y las condiciones de contorno sale que λ = −( kπ )2 con k ∈ N y L X(x) = Ck sin(k Lπ x). De modo análogo, T (t) = Ak cos(k Lπ t) + Bk sin(k Lπ t). Todo junto: π π π u(x, t) = sin(k x)(Ak cos(k t) + Bk sin(k t)) L L L Para poder satisfacer las condiciones de contorno se toman combinaciones lineales de la forma ∞ X π π π u(x, t) = sin(k x)(Ak cos(k t) + Bk sin(k t)). L L L k=1 Las condiciones de contorno arrojan u(x, 0) = ∞ X π sin(k x)Ak = g(x) L k=1 y ut (x, 0) = ∞ X π π sin(k x)k Bk = h(x) L L k=1 con lo que si g(x) = ∞ X π gk sin(k x) L k=1 y h(x) = ∞ X π hk sin(k x) L k=1 2. ECUACIÓN DE ONDA EN n = 1 entonces valen Ak = gk y Bk = 65 L hk . kπ Todo junto, la solución propuesta es ∞ X π L π π hk sin(k t)). u(x, t) = sin(k x)(gk cos(k t) + L L kπ L k=1 Resta verificar que es posible derivar esta serie dos veces término a término para que sea solución del problema dado, cosa que se deja como ejercicio para el lector. Hemos visto como la solución de D’Alembert para el problema (6.6) puede usarse para resolver problemas con condiciones iniciales en subconjuntos de R (una semirrecta, un segmento) mediante la elección adecuada de extensiones de los datos iniciales a toda la recta. El Ejercicio siguiente es una muestra más de estas ideas. Ejercicio 6.10. Sea el problema de frontera libre: utt − uxx = 0 en (0, L) × (0, +∞) para 0≤x≤L u(x, 0) = g(x) ut (x, 0) = 0 para 0≤x≤L u(L, t) = 0 para t≥0 ux (0, t) = 0 para t≥0 1. Para el caso en que g(x) esta concentrada en un entorno de x0 , hallar u(x, t) para t pequeño. 2. ¿Para qué valor de t se produce reflexión en x = 0? ¿Cómo es la onda reflejada? Ahora vamos a considerar la ecuación de ondas no homogénea utt (x, t) − uxx (x, t) = f (x, t) (6.13) en una región U ⊂ R2 . Comenzamos por recordar un resultado de cálculo vectorial: Teorema 6.11 (Teorema de Green). Sea D ⊂ R2 una región acotada que es unión de regiones simples, cada una de las cuales tiene por borde una curva suave a trozos. Si F1 , F2 ∈ C 1 (D) y γ := ∂D con su orientación positiva, entonces Z Z ∂F2 ∂F1 − dx1 dx2 = F1 dx1 + F2 dx2 . ∂x1 ∂x2 D γ Si u es una solución de (6.13) y D es una región como la descripta en la Figura 6.4, donde γ1 y γ2 son características (x ± t = constante) y γ3 es una curva suave a trozos que (x, t) γ2 D (x2 , t2 ) γ1 (x1 , t1 ) γ3 Figura 6.4. Región de integración para la ecuación de onda no homogénea une los extremos de γ1 y γ2 , tenemos: Z Z Z (−ux dt − ut dx) = (−uxx + utt )dxdt = f (x, t)dxdt. γ D D (6.14) 66 6. ECUACIÓN DE ONDA Por otro lado, sobre γ1 y γ2 vale dt = ±dx con lo que Z Z Z (−ux dt − ut dx) = (ux dx + ut dt) = du = u(x, t) − u(x1 , t1 ) γ1 γ1 γ1 Z Z Z (−ux dt − ut dx) = (−ux dx − ut dt) = − du = u(x, t) − u(x2 , t2 ) γ2 γ2 γ2 Con esto (6.14) se convierte en Z 2u(x, t) − u(x1 , t1 ) − u(x2 , t2 ) − Z (ux dt + ut dx) = f (x, t)dxdt, γ3 D o sea que u(x1 , t1 ) + u(x2 , t2 ) 1 u(x, t) = + 2 2 Z 1 (ux dt + ut dx) + 2 γ3 Z f (x, t)dxdt. (6.15) D La utilidad de (6.15) viene de que si se conoce u y sus derivadas sobre γ3 entonces es posible calcular u(x, t). Como aplicación de estas ideas podemos resolver el problema ( utt (x, t) − uxx (x, t) = f (x, t) con (x, t) ∈ R × (0, +∞) (6.16) u(x, 0) = g(x), ut (x, 0) = h(x). Una aplicación directa de (6.15) al caso en que γ3 ⊂ R × {0} da Z Z 1 g(x + t) + g(x − t) 1 x+t + f (x, t)dxdt, u(x, t) = h(s)ds + 2 2 x−t 2 D (6.17) donde D es el triángulo de vértices (x, t), (x − t, 0) y (x + t, 0). En particular, para el caso f = 0, se recupera la solución de D’Alembert (6.7). Nota 6.12. Al igual que para la fórmula de D’Alembert (6.7), la fórmula (6.17) solamente da una caracterización de la solución en caso que esta exista. Sin embargo, es fácil ver que tomando (6.17) como definición, la función obtenida es realmente solución de (6.16). El siguiente Ejemplo muestra como aplicar la solución dada por (6.17) a una ecuación de ondas en una semirrecta. Ejemplo 6.13. El problema utt (x, t) − uxx (x, t) = f (t) en 0 < x < ∞, t > 0 u(x, 0) = u (x, 0) = 0 en 0 < x < ∞ t u(0, t) = 0 para t > 0 f (t) = cos(ωt) intentamos transformarlo en un problema para todo x ∈ R eligiendo las extensiones de los datos de manera que el resultado satisfaga la condición de contorno en x = 0 automáticamente, como en el Ejemplo 6.5. La solución del problema (6.16) con dato inicial g(x) = h(x) = 0 para todo x ∈ R se obtiene de (6.17): Z 1 u(x, t) = f (t)dxdt (6.18) 2 D donde D es el triángulo de vértices (x, t), (x − t, 0) y (x + t, 0). Cuando x = 0, el triángulo es simétrico respecto del eje t, con lo que alcanza que f sea una función impar de x para que la integral se anule y valga u(0, t) = 0 para todo t > 0 como demanda el problema. 2. ECUACIÓN DE ONDA EN n = 1 67 Por esto extendemos f de manera impar (en x) a todo x ∈ R. Denotando con f˜ a esta extensión se puede escribir f˜(x, t) := σ(x)f (t), donde si x>0 1 σ(x) := −1 si x<0 0 si x=0 es la función signo de x. Con esto, podemos evaluar (6.18): Z x+t−τ Z Z Z 1 t x+t−τ ˜ 1 t f (τ )dy)dτ = σ(y)dy)dτ ( f (τ )( u(x, t) = 2 0 x−t+τ 2 0 x−t+τ Si x > t, se tiene que x − t + τ ≥ 0 con lo que σ(y) = 1 y se obtiene Z t f (τ )(t − τ )dτ. u(x, t) = (6.19) (6.20) 0 Si x < t entonces σ no es constante para τ < t − x por lo que conviene evaluar (6.19) como sigue: Z Z x+t−τ Z t Z x+t−τ 1 t−x u(x, t) = ( f (τ )( σ(y)dy)dτ + f (τ )( σ(y)dy)dτ ) 2 0 x−t+τ t−x x−t+τ Z x+t−τ Z −(x−t+τ ) Z x+t−τ Z t Z 1 t−x σ(y) dy)dτ + σ(y) dy)dτ ) σ(y)dy + f (τ )( = ( f (τ )( 2 0 −(x−t+τ ) |{z} x−t+τ |{z} x−t+τ t−x | {z } =1 =1 =0 por ser σ impar Z t 1 = ( f (τ )2xdτ + f (τ )2(t − τ )dτ ) 2 0 t−x Z t Z t−x f (τ )(t − τ )dτ. f (τ )xdτ + = Z t−x t−x 0 (6.21) Reescribiendo (6.21) como Z t Z 0 t−x f (τ )(t − τ − x)dτ f (τ )(t − τ )dτ − u(x, t) = 0 se puede dar una escritura unificada a la solución, para todo x y t: Z t Z t−x f (τ )(t − τ − x)dτ u(x, t) = f (τ )(t − τ )dτ − H(t − x) donde H denota la función de Heaviside ( 1 H(x) := 0 (6.22) 0 0 si si x≥0 x < 0. Por último, se puede evaluar (6.22) para la f dada en el enunciado. El resultado es 1 (1 − cos(ωt) − H(t − x)(cos(ω(t − x)) − 1)). ω2 Volvamos a considerar la ecuación de onda homogénea: utt − uxx = 0. El siguiente resultado da una caracterización de sus soluciones en términos del comportamiento de u sobre las características. u(x, t) := 68 6. ECUACIÓN DE ONDA Proposición 6.14. Sea el dominio U ⊂ R2 y sea u : U → R. Si u(x, t) es solución de la ecuación de ondas utt −uxx = 0 en U entonces para cualquier cuadrilátero Q ⊂ U cuyos lados son características y sus vértices consecutivos son A, B, C y D vale la relación. u(A) + u(C) = u(B) + u(D). (6.23) 2 Al revés, si u ∈ C (U ) satisface (6.23), entonces u es una solución de la ecuación de onda en U . t B x + t = c2 x − t = c1 A C x − t = c3 x + t = c4 D x Figura 6.5. Cuadrilátero con aristas características Demostración. Supongamos que u es solución. Como ya hemos visto, vale u(x, t) = α(x + t) + β(x − t). Mirando la Figura 6.5 y notando que α(x + t) y β(x − t) son constantes sobre las características correspondientes, se ve que valen las relaciones: α(A) = α(D) y α(B) = α(C) β(A) = β(B) y β(D) = β(C) con lo que u(A) + u(C) = α(A) + β(A) + α(C) + β(C) = α(D) + β(B) + α(B) + β(D) = u(B) + u(D). Al revés, si u ∈ C 2 (U ) se tiene donde l´ımk→0 valen: 1 u(x, t + k) = u(x, t) + ut (x, t)k + utt (x, t)k 2 + k 2 1 u(x + k, t) = u(x, t) + ux (x, t)k + uxx (x, t)k 2 + ηk 2 1 1 = l´ımk→0 k2 ηk = 0. En particular, aplicando estas igualdades para ±k, k2 k u(x, t − k) + u(x, t + k) = 2u(x, t) + utt (x, t)k 2 + k + 0k u(x − k, t) + u(x + k, t) = 2u(x, t) + uxx (x, t)k 2 + ηk + ηk0 donde k12 k , k12 0k , k12 ηk y k12 ηk0 tienden a 0 con k. Si u, además, satisface (6.23) entonces se tiene u(x, t − k) + u(x, t + k) = u(x − k, t) + u(x + k, t) para todo k suficientemente chico. Por lo tanto, utt (x, t)k 2 + k + 0k = uxx (x, t)k 2 + ηk + ηk0 2. ECUACIÓN DE ONDA EN n = 1 69 para todo k suficientemente chico. Dividiendo ambos términos por k 2 y tomando el límite k → 0 se obtiene utt (x, t) = uxx (x, t). En otras palabras, u satisface la ecuación de onda en U . Una aplicación interesante de la Proposición 6.14 permite construir una solución del siguiente problema: utt (x, t) − uxx (x, t) = 0 en (0, L) × (0, +∞) (6.24) u(x, 0) = g(x), ut (x, 0) = h(x) u(0, t) = α(t), u(L, t) = β(t) Comenzamos por construir una solución en la región (cerrada) I de la Figura 6.6. Esto es posible usando la fórmula de D’Alembert ya que el dominio de dependencia de cualquier punto en esta región está contenido en (0, L) × {0} y, por lo tanto, el valor de u en la región queda unívocamente determinado por los valores iniciales dados allí. t IV II B III C A I D x L Figura 6.6. Regiones para la solución de (6.24) Para definir la solución en la región (cerrada) II, notamos que su valor está determinado en el borde izquierdo y el lado que linda con la región I. Como la solución debe satisfacer la relación (6.23), el valor para cualquier punto B en la región II queda determinado mediante esta relación, usando un cuadrilátero como el de la Figura 6.6, con los vértices A, C y D con valores de u conocidos. Del mismo modo se puede continuar calculando la solución en las regiones III, IV , etc. Este razonamiento tiene un inconveniente: si las condiciones de contorno no son, de algún modo, compatibles, el resultado no tiene por que ser una función derivable. Ejercicio 6.15. Estudie condiciones de compatibilidad en las condiciones de contorno α, β, g y h que aseguren que la solución propuesta es una solución clásica del problema. En lo que vimos hasta este momento, las propiedades de las soluciones de la ecuación de onda se demostraron usando el conocimiento explícito de su forma, por ejemplo, usando la fórmula de d’Alembert. El siguiente resultado usa un enfoque totalmente diferente que no requiere el conocimiento explícito de las soluciones. 70 6. ECUACIÓN DE ONDA Teorema 6.16. Dadas f , g, h, α y β, el problema utt (x, t) − uxx (x, t) = f (x, t) en (0, L) × (0, +∞) u(x, 0) = g(x), ut (x, 0) = h(x) u(0, t) = α(t), u(L, t) = β(t) tiene, a lo más, una única solución clásica en C 1 ([0, L] × R≥0 ) ∩ C 2 ((0, L) × R>0 ). Demostración. Supongamos que hay dos soluciones u1 y u2 del problema. Entonces w = u1 − u2 es solución del problema utt (x, t) − uxx (x, t) = 0 en (0, L) × (0, +∞) u(x, 0) = 0, ut (x, 0) = 0 u(0, t) = u(L, t) = 0. Ahora, para t ∈ [0, +∞) definimos 1 E(t) := 2 Z (wx (x, t)2 + wt (x, t)2 )dx. [0,L] Notamos que E(t) está bien definida ya que las derivadas primeras de w son continuas en [0, L], que es un intervalo finito. Entonces calculamos: Z Z Z dE ∂wt wx (wx wxt + wt wtt )dx = wt wtt dx = dx + dt ∂x [0,L] [0,L] [0,L] Z Z Z x=L = wx wt |x=0 − wxx wt dx + wt wtt dx = 0 + wt (wtt − wxx )dx = 0, [0,L] [0,L] [0,L] ya que, primero, w se anula en x = 0, L, y por lo tanto lo mismo ocurre Rcon wt , también se usó que wtt − wxx = 0. En conclusión, E es constante y, como E(0) = 21 [0,L] (wx (x, 0)2 + wt (x, 0)2 )dx = 0, tenemos que E(t) = 0 para todo t. R Hasta el momento hemos visto que [0,L] (wx (x, t)2 + wt (x, t)2 )dx = 0. Como el integrando es una función continua y ≥ 0, concluimos que tiene que anularse en todo punto, o sea que ∇w se anula en (0, L) × R>0 , que es una región conexa, y por tanto w es constante; por continuidad, también es constante en [0, L] × R≥0 . Finalmente, como w se anula cuando t = 0, vemos que w es idénticamente nula, con lo que u1 = u2 en la región considerada y la solución del problema original es única. Nota 6.17. El Teorema 6.16 nada dice sobre la existencia de soluciones del problema dado (para la cuál, por ejemplo, hay que imponer condiciones de compatibilidad entre los datos de contorno). Nota 6.18. El resultado del Teorema 6.16 puede extenderse a la ecuación de onda sobre R, si se supone que el dato inicial tiene soporte compacto (es decir que se anula fuera de un intervalo [−M, M ]). En este caso, la demostración es prácticamente la misma, sólo que hay que proveer un argumento para demostrar que E es finita para todo t: en principio es obvio ya que el dato inicial se anula fuera de un intervalo y este dato se propaga con velocidad finita (es decir que para cada t fijo la solución también se anula fuera de un intervalo). El problema es, sin embargo, que la propagación finita es una consecuencia de la fórmula de d’Alembert. Una posibilidad es probar la unicidad para aquellos problemas con condiciones iniciales nulas fuera de una bola y para soluciones u(x, t) tales que, para cada t fijo se anulan fuera de una bola (que puede depender del valor de t). 3. ECUACIÓN DE ONDA EN n > 1 3. 71 Ecuación de onda en n > 1 Para analizar la ecuación de onda en varias dimensiones espaciales se usa la técnica conocida como de los promedios esféricos. Definición 6.19. Si u(x, t) es una función de n variables espaciales x y una variable temporal t, sus promedios esféricos en x se definen como Z 1 u(y, t)dSy (6.25) U (r, t) := n−1 r ωn |y−x|2 =r2 donde ωn es el área de la cáscara de la esfera de radio 1 en Rn y dSy es el diferencial de (hiper)superficie sobre la (hiper)superficie de integración, parametrizada con la variable y. En otras palabras, el promedio esférico es el promedio de los valores de la función u tomados sobre la cáscara de una bola de radio r, con t fijo. Mediante un cambio de variables y = x + rξ con |ξ| = 1 (6.25) se convierte en Z 1 U (r, t) = u(x + rξ, t)dSξ . ωn |ξ|=1 Notemos que podemos recuperar la función u mediante: u(x, t) = l´ım+ U (r, t). r→0 Ahora supongamos que u es solución del problema n utt (x, t) − ∆u(x, t) = 0 en R × (0, +∞) u(x, 0) = g(x) en Rn u (x, 0) = h(x) en Rn . t (6.26) En este caso, además de los promedios esféricos de u vamos a considerar los de g y h, que denotamos con G y H, de modo que Z Z 1 1 u(x + rξ, 0)dSξ = g(x + rξ)dSξ = G(r) U (r, 0) = ωn |ξ|=1 ωn |ξ|=1 Z Z 1 1 Ut (r, 0) = ut (x + rξ, 0)dSξ = h(x + rξ)dSξ = H(r). ωn |ξ|=1 ωn |ξ|=1 Se puede ver que los promedios esféricos de u satisfacen la ecuación de Darboux: ( Utt − Urr − (n−1) Ur = 0 en (0, +∞) × (0, +∞) r U (r, 0) = G(r), Ut (r, 0) = H(r) en (0, +∞). Para n impar es posible transformar la ecuación de Darboux en una ecuación de onda en una dimensión espacial y, usando la fórmula de d’Alembert, hallar su solución. Esto es bastante trabajoso y nos concentraremos en el caso n = 3. En este caso, usando las nuevas funciones U˜ (r, t) := rU (r, t), ˜ G(r) := rG(r), ˜ H(r) := rH(r) la ecuación de Darboux se convierte en U˜tt − U˜rr = 0 en (0, +∞) × (0, +∞) ˜ ˜ U˜ (r, 0) = G(r), U˜t (r, 0) = H(r) en (0, +∞) U˜ (0, t) = 0 en (0, +∞). (6.27) 72 6. ECUACIÓN DE ONDA Ahora bien, el problema (6.27) ya fue resuelto en el Ejemplo 6.5 y de (6.10), cuando 0 ≤ r < t, resulta ˜ + t) − G(t ˜ − r) 1 Z r+t G(r ˜ ˜ + H(s)ds, U (r, t) = 2 2 r−t con lo que ˜ Z t+r ˜ − r) U˜ (r, t) G(r + t) − G(t 1 ˜ u(x, t) = l´ım+ = l´ım+ + H(s)ds r→0 r→0 r 2r 2r t−r ˜ 0 (t) + H(t). ˜ =G Explícitamente, usando que ω3 = 4π, Z Z ∂ 1 1 u(x, t) = g(y)dSy + h(y)dSy . ∂t 4πt |y−x|2 =t2 4πt |y−x|2 =t2 (6.28) Esto se puede reescribir como Z 1 th(y) + g(y) + ∇g(y) · (y − x) dSy u(x, t) = 4πt2 |y−x|2 =t2 (6.29) con x ∈ R3 y t > 0. La fórmula (6.29) es conocida como fórmula de Kirchoff y da la solución para el problema de valores iniciales (6.26) cuando n = 3. Nota 6.20. De la fórmula de Kirchoff (6.29) podemos obtener los dominios de dependencia e influencia para la ecuación de onda en n = 3. Como el cálculo de u(x, t) sólo depende de los datos iniciales en la superficie esférica |y − x|2 = t2 , vemos que este es el dominio de dependencia. Al revés, una perturbación en (x0 , 0) afecta sólo aquellos valores (x, t) para los que |x − x0 |2 = t2 (ya que, si no, la integral correspondiente no pasa por x0 ). Es decir, el dominio de influencia de (x0 , 0) es el cono {(x, t) ∈ R4 : |x − x0 |2 = t2 } (ver Figura 6.7). Gráficamente podemos pensar en un pulso concentrado en x0 = 0 a t = 0; un t t (x, t) (x0 , 0) x ∈ R3 (a) dominio de dependencia x ∈ R3 (b) dominio de influencia (es sólo la superficie lateral del cono) Figura 6.7. Dominios de dependencia e influencia para la ecuación de onda en n = 3 (en los gráficos, el plano horizontal representa al espacio R3 ) tiempo t más tarde, la perturbación es observable sólo en la esfera {x ∈ R3 : |x−0|2 = t2 }. 3. ECUACIÓN DE ONDA EN n > 1 73 De aquí observamos que la propagación ocurre en todas las direcciones espaciales con velocidad 1. También podemos notar que una vez que la perturbación pasó por un lugar, este lugar no es afectado más por la perturbación. Ahora vamos a resolver el problema (6.26) con n = 2, usando los resultados del caso n = 3. La clave es que el problema en el plano se puede pensar como un problema en el espacio que es independiente de la tercera variable. De este modo, si u ∈ C 2 (R2 × [0, ∞)) es solución de (6.26) con n = 2, u˜(x1 , x2 , x3 , t) := u(x1 , x2 , t) es solución de u(x, t) = 0 en R3 × (0, +∞) u˜tt (x, t) − ∆˜ u˜(x, 0) = g˜(x) en R3 u˜ (x, 0) = h(x) ˜ en R3 . t ˜ 1 , x2 , x3 ) = h(x1 , x2 ). Por lo tanto, por (6.28) vale donde g˜(x1 , x2 , x3 ) = g(x1 , x2 ) y h(x Z Z 1 ∂ 1 u(x1 , x2 , t) = u˜(x, t) = g(y)dS y + h(y)dS y ∂t 4πt |y−x|2 =t2 4πt |y−x|2 =t2 donde las barras denotan a vectores en R3 y la medida de integración sobre la cáscara de la esfera en R3 . Ahora parametrizamos la superficie |y − x|2 = t2 en R3 como dos gráficos sobre el disco (y1 − x1 )2 + (y2 − x2 )2 ≤ t2 en R2 , usando las funciones p (y1 , y2 ) 7→ ± t2 − ((y1 − x1 )2 + (y2 − x2 )2 ). De este modo y tomando en cuenta que todas las funciones son independientes de la variable x3 sale que Z 1 ∂ g(y1 , y2 ) p u(x1 , x2 , t) = dy1 dy2 2π ∂t (y1 −x1 )2 +(y2 −x2 )2 ≤t2 t2 − ((x1 − y1 )2 + (x2 − y2 )2 ) (6.30) Z 1 h(y1 , y2 ) p + dy1 dy2 . 2π (y1 −x1 )2 +(y2 −x2 )2 ≤t2 t2 − ((x1 − y1 )2 + (x2 − y2 )2 ) Un poco más de trabajo nos lleva a la fórmula Z tg(y) + t2 h(y) + t∇g(y) · (y − x) 1 p dy, (6.31) u(x, t) = 2π |y−x|2 ≤t2 t2 − |y − x|2 donde x e y son vectores en R2 . La fórmula (6.31), conocida como fórmula de Poisson, da la solución del problema (6.26) cuando n = 2. Nota 6.21. Igual que vimos en la Nota 6.20, podemos usar la expresión explícita de la solución de (6.26) cuando n = 2 dada por la fórmula de Poisson (6.31) para determinar los dominios de dependencia e influencia del problema. A diferencia de la situación en el caso n = 3, el valor de u(x, t) ahora toma en cuenta todos los valores de los datos iniciales en el disco {y ∈ R2 : |y−x|2 ≤ t2 } (y no sólo los de su borde). Este disco es, entonces, el dominio de dependencia de (x, t). Esta diferencia con el caso n = 3 también se refleja en que el dominio de influencia de (x0 , 0) es el cono sólido {(x, t) ∈ R2 × (0, +∞) : |x − x0 |2 ≤ t2 } (ver Figura 6.8). Esto quiere decir que, por ejemplo, si el dato inicial consiste de un pulso centrado en el origen, el pulso producirá una perturbación que, a tiempo t, afectará los valores de u en el disco {x ∈ R2 : |x − 0|2 ≤ t2 }, con lo que una vez que la perturbación llegó a influenciar el valor de u en un punto, continuará afectándolo en el futuro. 74 6. ECUACIÓN DE ONDA t t (x, t) (x0 , 0) 2 x∈R (a) dominio de dependencia x ∈ R2 (b) dominio de influencia (es el cono sólido) Figura 6.8. Dominios de dependencia e influencia para la ecuación de onda en n = 2 7 La ecuación de Laplace 1. Generalidades En esta sección estudiaremos la ecuación n X ∂ 2 u(x) − ∆u = − =0 2 ∂x j j=1 en U (7.1) para algún abierto U ⊂ Rn , que es llamada la Ecuación de Laplace 1. Esta ecuación es el prototipo de las ecuaciones elípticas, como vimos en el Capítulo 5. El caso n = 2 ya es conocido del estudio de funciones de variable compleja, donde las soluciones de ∆u = 0, llamadas funciones armónicas, son exactamente las partes reales e imaginarias de funciones holomorfas en U , si U es simplemente conexo. En general, las soluciones de (7.1) también son llamadas funciones armónicas. La versión no homogénea de la ecuación de Laplace − ∆u = f (x) en U (7.2) es conocida como ecuación de Poisson. La ecuación de Laplace aparece en muchos lugares, por lo común asociada al estudio de magnitudes que se hallan en un estado de equilibrio dinámico. Digamos que F es una tal magnitud vectorial. Si no hay fuentes ni sumideros para F en U ⊂ Rn , en cualquier región abierta V ⊂ U , el flujo de F sobre ∂V debe anularse, es decir, Z F · νdS = 0 (7.3) ∂V donde ν es el campo normal a la hipersuperficie ∂V ⊂ Rn . Usando el Teorema de la Divergencia (Teorema 7.6), (7.3) se convierte en Z ∇ · F dV = 0. V En muchas circunstancias la magnitud F es proporcional al gradiente de un potencial u: F = a∇u, con lo que tenemos Z Z ∇ · (a∇u)dV = a ∆udV = 0. V V 1El signo introducido delante del operador ∆ en (7.1) cumple un rol análogo al de los signos de la teoría de Sturm-Liouville. Igual que allí, este signo va a hacer que los autovalores del operador −∆ resulten todos positivos. 75 76 7. LA ECUACIÓN DE LAPLACE Como esta última relación vale para cualquier V ⊂ U , concluimos que el integrando se debe anular en U , vale decir, que vale (7.1). En lo que sigue estudiaremos algunas soluciones de (7.1) y (7.2) para algunos dominios U simples, así como también propiedades generales de las soluciones que no dependen de poseer una fórmula explícita para la solución. Nota 7.1. En el caso 1, (7.2) se resuelve completamente ya que −uxx (x) = f (x) R x nR = s1 lleva a que u(x) = − x0 ( x0 f (s2 )ds2 )ds1 + Ax + B, para algunas constantes A y B. Debido a esto, en lo que sigue nos concentraremos en el caso n ≥ 2. 2. Nociones Básicas Del estudio de la acción del cambio lineal de coordenadas en el espacio en la matriz de un operador de segundo orden (ver (5.2)), es claro que el operador −∆, cuya matriz es escalar, es invariante frente a cambios de coordenadas dados por matrices ortogonales. Esto lleva a buscar soluciones de la ecuación de Laplace que presenten simetría de rotación (y por tanto también son invariantes frente a este tipo de cambios de coordenadas). Esto se consigue buscando soluciones de la forma v uX u n 2 u(x) := v(r) con r := |x| = t xj . j=1 para v : R → R. Tomando en cuenta que ∂r ∂xj = xj , r (7.1) se convierte en n−1 0 v (r) = 0. r Esta ecuación se puede integrar separando variables y se obtiene ( a2 ln(r) + a3 si n = 2 v(r) = a2 1 + a3 si n > 2. 2−n rn−2 v 00 (r) + (7.4) Definición 7.2. La solución fundamental de la ecuación de Laplace (7.1) es la función ( −1 ln(|x|) si n = 2 (7.5) Φ(x) = 2π 1 1 si n > 2. n−2 n(n−2)αn |x| obtenida de (7.4) cuando se toma a3 = 0 y a2 = es el volumen de la bola de radio 1 en Rn ). 1 2π cuando n = 2 y a2 = −1 nαn si n > 2 (αn Nota 7.3. La solución fundamental de la ecuación de Laplace es una función armónica en Rn − {0}. Nota 7.4. Para todo n ≥ 2 se tiene −x ∇Φ(x) = nαn |x|n si x ∈ Rn − {0}, Se tiene que nαn = ωn , donde ωn es el área de S n := ∂B1 (0), el borde de la bola unitaria de radio 1 en Rn . Esto es así ya que Z Z 1 Z Z 1 Z Z 1 ωn n−1 αn = dVy = ( dSy )dρ = ( ρ dSy )dρ = ωn ρn−1 dρ = n B1 (0) 0 ∂Bρ (0) 0 ∂B1 (0) 0 2. NOCIONES BÁSICAS 77 Notemos que la ecuación de Laplace tiene muchas soluciones “triviales”: todas las funciones lineales y las cuadráticas que no tengan cuadrados (es decir, solo términos cruzados). Es claro entonces que para que el problema quede bien planteado es necesario dar condiciones adicionales. A diferencia de lo que ocurre en la ecuación de onda, estas condiciones adicionales no suelen ser “posiciones” y “velocidades”. Esto suele sobredeterminar la solución de la ecuación de Laplace. Este fenómeno es conocido de la variable compleja, donde conocer una función sobre, digamos, |z| = 1 la determina sobre todo |z| ≤ 1, no quedando libertad para, por ejemplo, fijar una derivada sobre |z| = 1. Los problemas de contorno típicos son los siguientes: ( −∆u(x) = 0 en U ⊂ Rn (7.6) u(x) = g(x) en ∂U, llamado el problema de Dirichlet y el problema de Neumann: ( −∆u(x) = 0 en U ⊂ Rn ∂u(x) = h(x) en ∂U, ∂ν (7.7) donde ν es el campo normal interior a ∂U . Esto no agota las posibilidades de datos iniciales. Por ejemplo, también se estudian los casos mixtos. Cuando el dominio U es simple, es posible resolver la ecuación de Laplace usando separación de variables, como muestra el ejemplo siguiente. Ejemplo 7.5. Queremos resolver el problema ( −∆u = 0 en U := (0, a) × (0, b) u = g en ∂U, (7.8) suponiendo que u es continua en el borde. Antes de embarcarnos en la separación de variables misma vamos a hacer un par de reducciones muy útiles. Primero vamos a ver que podemos suponer que g se anula en los vértices de U . Para esto, notemos que la función α(x, y) := a0 + a1 x + a2 y + a3 xy es armónica en R2 . Por otro lado, pedir que α en cada vértice valga lo mismo que g en ese vértice determina 4 condiciones lineales sobre los 4 coeficientes a0 , . . . , a3 . Es posible, entonces, hallar coeficientes de modo que α y g tengan los mismos valores en los vértices. Fijamos los coeficientes de α en estos valores. Busquemos ahora una solución de (7.8) de la forma u = v + α. Se ve que v tiene que satisfacer ( −∆v = 0 en U := (0, a) × (0, b) (7.9) v = g − α en ∂U, con lo que, en particular, v se anula en los vértices de ∂U ya que g y α toman el mismo valor allí. El paso siguiente es descomponer el problema en 4 problemas con condición de contorno más simple. Para ello definimos g1 con los mismos valores de g − α en (0, a) × {0} y 0 en el resto de ∂U , y, análogamente g2 , g3 y g4 sobre los otros segmentos del borde, de modo que g − α = g1 + g2 + g3 + g4 . Notar que para que esta descomposición resulte en funciones continuas es necesario que g − α se anule en los vértices (como conseguimos hacer). Ahora buscamos las soluciones de los problemas ( −∆vj = 0 en U := (0, a) × (0, b) (7.10) vj = gj en ∂U, 78 7. LA ECUACIÓN DE LAPLACE para j = 1, . . . , 4. Suponiendo que sabemos resolver estos problemas, v = v1 + v2 + v3 + v4 resulta ser solución de (7.9), con lo que u = v1 + v2 + v3 + v4 + α es solución del problema original (7.8). Resta resolver (7.10) para cada j. Nos concentramos en el caso j = 1 ya que los otros son análogos. Este problema, en particular, es idéntico salvo por las dimensiones (variables) del dominio al ejemplo discutido en la Sección 1 del Capítulo 1. Planteando v1 (x, y) = X(x)Y (y) se obtienen las ecuaciones X 00 (x) − λX(x) = 0 y Y 00 (y) + λY (y) = 0 para alguna constante λ ∈ R a determinar. Las condiciones de contorno imponen, además, que X(0) = X(a) = Y (b) = 0. Es fácil ver que la única posibilidad para X es que λ < 0 y √ √ X(x) = A cos( −λx) + B sin( −λx). √ −λa = kπ con k ∈ N, Las condiciones de contorno determinan entonces que A = 0 y que √ esto último ya que λ 6= 0 y, por convención · es la raíz cuadrada positiva. Por lo tanto λ = −( kπ )2 y X(x) = B sin(k πa x) para k ∈ N. a De la ecuación para Y obtenemos √ Y (y) = Ae −λy + Be− √ −λy . √ 2 −λb La condición inicial lleva entonces a que B = −Ae , de donde sale que √ √ √ Y (y) = 2Ae −λb sinh( −λ(y − b)) = A˜ sinh( −λ(y − b)). En resumen, tenemos kπ kπ x) sinh( (y − b)) con k ∈ N. a a Para poder ajustar la condición inicial no nula tomamos combinaciones lineales: ∞ X kπ kπ Ak sin( x) sinh( (y − b)) v1 (x, y) = a a k=1 P kπ kπ y pedimos que g1 (x, 0) = v1 (x, 0) = ∞ k=1 Ak sin( a x) sinh(− a b), con lo que las constantes Ak se pueden determinar en base a los coeficientes de Fourier de (la expansión en senos de) g1 (x, 0) = g(x, 0) − α(x, 0). En concreto, si Z 2 a kπ bk = (g(x, 0) − α(x, 0)) sin( x)dx, a 0 a entonces bk Ak = sinh(− kπ b) a y la solución resulta ∞ X sinh( kπ (y − b)) kπ a v1 (x, y) = bk sin( x). (7.11) kπ a sinh(− a b) k=1 v1 (x, y) = Ak sin( Finalmente, un razonamiento análogo a los ya hechos al final de la Sección 2 del Capítulo 1 lleva a demostrar que si g1 es suficientemente suave en ∂U , entonces es posible derivar (7.11) término a término, para concluir que es solución de (7.10) para j = 1. Los detalles se dejan a cargo del lector. 3. PROPIEDADES DE LAS FUNCIONES ARMÓNICAS 3. 79 Propiedades de las Funciones Armónicas Del Teorema de la Divergencia se deducen algunas fórmulas de suma utilidad en el estudio de las funciones armónicas. Supongamos que U ⊂ Rn es un abierto acotado con borde C 1 (esto quiere decir que cerca del borde, U se puede describir localmente como los (x1 , . . . , xn ) con xj < γ(x1 , . . . , xj−1 , xj+1 , . . . , xn−1 ) o xj > γ(x1 , . . . , xj−1 , xj+1 , . . . , xn−1 ) para algún j y alguna función γ de tipo C 1 ). Teorema 7.6 (Teorema de la Divergencia). Sea U ⊂ Rn un abierto acotado con borde C 1 y ν el campo normal unitario exterior a ∂U . Si F : U → Rn es C 1 (U ) entonces vale Z Z (F (y) · ν(y))dSy = (∇ · F (y))dVy . ∂U U Teorema 7.7 (Identidades de Green). Sea U ⊂ Rn un abierto acotado con borde C 1 y ν el campo normal unitario exterior a ∂U . Si u, v ∈ C 2 (U ), entonces valen Z Z ∂u v dS = (∇v · ∇u + v∆u)dV (7.12a) ∂U ∂ν U Z Z ∂u ∂v (v − u )dS = (v∆u − u∆v)dV (7.12b) ∂ν ∂ν ∂U U Z Z uxi dV (7.12c) uνi dS = U ∂U Demostración. Aplicando el Teorema de la divergencia a v∇u, sale (7.12a). Tomando la diferencia entre (7.12a) y ella misma con los roles de u y v invertidos, sale (7.12b). Finalmente, aplicando (7.12a) al caso v(x) = u(x) y u(x) = xi , sale (7.12c). Corolario 7.8. Sea U ⊂ Rn un abierto acotado con borde C 1 y ν el campo normal unitario exterior a ∂U . Si u ∈ C 2 (U ) unaR solución del problema de Neumann (7.7) en U , entonces el dato de contorno h satisface ∂U hdS = 0. Demostración. Si u es como el enunciado, tomar v = 1 y aplicar (7.12a). Corolario 7.9. Sea U ⊂ Rn un abierto acotado con borde C 1 y ν el campo normal unitario exterior a ∂U . El problema de Dirichlet (7.6) tiene, a lo sumo, una solución u ∈ C 2 (U ). Si U es conexo, dos soluciones C 2 (U ) del problema de Neumann (7.7) difieren en una constante aditiva. Demostración. Aplicando (7.12a) al caso v = u, con u armónica se obtiene Z Z ∂u u dS = |∇u|2 dV. (7.13) ∂ν ∂U U Si u = u1 − u2 es la diferencia entre dos soluciones de un mismo problema de Dirichlet, entonces u = u1 − u2 = g − g = 0 en ∂U . Por lo tanto (7.13) se convierte en Z 0= |∇u|2 dV, U de donde, siendo el integrando positivo y continuo, concluimos que ∇u = 0 en U , es decir que u es constante en cada componente conexa de U . Pero como u = 0 en ∂U , u = 0 en todo U . Entonces, u1 = u2 en U para cualesquiera dos soluciones del problema de Dirichlet. El caso del problema de Neumann es análogo al de Dirichlet, excepto que al no tener información sobre u en ∂U , sólo se puede concluir que u es constante en U (que se supone conexo), con lo que la diferencia entre dos soluciones del problema de Neumann difieren 80 7. LA ECUACIÓN DE LAPLACE en una constante. De hecho, si u1 es solución de (7.7), entonces u1 + C también lo es para cualquier constante C. Los resultados anteriores dan propiedades muy importantes de las funciones armónicas. Sin embargo, su demostración requiere que la función en cuestión sea de tipo C 2 (U ). Esta condición parece no ser la natural para el tipo de problema tratado, donde parece más apropiado pedir soluciones en C 2 (U ) ∩ C 0 (U ). A continuación introduciremos otro tipo de técnicas que permiten estudiar propiedades de las funciones armónicas con condiciones menos exigentes. Teorema 7.10. Sea u ∈ C 2 (U ) armónica e y ∈ U . Si r > 0 es tal que Br (y) ⊂ U , entonces Z Z 1 1 u(y) = u(y + rξ)dSξ = u(y + z)dSz , (7.14) ωn |ξ|=1 V ol(∂Br (0)) ∂Br (0) donde ωn es el volumen2 de ∂B1 (0) ⊂ Rn . Demostración. Sea 1 φ(ρ) = ωn Z u(y + ρξ)dSξ , |ξ|=1 para ρ ∈ [0, r]. Es fácil ver que φ es continua en [0, r]. Entonces, si ρ ∈ (0, r), Z Z 1 x−y 1 0 ∇u(y + ρξ) · ξdSξ = n−1 ∇u(x) · dSx φ (ρ) = ωn |ξ|=1 ρ ωn ∂Bρ (y) ρ Z Z 1 ∂u 1 = n−1 (x)dSx = n−1 ∆u(x)dVx = 0 ρ ωn ∂Bρ (y) ∂ν ρ ωn Bρ (y) (7.15) donde hemos usado que x−y es el campo normal unitario a ∂Bρ (y), y también la identidad ρ de Green (7.12a) con v = 1. Por lo tanto, φ(ρ) es constante. Como además Z 1 l´ım u(y + ρξ)dSξ = u(y), (7.16) l´ım φ(ρ) = r→0+ ωn |ξ|=1 ρ→0+ concluimos que φ(ρ) = u(y) para todo ρ ∈ (0, r). Más aún, por la continuidad de φ en ρ = r resulta que u(y) = φ(r). La segunda igualdad del enunciado se obtiene simplemente mediante el cambio de variables x = rξ. Nota 7.11. También vale el recíproco del Teorema 7.10. Es decir, si u ∈ C 2 (U ) satisface (7.14) para todo r > 0 suficientemente chico, entonces u es armónica en U . Esto es muy simple ya que si ∆u(y) 6= 0 para algún y ∈ U podemos suponer que ∆u(y) > 0, con lo que ∆u(z) > 0 en Bρ (y) para algún ρ > 0. Por tanto, en (7.15) se tiene Z 1 0 0 = φ (ρ) = n−1 ∆u(z)dVz > 0, ρ ωn Bρ (y) y de la contradicción concluimos que ∆u(y) = 0. Más aún, veremos en el Teorema ?? que toda función continua en U y que satisface la propiedad del valor medio es C ∞ , con lo que la condición de u ∈ C 2 (U ) en esta Nota no es necesaria ya que alcanza con C 0 (U ). 2En estas notas vamos a hablar de volumen tanto de una hipersuperficie (es decir, dimensión n − 1) como de conjuntos de dimensión n. En ambos casos se entiende que el volumen al que nos referimos es el que corresponde a la dimensión del objeto considerado. De otro modo, si calculamos el volumen n-dimensional de una hipersuperficie, siempre obtenemos 0 3. PROPIEDADES DE LAS FUNCIONES ARMÓNICAS 81 Ejercicio 7.12. En el primer paso de (7.15), en la demostración del Teorema 7.10, se intercambia una derivada con una integral. En la misma demostración, en (7.16), se intercambia un límite con una integral. Justificar cuidadosamente esos pasos. que Corolario 7.13. Con las mismas condiciones del Teorema 7.10, para todo r > 0 vale Z Z n 1 u(y) = u(y + rξ)dVξ = u(y + x)dVx . ωn |ξ|≤1 V ol(Br (0)) Br (0) Demostración. Z Z 1 Z ( u(y + rξ)dVξ = |ξ|≤1 u(y + rξ)dSξ )dρ = |ξ|=ρ 0 Z Z 1 ρ n−1 Z ( u(y + rρχ)dSχ )dρ |χ|=1 0 1 ωn u(y), n 0 de donde sale la primera igualdad del enunciado. La segunda es automática por un cambio de variables. = ρn−1 ωn u(y)dρ = Nota 7.14. Para u ∈ C 2 (U ), si en vez de pedir ∆u = 0 se pide ∆u ≥ 0, las mismas demostraciones del Teorema 7.10 y el Corolario 7.13 muestran que Z Z 1 n u(y) ≤ u(y + rξ)dSξ y u(y) ≤ u(y + rξ)dVξ . ωn |ξ|=1 ωn |ξ|≤1 Para el enunciado del próximo resultado necesitamos revisar la noción de supremo de un subconjunto de R. Si A ⊂ R, se dice que s ∈ R es una cota superior de A si a ≤ s para todo a ∈ A. El supremo de A, denotado por sup A, es la menor de todas las cotas superiores de A. Si A es acotado superiormente, se deduce de la completitud de R que sup A existe y es finito. Si A no es acotado superiormente se dice que sup A = ∞. Notar que sup A puede pertenecer a A o no. De modo análogo se introduce el ínfimo de A como la mayor de sus cotas inferiores. Teorema 7.15 (Principio del Máximo). Si U ⊂ Rn es un abierto conexo y u ∈ C 2 (U ) satisface ∆u ≥ 0 en U entonces, o bien u es constante en U , o vale u(y) < sup u(x) para todo y ∈ U. x∈U Demostración. Sea S = supx∈U u(x). Podemos suponer que S < ∞ ya que en caso contrario el resultado es trivial. Definimos B := {x ∈ U : u(x) = S} = u−1 (S). Siendo u continua y {S} un conjunto cerrado, tenemos que B = u−1 (S) es cerrado en U. Por otro lado, para y ∈ B, es decir que R u(y) = S, sea r > 0 tal que Br (y) ⊂ U . Entonces, por la Nota 7.14, S = u(y) ≤ ω1n |ξ|=1 u(y + rξ)dSξ , donde u(y + rξ) ≤ S para todo ξ con |ξ| = 1. Luego, si existieraR x ∈ U con ky − xk = r tal que u(x) < S, por la continuidad de u, resultaría que ω1n |ξ|=1 u(y + rξ)dSξ < S que, junto con el cálculo anterior, muestra que S < S. Esta contradicción muestra que Br (y) ⊂ B, que resulta ser un conjunto abierto en U . Pero entonces, B es abierto y cerrado en U , conexo, con lo que B = ∅ o B = U , que es exactamente la tesis del enunciado. Corolario 7.16. Si U es compacto y u ∈ C 2 (U ) ∩ C 0 (U ) satisface ∆u ≥ 0 en U , entonces m´ax u(x) = m´ax u(x). x∈U x∈∂U 82 7. LA ECUACIÓN DE LAPLACE Nota 7.17. Es claro que para funciones u ∈ C 2 (U ) ∩ C 0 (U ) con ∆u ≤ 0 en U valen resultados análogos al Teorema 7.15 y su Corolario 7.16, reemplazando máximos y supremos por mínimos e ínfimos. Estos son, a veces, conocidos como principio del mínimo. Corolario 7.18. Sea U ⊂ Rn un dominio acotado y u1 , u2 ∈ C 2 (U ) ∩ C 0 (U ) soluciones de la ecuación de Poisson −∆u = f en U . Dado > 0, si |u1 (x) − u2 (x)| < para todo x ∈ ∂U , entonces vale |u1 (x) − u2 (x)| < para todo x ∈ U . Demostración. En las condiciones del enunciado, u = u1 − u2 es armónica en U , con |u| < en ∂U . Por el Corolario 7.16 resulta u < en U y por su análogo para ∆u ≤ 0, u > − en U , con lo que |u| < en U , de donde se sigue el enunciado. Aplicando el Corolario al caso en que u1 = u2 en ∂U sale el siguiente resultado de unicidad, análogo al Corolario 7.9, pero que no supone que la solución es C 2 (U ). Corolario 7.19. El problema de Dirichlet ( −∆u = f en U u = g en ∂U en un dominio acotado U tiene, a lo más, una única solución u ∈ C 2 (U ) ∩ C 0 (U ). Nota 7.20. Los Corolarios 7.18 y 7.19, dicen que suponiendo que el problema de Dirichlet tiene solución, entonces está bien planteado, ya que la solución es única y depende continuamente del dato de contorno (pequeño dato de contorno lleva a soluciones pequeñas en el interior del dominio). La propiedad del valor medio para funciones armónicas u permite hallar cotas para estimar el comportamiento de u y sus derivadas. Teorema 7.21. Sea u armónica en U ⊂ Rn . Entonces, si r > 0 es tal que Br (x) ⊂ U , vale que C1 |u(x)| ≤ n kukL1 (Br (x)) r y ux (x) ≤ C0 kuk 1 j L (Br (x)) rn+1 para algunas constantes C0 , C1 ∈ R. La norma kukL1 (Br (x)) es Z |u(y)| dVy . kukL1 (Br (x)) := Br (x) Demostración. Por el Corolario 7.13, Z Z n n |u(x)| = n u(y)dVy ≤ n |u(y)| dVy r ωn Br (x) r ωn Br (x) de donde, tomando C0 = ωnn se tiene la primera desigualdad. Como u es armónica en U , uxj también lo es. Por lo tanto, por la primera desigualdad Z 2n n Z 2n n ux (x) ≤ uxj (y)dVy = n u(y)νj (y)dSy j n r ωn B r (x) r ωn ∂B r (x) 2 2 Z 2n n 2n n r ≤ n |u(y)| dSy ≤ n ( m´ax |u(y)|)( )n−1 ωn r ωn ∂B r (x) r ωn y∈∂B r2 (x) 2 2 2n = m´ax |u(y)| . r y∈∂B r2 (x) 4. REGULARIZACIÓN DE FUNCIONES 83 Para y ∈ ∂B r2 (x), vale B r2 (y) ⊂ Br (x) ⊂ U y, por la primera desigualdad Z Z 2n n 2n n 2n n |u(z)| dVz = n kukL1 (Br (x)) . |u(y)| ≤ n |u(z)| dVz ≤ n r ωn B r (y) r ωn Br (x) r ωn 2 Juntando las últimas estimaciones n 2n+1 n2 ux (x) ≤ 2n m´ax |u(y)| ≤ 2n 2 n kuk 1 = kukL1 (Br (x)) j L (Br (x)) r y∈∂B r2 (x) r rn ωn rn+1 ωn con lo que, definiendo C1 = 2n+1 n2 , ωn se tiene la segunda desigualdad del enunciado. Corolario 7.22 (Teorema de Liouville). Sea u : Rn → R armónica y acotada. Entonces u es constante. Demostración. Sea M = supx∈Rn |u(x)| < ∞. Fijando x ∈ Rn , para cada r > 0, por la segunda desigualdad del Teorema 7.21 vale Z M C1 ωn C1 C1 ωn r n ux (x) ≤ C1 kuk 1 = = |u(y)| dV ≤ M y j L (Br (x)) n+1 n+1 n+1 r r r n nr Br (x) que tiende a 0 cuando r → +∞. Por tanto, uxj (x) = 0, para todo x ∈ Rn y para cualquier j. En conclusión, ∇u se anula en Rn y, por tanto, u es constante. Nota 7.23. Es posible dar una demostración más directa del Teorema de Liouville que no usa el Teorema 7.21. Notemos que si u es armónica en U , entonces uxj también lo es. Por tanto, usando el Corolario 7.13 y (7.12c), vale que Z Z 1 n uxj (x) = ux (y)dVy = n ux (y)dVy V ol(Br (x)) Br (x) j r ωn Br (x) j Z n u(y)νj (y)dSy = n r ωn ∂Br (x) donde νj es la j-ésima componente del campo normal unitario a ∂Br (x). En consecuencia, Z Z n n ux (x) ≤ |u(y)| νj (y)|dSy = n |u(y)| dSy j rn ωn ∂Br (x) r ωn ∂Br (x) n n ≤ n sup |u(y)| rn−1 ωn = sup |u(y)| . r ωn y∈∂Br (x) r y∈∂Br (x) Entonces, cuando u es acotada se tiene supy∈∂Br (x) |u(y)| ≤ M para todo x y r > 0, con lo que ux (x) ≤ n M para todo r > 0 j r n de donde sale que ∇u = 0 en R y, finalmente, u es constante en Rn . 4. Regularización de funciones En muchas situaciones es importante poder aproximar una función dada mediante funciones con mayor suavidad (regularidad). En esta sección describiremos brevemente un mecanismo que permite aproximar funciones mediante funciones C ∞ . Antes de pasar a estudiar la regularización propiamente dicha introduciremos un nuevo “producto” entre funciones, llamado producto de convolución que aparecerá varias veces en lo que resta de estas notas. 84 7. LA ECUACIÓN DE LAPLACE 4.1. Producto de Convolución. Definición 7.24. Si f, g : Rn → R se define su convolución f ∗ g : Rn → R mediante Z (f ∗ g)(x) := f (x − y)g(y)dVy Rn siempre que la integral este definida. Proposición 7.25. Siempre que las integrales en cuestión estén definidas vale que el producto de convolución es: conmutativo: f ∗ g = g ∗ f . asociativo: f ∗ (g ∗ h) = (f ∗ g) ∗ h. lineal en cada variable: (a1 f1 + a2 f2 ) ∗ g = a1 (f1 ∗ g) + a2 (f2 ∗ g) para a1 , a2 ∈ R. Proposición 7.26. Si f, g ∈ L1 (Rn ) entonces f ∗ g ∈ L1 (Rn ) y kf ∗ gkL1 (Rn ) ≤ kf kL1 (Rn ) kgkL1 (Rn ) . Demostración. Usando convenientemente el Teorema de Fubini tenemos Z Z Z kf ∗ gkL1 (Rn ) = |(f ∗ g)(x)| dVx = n f (x − y)g(y)dVy dVx Rn Rn R Z Z Z Z ≤ ( |f (x − y)g(y)| dVy )dVx = ( |f (x − y)| |g(y)| dVx )dVy Rn Rn Rn Rn Z Z Z Z |f (z)| dVz ) |g(y)| dVy ( |f (x − y)| dVx ) |g(y)| dVy = ( = Rn Rn Rn Rn Z Z = kf kL1 (Rn ) |g(y)|dVy = kf kL1 (Rn ) |g(y)|dVy Rn Rn = kf kL1 (Rn ) kgkL1 (Rn ) . Nota 7.27. Como muestra la Proposición 7.25, el producto de convolución comparte varias propiedades con el producto usual de funciones. Sin embargo, en algunos aspectos es bien diferente. Por ejemplo, el producto usual de funciones tiene un elemento neutro, R la función constantemente 1. En cambio, (1 ∗ f )(x) = Rn f (y)dVy , que, salvo que f sea nula no es f . En general, no hay una función que sea el elemento neutro (o unidad) de ∗. Dicho esto, notamos que, extendiendo la noción de convolución adecuadamente para que actúe sobre distribuciones R (ver Sección ??), la distribución δ0 es el elemento neutro de ∗, ya que (f ∗ δ0 )(x) “ = ” Rn f (x − y)δ0 (y)dVy “ = ” f (x − 0) = f (x). Bibliografía 1. Milton Abramowitz and Irene A. Stegun, Handbook of mathematical functions with formulas, graphs, and mathematical tables, National Bureau of Standards Applied Mathematics Series, vol. 55, For sale by the Superintendent of Documents, U.S. Government Printing Office, Washington, D.C., 1964. MR MR0167642 (29 #4914) 2. Manuel Balanzat, Matemática avanzada para la física, Manuales, EUDEBA, Buenos Aires, 1977. 3. Ruel V. Churchill, Fourier Series and Boundary Value Problems, McGraw-Hill Book Company, Inc., New York and London, 1941. MR MR0003251 (2,189d) 4. Lawrence C. Evans, Partial differential equations, Graduate Studies in Mathematics, vol. 19, American Mathematical Society, Providence, RI, 1998. MR MR1625845 (99e:35001) 5. Georgi P. Tolstov, Fourier series, Dover Publications, Inc., New York, 1976, Second English translation, Translated from the Russian and with a preface by Richard A. Silverman. MR 0425474 (54 #13429) 6. H. F. Weinberger, A first course in partial differential equations with complex variables and transform methods, Blaisdell Publishing Co. Ginn and Co. New York-Toronto-London, 1965. MR MR0180739 (31 #4969) 85 Índice alfabético B bases de Hilbert, 16 F fórmula de D’Alembert, 60 fórmula de Kirchoff, 72 fórmula de Lagrange, 22 fórmula de Poisson, 73 fenómeno de Gibbs, 6 frontera libre, 65 función Γ, 33 función continua a trozos, 6 función continua a trozos en [a, b], 6 función de Bessel de primera especie, 33 función de Bessel de primera especie modificada, 36 función de Bessel de segunda especie, 34 función de Heaviside, 67 función de Neumann, 34 función de prueba, 48 función suave a trozos, 7 funciones armónicas, 75 C característica, 50 completos, 18 conjuntos de medida nula, 15 constante de Euler, 34 convergencia puntual de funciones, 20 convergencia uniforme de funciones, 20 convolución, 84 cota superior, 81 cuasi lineal, 40 curva característica, 43 D Dalembertiano, 59 derivada de orden α, 40 derivada normal, 41, 51 derivadas parciales, 39 desarrollo de Fourier–Bessel, 32 desigualdad de Parseval, 17 dominio de dependencia de (x, t), 61 dominio de influencia de (x0 , 0), 61 G gradiente, 41 H hiperbólica, 55 E Ecuación de Airy, 42 Ecuación de Ampère, 42 Ecuación de Bessel de orden ν, 33 Ecuación de Bessel modificada, 36 Ecuación de Burgers, 42 Ecuación de Hamilton-Jacobi, 42 Ecuación de Korteweg-de Vries (KdV), 42 Ecuación de Laplace, 42, 75 Ecuación de onda, 42 ecuación de ondas no homogénea, 65 ecuación de Poisson, 75 Ecuación de Schrödinger, 42 Ecuación del calor o de difusión, 42 ecuación diferencial, 39 ecuación lineal, 40 Ecuación lineal de transporte, 42, 46 Ecuaciones de Maxwell, 42 Ecuaciones de Navier-Stokes, 42 elíptica, 55 espacio de Hilbert, 16 I Igualdad de Parseval, 13 ínfimo de A, 81 L laplaciano, 41 Lema de Riemann–Lebesgue, 17 M método de las curvas características, 43 matriz Hessiana, 41 media cuadrática, 18 N Núcleo de Dirichlet, 23 no característica, 50, 51 norma 2, 18 notación de multi-índices, 40 O orden de la ecuación diferencial, 39 ordinaria, 39 87 88 7. LA ECUACIÓN DE LAPLACE P parabólica, 55 principio del mínimo, 82 Problema de Cauchy, 49 problema de Dirichlet, 77 problema de Neumann, 77 promedios esféricos, 71 S serie de Fourier, 4 serie exponencial de Fourier, 12 signo de x, 67 sistemas de ecuaciones diferenciales, 40 solución, 39 solución clásica, 40, 47 solución débil, 40, 47, 48 solución distribucional, 40 solución fundamental, 76 sucesión convergente, 20 sucesión convergente en un espacio con producto interno, 16 sucesión de Cauchy, 20 sucesión de Cauchy en un espacio con producto interno, 16 sucesión puntualmente de Cauchy, 20 sucesión uniformemente de Cauchy, 21 supremo, 81 supremo de A, 81 T Teoría de Sturm–Liouville, 28
© Copyright 2024