Un poco de teorı́a sobre ecuaciones diferenciales ordinarias Jerónimo Basa 23 de agosto de 2015 Resumen Este es un sencillo trabajo sobre la teorı́a más simple de ecuaciones diferenciales ordinarias. Consta de los teoremas básicos de existencia y unicidad, ámpliamente encontrado en la mayorı́a de los libros, y algunas referencias al análisis que ayudarán en las demostraciones. Como siempre, se presenta una introducción a la notación y definiciones. El apéndice contiene lo necesario para realizar una lectura directa del tema, se recomienda comenzar por allı́. Índice 1. Existencia y unidad 1.1. Existencia de soluciones . . . . . . . . . . . . . . . . . . . . . . 1.2. Unicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3. El método de las aproximaciones sucesivas . . . . . . . . . . . . 2. Continuación de soluciones 1 1 6 9 11 3. Problemas con valores iniciales 15 3.1. Método de resolución . . . . . . . . . . . . . . . . . . . . . . . . 17 3.2. Diferencial exacta . . . . . . . . . . . . . . . . . . . . . . . . . . 19 3.3. Ecuaciones de Bernoulli . . . . . . . . . . . . . . . . . . . . . . 21 4. Ecuaciones de segundo orden 4.1. Método de reducción de orden . . . . . . . 4.2. Ecuaciones a coeficientes constantes . . . 4.3. Método de los coeficientes indeterminados 4.4. Variación de los parámetros . . . . . . . . 4.5. Ecuaciones de Euler-Cauchy . . . . . . . . i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 26 28 31 33 35 5. Sistemas de ecuaciones diferenciales 37 5.1. Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . 39 5.2. Completitud, matriz exponencial y caso general . . . . . . . . . 40 A. Sección de apéndice 45 Referencias 47 ii Segunda Edición 1. Existencia y unidad El propósito de las siguientes secciones es mostrar algunos resultados básicos y útiles sobre existencia, unicidad y continuación del problema x0 = f (t, x). (E) Antes de meternos en discusiones como encontrar soluciones de ecuaciones, primero debemos preguntar si realmente existen. Si se quiere encontrar soluciones reales a la ecuación x2 = −1 ni siquiera nos tomaremos la molestia. Pues sabemos que sus soluciones1 no son reales. En cambio, si estudiamos las soluciones de algo como 1 x2 + + 1 = 0, x primero descartamos el valor que no puede tomar x. De la misma manera, para casos como √ x + ln(x − 2) = c, estudiamos todo un conjunto (llamado dominio) antes de adentrarnos a la búsqueda de soluciones. Para ecuaciones diferenciables tenemos exactamente las mismas consideraciones. Nos gustarı́a tener herramientas (si es que existen) que nos aseguren una (no necesariamente única) solución, de acuerdo a las propiedades de los términos que involucran la ecuación determinada. 1.1. Existencia de soluciones Denotemos con I = (a, b) un intervalo abierto en la recta real, es decir, el conjunto de todos los números reales t tal que a < t < b para constantes a y b reales. El conjunto de todas las funciones reales2 que poseen k derivadas parciales continuas sobre I se denota por C k (I). Si f es una función con derivada parcial k-ésima continua, decimos que f ∈ C k (I). Si D es un dominio, i.e., un conjunto abierto y conexo, en el plano real (t, x), el conjunto de todas las funciones f definidas en D tal que ∂ k f /∂tp ∂xq (p + q = k) existe y es continua en D, decimos que f ∈ C k (D). Entonces nuestro problema central es encontrar una función diferenciable ϕ definida en un intervalo real I tal que (t, ϕ(t)) ∈ D (t ∈ I) ϕ0 (t) = f (t, ϕ(t)), 1 2 ±i. También puede extenderse a funciones complejas. 1 con f ∈ C k (I). Si el intervalo I y la función ϕ existen, entonces ϕ se llama una solución de la ecuación diferencial (E) en I. En términos geométricos, (E) preescribe una pendiente f (t, x) en cada punto de D. Una solución ϕ en I es una función cuya gráfica tiene pendiente f (t, ϕ(t)) para cada t ∈ I. El sistema en (E) puede tener más de una solución en el intervalo I. Ejemplo 1.1. El sistema x0 = 1 tiene, para cada constante real c, el conjunto de soluciones ϕc = t + c, en cualquier intervalo real I, pero sólo una de estas soluciones pasa a través del punto (1, 1). Por lo tanto, el problema de valores iniciales puede establecerse de la siguiente manera. Dado un punto (τ, ξ) en D, encontrar un intervalo I que contiene a τ y una solución ϕ de (E) que satisface ϕ(τ ) = ξ. Supongamos que tal solución ϕ existe en un intervalo dado I. Entonces por integración directa se obtiene la ecuación integral Z ϕ(t) = ξ + t f (s, ϕ(s))ds (t ∈ I). (V) τ De manera similar, supongamos que ϕ es continua y satisface la anterior ecuación integral en I. Entonces claramente ϕ(τ ) = ξ, y por diferenciación se sigue que ϕ0 (t) = f (t, ϕ(t)). En otras palabras, hay una equivalencia directa entre las soluciones ϕ de (E) en I tal que ϕ(τ ) = ξ, y las funciones continuas ϕ que satisfacen la anterior ecuación integral. Dada una función f continua en D, como fue introducida anteriormente, la primera pregunta es si existe una solución al problema (E). La respuesta es sı́, pero teniendo mucho cuidado con la elección de I. Ejemplo 1.2. Consideremos el sistema x0 = x2 , está claro que una solución a este problema que pase por (1, −1) viene dado por ϕ(t) = −t−1 . Sin embargo, esta solución no existe en t = 0 siendo que f (t, x) = x2 es continua allı́. Esto muestra que cualquier teorema general sobre existencia de soluciones a ecuaciones de este tipo, son necesariamente de naturaleza local. Para probar 2 entonces dicha existencia local, realizaremos la construcción que se muestra a continuación. Sea f una función real continua en un dominio D del plano (t, x). Una solución ε-aproximada de (E) en un intervalo I que contiene a t es una función ϕ continua en I tal que 1. (t, ϕ(t)) ∈ D (t ∈ I). 2. ϕ ∈ C 1 (I), excepto posiblemente en un conjunto finito de puntos S en I, donde ϕ0 puede tener discontinuidades simples. 3. |ϕ0 (t) − f (t, ϕ(t))| < ε (t ∈ I \ S). Si f es continua en el rectángulo R: |t − τ | ≤ a, |x − ξ| ≤ b alrededor del punto (τ, ξ) entonces es acotada allı́. Sea M = máx{|f (t, x)|} ((t, x) ∈ R) y b α = mı́n a, M . Teorema 1.3. Sea f una función real continua en R. Dado ε > 0, existe una solución ε-aproximada ϕ de (E) en |t − τ | ≤ α tal que ϕ(τ ) = ξ. Demostración. Sea ε > 0 dado. Se realizará la construcción sólo para [τ, τ +α]. La solución aproximada va a consistir en una poligonal que comienza en (τ, ξ), es decir, consiste en un número finito de segmentos de recta unidos punto a punto. Por ser R ⊂ R2 cerrado y acotado, es compacto. Como f es continua en R, es uniformemente continua, y por tanto, para el ε dado, existe δε > 0 tal que |f (t, x) − f (t̂, x̂)| < ε, si (t, x) ∈ R, (t̂, x̂) ∈ R y |t − t̂| < δε , |x − x̂| < δε . Ahora, realizamos una partición P del intervalo [τ, τ + α] en n partes τ = t0 < t1 < . . . < tn = τ + α de modo que δε kPk = máx |tk − tk−1 | ≤ mı́n δε , . M 3 (1.1) Ahora, desde el punto (τ, ξ) se construye un segmento de recta con pendiente f (τ, ξ) hacia la derecha de τ hasta que intersecte con la recta t = t1 en algún punto; digamos (t1 , x1 ). Este segmento de recta debe estar totalmente contenido en una región triangular limitada por M , la recta τ +α, y −M . Esto se sigue inmediatamente de la definición de α y el hecho de que |f (t, x)| ≤ M . En el punto (t1 , x1 ) se construye un segmento de recta a la derecha de t1 con pendiente f (t1 , x1 ) hasta que intersecte con la recta t = t2 en un punto (t2 , x2 ). Continuando de esta manera, en el n-ésimo paso el camino resultante ϕ llega a la recta t = tn = τ + α. Este es el ϕ que resultará ser una solución ε-aproximada. Analı́ticamente, puede expresarse como ϕ(τ ) = ξ ϕ(t) = ϕ(tk−1 ) + f (tk−1 , ϕ(tk−1 ))(t − tk−1 ). (1.2) Por la forma en que fue construida, resulta trivial ver que ϕ es C 1 ([τ, τ + α]) a trozos y que |ϕ(t) − ϕ(t̂)| ≤ M |t − t̂|. (t, t̂ ∈ [τ, τ + α]) (1.3) Si t es tal que tk−1 < t < tk entonces (1.3) junto con (1.1) implican que |ϕ(t) − ϕ(tk−1 )| < δε . Por (1.2) y (E) |ϕ0 (t) − f (t, ϕ(t))| = |f (tk−1 , ϕ(tk−1 )) − f (t, ϕ(t))| < ε debido a la continuidad uniforme de f . Esto muestra que ϕ es una solución ε-aproximada. Para probar la existencia de una sucesión de soluciones aproximadas que convergen a una solución de (E), donde sólo se utiliza la hipótesis de que f ∈ C (R), se requiere la noción de familia equicontinua de funciones. Definición 1.4. Un conjunto de funciones F = {f } definida sobre algún intervalo real I se dice equicontinua en I si, dado ε > 0, existe δ(ε) > 0, que no depende de f ∈ F y t, t̂ ∈ I, tal que |f (t) − f (t̂)| < ε cuando |t − t̂| < δ. Lema 1.5 (Ascoli). Sea I un intervalo acotado y F un conjunto infinito, uniformemente acotado y equicontinuo de funciones. Entonces F contiene una sucesión {fn } que converge uniformemente en I. Demostración. Sea {rk } los números racionales contenidos en I enumerados en algún orden. El conjunto de números {f (r1 )}, f ∈ F , es acotado, y por tanto existe una sucesión de funciones distintas {fn1 }, fn1 ∈ F , tal que {fn1 (r1 )} es convergente. Más aún, el conjunto de números {fn1 (r2 )} tiene una subsucesión 4 convergente {fn2 (r2 )}. Continuando de esta manera, se obtiene un conjunto infinito de funciones fnk ∈ F , n, k = 1, 2, . . . , con la propiedad de que {fnk } converge en r1 , . . . , rk . Defı́nase fn como la función fnn . Claramente {fn } converge en cada número racional de I. Luego, dado ε > 0 y un racional rk ∈ I, entonces existe un entero Nε (rk ) tal que |fn (rk ) − fm (rk )| < ε. (n, m > Nε (rk )) Para el ε dado, existe un δ(ε), independiente de t, t̂ y f ∈ F tal que |f (t) − f (t̂)| < ε, |t − t̂| < δ. Dividimos el intervalo I en un número finito de subintervalos, digamos I1 , I2 , . . . , Ip tal que la longitud del subintervalo más grande no supere δε . Para cada Ik , tomamos un número racional r̂k ∈ Ik . Si t ∈ I, entonces t debe estar en alguno de los Ik , por lo tanto |fn (t) − fm (t)| < |fn (t) − fn (r̂k )| + |fn (r̂k ) − fm (r̂k )| + |fm (r̂k ) − fm (t)| < 3ε para n, m > máx{Nε (r̂1 ), . . . , Nε (r̂p )}. Finalmente, resulta que {fn } es uniformemente de Cauchy, y por tanto converge uniformemente en I ⊂ R. Teorema 1.6 (Cauchy-Peano). Si f ∈ C (R), entonces existe una solución ϕ ∈ C 1 de (E) en |t − τ | ≤ α tal que ϕ(τ ) = ξ. Demostración. Sea {εn } una sucesión monótona decreciente de números reales positivos que tiende a cero cuando n → ∞.3 Por (1.3), para cada εn , existe una solución ε-aproximada ϕn de (E) en |t − τ | ≤ α tal que ϕn (τ ) = ξ. Elijamos una de estas soluciones ϕn para cada εn . Por (1.3) se sigue que |ϕn (t) − ϕn (t̂)| ≤ M |t − t̂|. (1.4) Aplicamos (1.4) a t̂ = τ ; puede verse que, como |t − τ | ≤ α, la sucesión {ϕn } es uniformemente acotada pues |ϕn (t)| ≤ |ϕn (τ )| + |ϕn (t) − ϕn (τ )| ≤ |ξ| + M α. Más aún, (1.4) implica que {ϕn } es un conjunto equicontinuo. Por el lema de Ascoli, existe una subsucesión {ϕnk }, k = 1, 2, . . . que converge uniformemente en [τ − α, τ + α] a una función lı́mite ϕ, que debe ser continua ya que cada ϕn lo es. 3 E.g. 1/n. 5 La relación definida por ϕn como una solución ε-aproximada puede escribirse en su forma integral como Z t ϕn (t) = ξ + (f (s, ϕn (s)) + ∆n (s))ds, (1.5) τ donde ( ∆n (t) = ϕ0n (t) − f (t, ϕn (t)), si ϕ0n existe . 0, en otro caso Por ser ϕn solución ε-aproximada, |∆n (t)| ≤ εn .4 Como f es uniformemente continua en R, y ϕnk → ϕ uniformemente en [τ − α, τ + α] si k → ∞, se sigue que f (t, ϕnk (t)) → f (t, ϕ(t)) uniformemente en [τ − α, τ + α] si k → ∞. Reemplazando n por nk en (1.5) se obtiene Z t ϕ(t) = ξ + f (s, ϕ(s))ds. (1.6) τ Pero ya vimos que toda función ϕ que cumple (1.6) es equivalente a decir que ϕ ∈ C 1 ([τ − α, τ + α]) y es solución de (E) con ϕ(τ ) = ξ. Corolario 1.7. Sea f continua en un dominio D del plano (t, x) y supongamos que (τ, ξ) ∈ D. Entonces existe una solución ϕ de (E) en algún intervalo que contiene a τ en su interior. Demostración. Como D es abierto, se tiene la bola B(τ,ξ) (r) ⊂ D, con centro (τ, ξ) y radio r > 0. Sea R cualquier rectángulo que encierra (τ, ξ) y que está contenido dentro de la bola B(τ,ξ) (r), y por lo tanto, totalmente dentro de D. Luego, aplicando el teorema de Cauchy-Peano en R nos da el resultado deseado. 1.2. Unicidad Existen muchos ejemplos donde la continuidad de la f en (E) no alcanza para garantizar la unicidad de las soluciones que pasan por un determinado punto. Sin embargo, podemos dar una condición suficiente que ayudará a resolver este detalle. Definición 1.8. Sea f definida en un dominio D del plano (t, x). Decimos que f es Lipschitz continua si existe una constante k > 0 tal que para todo (t, x1 ) y (t, x2 ) en D |f (t, x1 ) − f (t, x2 )| < k|x1 − x2 |. La constante k es llamada constante de Lipschitz. 4 En efecto, ∆n (t) → 0 en [τ − α, τ + α] cuando n → ∞ por propiedad de εn . 6 Si f es Lipschitz continua en D, entonces f es uniformemente continua en x para cada t fijo, sin embargo nada puede derivarse sobre la continuidad de f con respecto de t. Teorema 1.9. Supongamos que f es una función Lipschitz continua en D. Sean ϕ1 , ϕ2 ∈ C 1 (a, b) dos soluciones ε1 - y ε2 -aproximadas de (E), que satisfacen |ϕ1 (τ ) − ϕ2 (τ )| < δ para algún τ ∈ (a, b), donde δ es una constante positiva. Si ε = ε1 + ε2 , entonces ε k|t−τ | |ϕ1 (t) − ϕ2 (t)| < δek|t−τ | + e − 1 , ∀t ∈ (a, b) (1.7) k donde k es la constante de Lipschitz. Demostración. Sin pérdida de generalidad, consideremos el caso en que τ < t < b. Como ϕ1 y ϕ2 son soluciones ε1 - y ε2 -aproximadas de (E) |ϕ0i (s) − f (s, ϕi (s))| < εi (i = 1, 2) (1.8) para todo punto en τ < s < b.5 Integrando desde τ a t, donde τ < t < b, (1.8) resulta en Z t ϕi (t) − ϕi (τ ) − f (s, ϕi (s))ds < εi (t − τ ). (1.9) τ Usando el hecho de que |α − β| ≤ |α| + |β|, lo anterior nos da Z t r(t) − r(τ ) − < ε(t − τ ) [f (s, ϕ (s)) − f (s, ϕ (s))]ds 1 2 τ donde r(x) = |ϕ1 (x) − ϕ2 (x)| es una función en [τ, b). Entonces la última desigualdad implica Z t r(t) ≤ r(τ ) + [f (s, ϕ1 (s)) − f (s, ϕ2 (s))]ds + ε(t − τ ) τ y por ser f Lipschitz continua en D, se tiene Z t r(t) ≤ r(τ ) + k r(s)ds + ε(t − τ ). τ Defı́nase la función g como Z t g(t) = r(s)ds. (τ < t < b) τ 5 En realidad, para todo punto donde tenga sentido definir ϕ0i (s). 7 (1.10) En términos de g, (1.10) es g 0 (t) − kg(t) ≤ δ + ε(t − τ ) ya que por hipótesis, r(τ ) < δ. Multiplicando ambos miembros de la desigualdad por el término e−k(t−τ ) e integrando el resultado desde τ a t, se obtiene δ ε ε e−k(t−τ ) g(t) ≤ 1 − e−k(t−τ ) − 2 e−k(t−τ ) (1 + k(t − τ )) + 2 k k k o ε ε δ k(t−τ ) e − 1 − 2 (1 + k(t − τ )) + 2 ek(t−τ ) . k k k Combinando (1.10) con (1.11) resulta ε k(t−τ ) r(t) < δek(t−τ ) + e −1 . k g(t) ≤ (1.11) Notemos que si δ y ε son pequeños, también la diferencia ϕ1 (t) − ϕ2 (t) lo será. En efecto, si δ = ε = 0, entonces ϕ1 (t) = ϕ2 (t), y hay al menos una solución de (E) que pasa a través del punto (τ, ξ) en D. Esto prueba la siguiente Proposición 1.10. Sea f Lipschitz continua en D y (τ, ξ) un punto. Si ϕ1 y ϕ2 son dos soluciones de (E) en (a, b) tal que ϕ1 (τ ) = ϕ2 (τ ) = ξ, τ ∈ (a, b), entonces ϕ1 = ϕ2 . En realidad, para obtener un resultado sobre unicidad, no es necesario una hipótesis tan fuerte como la Lipschitz continuidad de la f . Teorema 1.11. Supongamos que f es Lipschitz continua en el rectángulo R: |t − τ | ≤ a, |x − ξ| ≤ b alrededor del punto (τ, ξ). Sea M = máx{|f (t, x)|} ((t, x) ∈ R) y b . α = mı́n a, M Entonces existe una única solución ϕ ∈ C 1 ([τ − α, τ + α]) de (E) tal que ϕ(τ ) = ξ. Demostración. Sea {εn } una sucesión monótona decreciente de números reales positivos que tiende a cero cuando n → ∞. Elijamos para cada εn , una solución εn -aproximada ϕn . Estas funciones satisfacen Z t ϕn (t) = ξ + (f (s, ϕn (s)) + ∆n (s))ds (1.12) τ 8 donde ( ∆n (t) = ϕ0n (t) − f (t, ϕn (t)), si ϕ0n existe . 0, en otro caso Por (1.7) aplicado a ϕn y ϕm se obtiene, para |t − τ | ≤ α, (εn + εm )(ekα − 1) k donde k existe, por ser f Lipschitz continua. Entonces la sucesión {ϕn } es uniformemente convergente en |t − τ | ≤ α, y por lo tanto existe una función lı́mite continua ϕ en este intervalo tal que ϕn → ϕ si n → ∞ uniformemente. Este hecho, sumado a la continuidad uniforme de f en R, implica que |ϕn (t) − ϕm (t)| ≤ f (t, ϕn (t)) → f (t, ϕ(t)) (n → ∞) uniformemente en |t − τ | ≤ α. Luego Z t Z t lı́m (f (s, ϕn (s)) + ∆n (s))ds = f (s, ϕ(s))ds. n→∞ τ τ Luego por (1.12), si n → ∞, t Z f (s, ϕ(s))ds ϕ(t) = ξ + τ que, como ya vimos, implica una solución a (E) con las condiciones requeridas. Dicha solución es única por la proposición anterior. 1.3. El método de las aproximaciones sucesivas El teorema de Cauchy-Peano no es satisfactorio a la hora de establecer un método constructivo para obtener una solución de (E). Sin embargo, como fue mencionado, si se sabe que la solución, que pasa a través de un punto dado, es única, entonces la solución poligonal aproximada original puede usarse para derivar la solución; no se necesita elegir ninguna subsucesión. En particular, si f es Lipschitz continua, se tiene la siguiente cota para el error cuando se establece una solución ε-aproximada en lugar de la solución actual εn ek|t−τ | − 1 . |ϕ(t) − ϕn (t)| ≤ k Vamos a considerar R, M y α como ya fue hecho anteriormente; y desde luego, f es continua en R. Las aproximaciones sucesivas para (E) se definen como funciones ϕ0 , ϕ1 , . . . , dadas recursivamente por las expresiones ϕ0 (t) = ξ Z t ϕk+1 (t) = ξ + f (s, ϕk (s))ds τ sobre |t − τ | ≤ α. 9 (1.13) Teorema 1.12 (Picard-Lindelöf ). Si f es Lipschitz continua en R, entonces las aproximaciones sucesivas ϕk existen en |t − τ | ≤ α como funciones continuas, y convergen uniformemente, en este intervalo, a la única solución ϕ de (E) tal que ϕ(τ ) = ξ. Demostración. Sin pérdida de generalidad, tomamos el intervalo [τ, τ + α]. Se mostrará que cada ϕk existe en [τ, τ + α], ϕk ∈ C 1 ([τ, τ + α]) y |ϕk (t) − ξ| < M (t − τ ). (t ∈ [τ, τ + α]) (1.14) Claramente ϕ0 , siendo la constante ξ, satisface esta condición. Asumamos que ϕk también lo hace; entonces f (t, ϕk (t)) está definida y es continua en [τ, τ + α]. Por (1.13) esto implica que ϕk+1 existe en [τ, τ + α], ϕk+1 ∈ C 1 allı́, y |ϕk+1 (t) − ξ| < M (t − τ ). Entonces las anteriores propiedades se siguen para todo ϕk por inducción. Geométricamente, esto significa que las ϕk comienzan en (τ, ξ) y permanecen dentro de la región triangular acotada por las rectas x − ξ = ±M (t − τ ) y t = τ + α. Resta probar la convergencia de las ϕk . Sea ∆k definida como ∆k (t) = |ϕk+1 (t) − ϕk (t)|. (t ∈ [τ, τ + α]) Entonces de (1.13) por sustracción, y el hecho de que f es Lipschitz continua en R, con alguna constante c > 0, Z t ∆k (t) ≤ c ∆k−1 (s)ds. (1.15) τ Pero (1.14) nos dice que para k = 0, ∆0 (t) = |ϕ1 (t) − ϕ0 (t)| < M (t − τ ), y puede generalizarse trivialmente que, por inducción sobre (1.15) se tiene M ck+1 (t − τ )k+1 . c (k + 1)! P Esto muestra que los términos de la serie ∞ son mayorizados por la k=0 ∆k (t) P∞ cα serie de potencias de (M/c)e , y por tanto, la serie k=0 ∆k (t) es uniformemente convergente en [τ, τ + α]. Luego, la serie ∆k (t) ≤ ϕ0 (t) + ∞ X (ϕk+1 (t) − ϕk (t)) k=0 10 es absoluta y uniformemente convergente en [τ, τ + α]. En consecuencia, la suma parcial n−1 X ϕ0 (t) + (ϕk+1 (t) − ϕk (t)) = ϕn (t) k=0 tiende uniformemente a la función lı́mite continua ϕ sobre [τ, τ + α]. Resta ver que la función ϕ satisface Z t f (s, ϕ(s))ds (t ∈ [τ, τ + α]) (1.16) ϕ(t) = ξ + τ y que, por tanto, es solución de (E). Como todas las ϕk se mantienen en la región triangular mencionada, también ası́ lo hace ϕ. Entonces f (s, ϕ(s)) existe para s ∈ [τ, τ + α]. Claramente Z t Z t [f (s, ϕ(s)) − f (s, ϕk (s))]ds ≤ |f (s, ϕ(s)) − f (s, ϕk (s))|ds τ τ Z t ≤ c |ϕ(s) − ϕk (s)|ds τ por ser f Lipschitz continua en R. Pero |ϕ(s) − ϕk (s)| → 0 si k → ∞ uniformemente en [τ, τ + α], y por lo tanto la desigualdad muestra que (1.13) implica (1.16) cuando k → ∞. Se sabe, por lo proposición, que esta solución es única. Una cota para el error en la aproximación de ϕ mediante la n-ésima aproximación ϕn viene dada por |ϕ(t) − ϕk (t)| ≤ ∞ X |ϕk+1 (t) − ϕk (t)| ≤ k=n+1 k=n ≤ ∞ M X ck (t − τ )k c k! ∞ ∞ M X (cα)k M (cα)n+1 X (cα)k M (cα)n+1 cα < = e . c k! c (n + 1)! k! c (n + 1)! k=n+1 2. k=0 Continuación de soluciones Una vez que la existencia de una solución, para un problema de valores iniciales, es verificada sobre algún intervalo J, cabe preguntarse si es posible extender dicha solución a un intervalo más grande, digamos J0 . Llamamos a este proceso continuación de soluciones. Para ser más especı́ficos, sea ϕ una solución de (E) con condiciones iniciales en algún intervalo J. Por una continuación de ϕ nos referimos a una extensión ϕ0 de ϕ a un intervalo más grande J0 de manera que la extensión resuelva (E) en J0 . Entonces, decimos que ϕ es continuable en caso de cumplirse dicha propiedad, y no continuable en otro caso. 11 Ejemplo 2.1. Para el problema x0 = x2 , la solución ϕ(t) = (1 − t)−1 −1<t<1 sobre es siempre continuable a la izquierda, pero no es continuable a la derecha. Ejemplo 2.2. Para el problema x0 = x1/3 , la solución ψ(t) ≡ 0 sobre −1<t<0 es continuable a la derecha del cero en más de una forma. Por ejemplo, ψ0 (t) ≡ 0 o ψ0 (t) = (2t/3)3/2 para t > 0 funcionan. Teorema 2.3. Sea f ∈ C (D) y acotada en D. Supongamos que ϕ es solución de (E) en el intervalo J = (a, b). Entonces, los lı́mites lı́m ϕ(t) = ϕ(a+ ) t→a+ y lı́m ϕ(t) = ϕ(b− ) t→b− existen. Si (a, ϕ(a+ )) (respectivamente se tiene para (b, ϕ(b− )) está en D, entonces la solución ϕ puede continuarse a la izquierda del punto t = a (respectivamente, a la derecha del punto t = b). Demostración. Vamos a considerar el caso para el punto final b. Sea M la cota para |f (t, x)| en D, con t fijo en J y sea ϕ(τ ) = ξ. Entonces para τ < t < u < b la solución ϕ satisface (V), ası́ que Z u f (s, ϕ(s))ds |ϕ(u) − ϕ(t)| = Z tu Z u ≤ |f (s, ϕ(s))| ds ≤ M ds = M (u − t). t t Dada una sucesión {tm } ⊂ (τ, b) con tm tendiendo de manera monótona a b, vemos que la estimación dada por la anterior desigualdad implican que {ϕ(tm )} es de Cauchy. Entonces, el lı́mite ϕ(b− ) existe. Si (b, ϕ(b− )) está en D, entonces por el teorema de existencia local hay una solución ϕ0 de (E) que satisface ϕ0 (b) = ϕ(b− ). La solución ϕ0 (t) estará definida en algún intervalo b ≤ t ≤ b + c para alguna constante c > 0. Hágase ϕ0 (t) = ϕ(t) en a < t < b. Entonces ϕ0 es continua en a < t < b + c y satisface Z t ϕ0 (t) = ξ + f (s, ϕ0 (s))ds, (a < t < b) (2.1) τ y − Z ϕ0 (t) = ϕ(b ) + t f (s, ϕ0 (s))ds, b ≤ t ≤ b + c. b El lı́mite de (2.1) cuando t tiende a b parece ser Z b − ϕ0 (b ) = ξ + f (s, ϕ0 (s))ds. τ 12 Luego Z b Z τ t Z t f (s, ϕ0 (s))ds f (s, ϕ0 (s))ds = ξ + f (s, ϕ0 (s))ds + ϕ0 (t) = ξ + τ b sobre b ≤ t < b + c. Como ϕ0 resuelve (V) en a < t < b + c, también lo hace para (E) en el mismo intervalo. Corolario 2.4. Si f ∈ C (D) y si ϕ es una solución de (E) con condiciones iniciales en un intervalo J, entonces ϕ puede continuarse a un intervalo maximal J ∗ ⊃ J de manera que (t, ϕ(t)) → ∂D si t → ∂J ∗ y |t| + |ϕ(t)| → ∞ si ∂D = ∅. La solución ϕ∗ que es continuación sobre J ∗ es no continuable. Demostración. Sea ϕ solución sobre J dada. El grafo de ϕ es el conjunto Gr(ϕ) = {(t, ϕ(t)) : t ∈ J}. Sea A = {ψ : ψ es una solución de ψ 0 (t) = f (t, ψ(t)) que es continuación de ϕ}. Sean ϕ1 y ϕ2 dos elementos de A. Definimos la relación ϕ1 ≤ ϕ2 si, y sólo si, Gr(ϕ1 ) ⊂ Gr(ϕ2 ), i.e., si ϕ2 es una continuación de ϕ1 . La relación “≤” induce en A un orden parcial. Si C = {ϕα : α ∈ I 6 } es una cadena 7 de A entonces [ Gr(ϕα ) α∈I es el grafo de una función ϕI que es continuación de ϕ, i.e., ϕI ∈ A y ϕα ≤ ϕI ∀ α ∈ I. Esta ϕI es una cota superior para la cadena. Por el lema de Zorn existe un elemento maximal ϕ∗ .8 Sea J ∗ el dominio de ϕ∗ . Entonces J ∗ es un intervalo abierto en virtud del teorema de extensión de soluciones.9 Hagamos, entonces, J ∗ = (a, b). Asumamos que b < ∞ y que ∂D 6= ∅. D, la clausura de D, puede definirse como D ∪ ∂D. Si f es acotada en D entonces existe ϕ∗ (b− ) con (b, ϕ∗ (b− )) 6∈ D, pues sino serı́a continuable. Luego (b, ϕ∗ (b− )) ∈ ∂D y es (t, ϕ(t)) → ∂D si t → b− . Teorema 2.5. Sean h(t) y g(x) funciones continuas y positivas sobre t0 ≤ t < ∞ y 0 < x < ∞, y tal que 1/g(x) no es integrable en el infinito, i.e., Z ∞ 1 dx = +∞ ∀ a > 0. (2.2) g(x) a 6 Un conjunto de ı́ndices. Subconjunto totalmente ordenado. 8 Claramente ϕ∗ no es continuable, de lo contrario no serı́a maximal. 9 Si J ∗ = (a, b], como (b, ϕ∗ (b)) ∈ D entonces ϕ∗ podrı́a continuarse a la derecha de b, lo cual no puede ser. 7 13 Entonces todas las soluciones de x0 = h(t)g(x), x(τ ) = ξ (2.3) con τ ≥ t0 y ξ > 0 pueden continuarse a la derecha sobre todo el intervalo τ ≤ t < ∞. Demostración. Si el resultado no fuese cierto, entonces existe una solución ϕ(t) y T > τ tal que ϕ(τ ) = ξ, ϕ(t) existe sobre τ ≤ t < T pero no es continuable más allá de T . Como ϕ es solución de (2.3), ϕ0 (t) > 0 sobre τ ≤ t < T por lo que ϕ es creciente. Por el corolario anterior, se sigue que ϕ(t) → +∞ cuando t → T − . Por separación de variables se tiene que Z t 0 Z t ϕ (s) x0 h(s) = h(s)ds = =⇒ ds. (con x = ϕ(s)) g(x) τ g(ϕ(s)) τ El cambio de variables mencionado muestra que la última expresión es Z ϕ(t) Z ϕ(t) Z t 0 dx dx ϕ (s) ds = = . g(ϕ(s)) g(x) g(x) ϕ(τ ) ξ τ Tomando lı́mite t → T − obtenemos finalmente Z T Z ∞ dx h(s)ds = . g(x) τ ξ Por hipótesis, la integral de la derecha no existe. Pero como h es continua, la integral de la izquierda existe y es finita. Esta contradicción prueba el teorema. Teorema 2.6 (Gronwall). Sea r una función continua no negativa en un intervalo J = [a, b]. Sean δ y k constantes positivas tal que Z r(t) ≤ δ + k b r(s)ds. (t ∈ J) a Entonces se tiene la desigualdad de Gronwall r(t) ≤ δek(t−a) . Rt Demostración. Sea R(t) = δ + k a r(s)ds. Claramente R(a) = δ y además R(t) ≥ r(t). Multiplicando por −k y como R0 (t) = kr(t), se tiene R0 (t) − kR(t) ≤ R0 (t) − kr(t) = 0. Multiplicando por ek(a−t) se obtiene 0 R(t)ek(a−t) ≤ 0, 14 por lo que ek(a−t) R(t) − δ ≤ 0, del cual se deduce que δek(t−a) ≥ R(t) ≥ r(t). Teorema 2.7. Sea J ⊂ R un intervalo abierto y f Lipschitz continua en J × R. Entonces toda solución de (E) con x(τ ) = ξ existe en todo el intervalo J. Demostración. Supongamos que J = (a, b) y τ ∈ J, la existencia y unicidad local de (E) está garantizada por los teoremas anteriores. Supongamos que ϕ es solución en (τ, c) con c < b. Probamos que ϕ es continuable a la derecha de c. Obervemos que Z t ϕ(t) = ξ + f (s, ϕ(s))ds, ∀ t ∈ [τ, c) τ entonces t Z t Z [f (s, ϕ(s)) − f (s, ξ)] ds + ϕ(t) − ξ = f (s, ξ) ds τ τ y por tanto Z |ϕ(t) − ξ| ≤ τ t k|ϕ(s) − ξ| ds + máx |f (s, ξ)|(c − τ ) . s∈[τ,c) | {z } δ Se sigue que Z |ϕ(t) − ξ| ≤ k t |ϕ(s) − ξ| ds + δ ≤ δek|t−τ | τ para todo t ∈ [τ, c), donde esta última propiedad se deriva de la desigualdad de Gronwall. Luego |ϕ(t)| es acotado en [τ, c) y puede continuarse a la derecha de c. 3. Problemas con valores iniciales Estamos acostumbrados a resolver problemas que involucran ecuaciones diferenciales ordinarias que tiendan a ser lo más sencillas posibles, por ejemplo y 0 (x) = f (x, y). Desde luego, puede pasar que nuestra ecuación sea de mayor orden, en este caso lo que intentamos es que nuestra ecuación pueda resolverse para la variable de mayor orden en la derivada, es decir dn y 0 (n−1) = f x, y, y , . . . , y . (3.1) dxn 15 En su mayorı́a, estas ecuaciones modelan sistemas fı́sicos, los cuales están sujetos a lo que llamamos condiciones iniciales, que son impuestas por el sistema y que pueden variar de acuerdo a ciertos factores. Por ejemplo, resolver la ecuación (3.1) sujeto a y(x0 ) = c0 , y 0 (x0 ) = c1 , . . . , y (n−1) (x0 ) = cn−1 . Esto es lo que denominamos problema de valores iniciales (PVI). Ahora nos preguntamos ¿afecta de alguna forma la condición inicial a nuestra búsqueda de una solución única? Ejemplo 3.1. Una familia uniparamétrica y(x) = 1/(x2 + c) son soluciones de la ecuación diferencial y 0 + 2xy 2 = 0. Si se establece la condición inicial y(0) = −1 entonces al sustituir x = 0 y y = −1 en la familia, se encuentra que c = −1. Por lo que obtenemos la solución especı́fica y(x) = 1/(x2 − 1). Ahora bien, considerada como función, vemos que esta y(x) tiene como dominio los reales excepto x = ±1. Considerada como la solución a la ecuación diferencial y 0 + 2xy 2 = 0, el intervalo I de definición de y(x) podrı́a tomarse como uno en el que y está definida y es diferenciable allı́. Por ejemplo, los intervalos más grandes que funcionan son (−∞, −1) y (1, ∞). Pero vemos ahora que, considerada como solución al PVI y 0 + 2xy 2 = 0, y(0) = −1 necesitamos un intervalo I donde y exista, sea diferenciable y que además contenga al punto inicial x = 0. Vemos que el intervalo más grande para cumplir estas últimas propiedades es (−1, 1). 1 4 x satisface la Ejemplo 3.2. Cada una de las funciones y = 0 y y = 16 0 1/2 ecuación diferencial y = xy con la condición inicial y(0) = 0. Por lo que el PVI y 0 (x) = xy 1/2 , y(0) = 0 tiene al menos dos soluciones. Este último ejemplo sirve para poner de manifiesto el tema de la unicidad en ecuaciones diferenciales sencillas. Lo que necesitamos entonces es una idea fija y acertada que logre ayudarnos a responder las cuestiones de existencia y unidad para estos problemas. Teorema 3.3. Sea R una región rectangular en el plano xy definida como a ≤ x ≤ b, c ≤ y ≤ d que contiene al punto (x0 , y0 ) en su interior. Si f (x, y) y ∂f /∂y son continuas en R, entonces el PVI y 0 = f (x, y), y(x0 ) = y0 tiene una solución única en un intervalo I0 contenido en [a, b]. Este es uno de los teoremas más poderosos sobre existencia y unicidad para los PVI mencionados. Vemos fácilmente en nuestro ejemplo 3.2 que la unicidad falló pues la derivada parcial no es continua en 0. 16 3.1. Método de resolución Nos intriga el dilema de cuánto sabemos acerca de la (aunque posiblemente no única) solución de una ecuación diferencial dada. Es aquı́ cuando la matemática se vuelve extraña. En cualquier libro o curso básico nos encontramos con el hecho de que sabemos todo acerca de ecuaciones diferenciales lineales de primer orden. Sin embargo, al aumentar sólo un grado en el problema, todo se derrumba. No es cierto que sabemos todo acerca de ecuaciones diferenciales de segundo o mayor orden. De hecho, hay más problemas de segundo orden que no podemos resolver en comparación con aquellos que sı́ podemos. Pero vamos a detenernos primero en las de primer orden. Sea la ecuación diferencial lineal dy + P (x)y = Q(x) dx (3.2) podemos considerar distintos casos para su resolución; cada uno presentará su método. Supongamos que nuestra ecuación diferencial tiene la forma dy = h(y)g(x). dx (3.3) Toda ecuación de la forma (3.3) se llama ecuación separable. La razón de su nombre es muy sencilla. Al hacer un pequeño pasaje vemos que dy = g(x)dx h(y) y mediante integración directa en ambos términos podemos encontrar la solución general. dy Ejemplo 3.4. Resolver el PVI (e2y − y) cos(x) dx = ey sen(2x), y(0) = 0. Realizando la separación de variables, vemos que e2y − y sen(2x) dy = dx. y e cos(x) Usando la identidad 2 sen(x) cos(x) = sen(2x) y aplicando integración a ambos términos se tiene Z Z y −y (e − ye )dy = 2 sen(x)dx, por lo que ey + ye−y + e−y = −2 cos(x) + c. La condición inicial y(0) = 0 implica que c = 4. Por lo tanto, la solución a nuestro PVI es ey + ye−y + e−y = 4 − 2 cos(x).10 10 Nótese que no es sencillo expresar y en términos de x. Pero esto no será problema, pues podemos establecer nuestra solución de manera implı́cita. 17 Ahora bien, es claro que no todas las ecuaciones son en variables separables. Pero como mencionamos, mientras se mantengan en el rango de ser lineales de primer orden, todo será posible. Supongamos una ecuación como (3.2).11 Una forma eficaz para resolverla es mediante lo que conocemos como factor integrante. Este factor es un término de la forma R ρ(x) = e P (x)dx . Notemos que, al multiplicar por este factor en (3.2) se obtiene R e P (x)dx 0 R R y 0 (x) + P (x)y(x) = y(x)e P (x)dx = e P (x)dx Q(x). Ahora resulta trivial despejar y(x) para obtener la expresión final de la solución como Z R R P (x)dx − P (x)dx e Q(x)dx + c (3.4) y(x) = e Ejemplo 3.5. Resolver el PVI y 0 (x) + y(x) = x, y(0) = 4. Vemos que no es una ecuación en variables separables, pero tiene la forma de (3.2) con P (x) = 1 y Q(x) = x por lo que podemos usar el método del factor integrante. Tenemos que R ρ(x) = e dx = ex . Por la fórmula dada en (3.4) vemos que y(x) = x − 1 + ce−x . Por la condición inicial, sabemos que y(0) = 4, con lo que c = 5. La solución del PVI es entonces y(x) = x − 1 + 5e−x . Estas dos herramientas que vimos sobre ecuaciones diferenciales ordinarias lineales de primer orden sirven para encontrar (tal vez no fácilmente, pues podrı́amos tener dificultades en la integral del factor ρ) la solución a cualquier problema de este tipo. Sin embargo, podemos encontrarnos un caso en donde una pequeña alternativa es aún más útil. Aunque la sencilla ecuación diferencial dada por ydx + xdy = 0 es en variables separable, podemos ver que el lado izquierdo es en realidad la diferencial de f (x, y) = xy. 11 Aquı́ nos ponemos firmes con la forma dada en (3.2), pues si nuestra ecuación es de la forma dy f1 (x) + f2 (x)y(x) = f3 (x) dx entonces deberı́amos dividir a ambos miembros por f1 (x) para lograr la forma deseada. Al hacer esto, es posible que perdamos valores para x en caso de que f1 (x) se anule. 18 3.2. Diferencial exacta Definición 3.6. Sea z = f (x, y) una función de dos variables con primeras derivadas parciales continuas en una región R del plano xy, entonces su diferencial viene dada por dz = ∂f ∂f dx + dy. ∂x ∂y (3.5) Veamos que, en el caso especial de tener una familia de curvas f (x, y) = c, con c constante, entonces el término izquierdo de (3.5) es cero y obtenemos una ecuación homogénea. Es decir, dada la familia f (x, y) = c podemos generar una ecuación diferencial de primer orden calculando el diferencial a ambos lados de esta igualdad. Definición 3.7. Una ecuación diferencial M (x, y)dx + N (x, y)dy = 0 se dice exacta si el término izquierdo se corresponde con la diferencial de alguna función f (x, y) definida en una región R del plano xy. Teorema 3.8. Sean M (x, y) y N (x, y) continuas y que tienen primeras derivadas parciales continuas en una región rectangular R del plano xy. Entonces M (x, y)dx + N (x, y)dy determina una ecuación diferencial exacta si, y sólo si, ∂M ∂N = . ∂y ∂x (3.6) La demostración es una consecuencia del teorema de Clairaut. Dada una ecuación diferencial exacta M (x, y)dx + N (x, y)dy = 0, nos interesa encontrar la función f de la cual se deduce. Si esto es ası́, entonces existe una función tal que ∂f = M (x, y). ∂x Para obtener f podrı́amos realizar una integración directa sobre x Z Z ∂f dx = f (x, y) = M (x, y)dx + g(y), ∂x con una función arbitraria g(y) actuando como constante de integración. Por otro lado, sabemos que ∂f /∂y = N (x, y), y de aquı́ vemos que Z ∂ ∂f = M (x, y)dx + g 0 (y) = N (x, y), ∂y ∂y por lo que ∂ g (y) = N (x, y) − ∂y 0 Z M (x, y)dx. Por último, para encontrar g(y) simplemente procedemos a integrar 19 Z g(y) = ∂ N (x, y) − ∂y Z M (x, y)dx dy. Observación. Desde luego, podrı́amos haber comenzado el método con la suposición de que ∂f /∂y = N (x, y). Ejemplo 3.9. Resolver el PVI dy xy 2 − cos(x) sen(x) = , dx y(1 − x2 ) y(0) = 2. Al escribirlo como ecuación diferencial exacta, vemos que cos(x) sen(x) − xy 2 dx + y(1 − x2 )dy = 0, y claramente ∂N ∂M = −2xy = . ∂y ∂x Ahora ∂f = N (x, y) = y(1 − x2 ), ∂y por lo que Z f (x, y) = N (x, y)dy + h(x) = y2 (1 − x2 ) + h(x). 2 También ∂f = −xy 2 + h0 (x) = M (x, y) = cos(x) sen(x) − xy 2 . ∂x Claramente la última expresión nos dice que el término faltante es h0 (x) = cos(x) sen(x). Integrando obtenemos Z 1 h(x) = cos(x) sen(x)dx = − cos2 (x). 2 Finalmente y2 1 (1 − x2 ) − cos2 (x) = c1 2 2 o y 2 (1 − x2 ) − cos2 (x) = c. La condición inicial y(0) = 2 nos da que c = 3. La solución del problema es entonces y 2 (1 − x2 ) − cos2 (x) = 3. 20 3.3. Ecuaciones de Bernoulli Definición 3.10. Una ecuación diferencial de la forma dy + P (x)y = Q(x)y n dx (3.7) se llama ecuación de Bernoulli. Las ecuaciones de Bernoulli no poseen un método especı́fico de resolución. Más bien, utilizan el cambio v = y 1−n para transformar (3.7) en la ecuación lineal dv + (1 − n)P (x)v = (1 − n)Q(x). dx Ejemplo 3.11. Resolver la ecuación 2xyy 0 = 4x2 + 3y 2 . Este expresión puede reescribirse como 3 2x dy − y= , dx 2x y (3.8) que es una ecuación de Bernoulli con P (x) = −3/(2x), Q(x) = 2x, n = −1. Sustituyendo, tenemos que v = y 2 , y = v 1/2 y dy dy dv 1 dv = = v −1/2 . dx dv dx 2 dx Esto resulta en 1 −1/2 dv 3 1/2 v − v = 2xv −1/2 . 2 dx 2x Luego, la multiplicación por 2v 1/2 nos lleva a la ecuación lineal 3 dv − v = 4x dx x con factor integrante ρ(x) = e R −3/xdx = x−3 . Ası́, obtenemos d −3 (x v) = dx 4 x2 4 x−3 v = − + c x 4 x−3 y 2 = − + c x y 2 = −4x2 + cx3 . Observación. No debemos pasar por alto que, en caso de haber dado condiciones iniciales, cuando transformamos nuestro problema en la ecuación (3.8) estamos perdiendo la posibilidad de considerar x = 0, y = 0. 21 Ejemplo 3.12. La ecuación 2xe2y dy = 3x4 + e2y dx no es separable, ni lineal ni homogénea, pero tampoco es de Bernoulli. No obstante, se ve que y aparece sólo en los términos e2y y Dx (e2y ) = 2e2y y 0 . Podemos entonces intentar con el cambio v = e2y y dv dy = 2e2y dx dx que transforma el problema en la ecuación lineal dv 1 − v = 3x3 . dx x Después de multiplicar por el factor integrante ρ(x) = 1/x se tiene que Z 1 v = 3x2 dx + C, para que e2y = v = x4 + Cx. x La solución a la ecuación es entonces y(x) = 1 ln |x4 + Cx|. 2 Para finalizar, debemos mencionar que existe una variante un poco distinta al teorema de existencia y unicidad 3.3. Teorema 3.13. Si P (x) y Q(x) son continuas en un intervalo abierto I que contiene al punto x0 , el problema dy + P (x)y = Q(x), dx y(x0 ) = y0 tiene una solución única y(x) en I. Esto nos garantiza una solución única en todo el intervalo I, a diferencia del teorema 3.3 que sólo garantiza una solución en un posible intervalo más pequeño que el ancho del rectángulo. 4. Ecuaciones de segundo orden Es increı́ble el hecho de que al pasar de ecuaciones de primer orden a una de segundo orden perdamos tanto conocimiento sobre las soluciones de estos. Por suerte, existen métodos numéricos que si bien no pueden resolver de manera exacta un problema, nos permite obtener una aproximación a la solución. Lo que se expone a continuación son algunas nociones básicas sobre aquellos problemas de segundo orden que poseen un método de resolución. 22 Notación 4.1. Diremos que L es un operador diferencial lineal si es un operador polinomial h i L(y(·)) = D(n) + Pn−1 (·)D(n−1) + Pn−2 (·)D(n−2) + · · · + P1 (·)D + P0 (·) y(·) donde D representa la derivada (en su respectivo orden) con respecto a la variable independiente.12 Con esto, podemos representar cualquier tipo de ecuación diferencial no homogénea de orden n simplemente escribiendo L(y(x)) = f (x). Hemos hablado sobre unicidad de las soluciones a la hora de tener un problema de valores iniciales. Sabemos que cuando no disponemos de dicha condición inicial, las soluciones en realidad determinan una familia de funciones 13 definidas en un cierto intervalo donde resuelven la ecuación diferencial. Ejemplo 4.2. Las funciones f (x) = sen(x) y g(x) = cos(x) son solución de la ecuación diferencial y 00 (x) = −y(x). A partir del ejemplo anterior puede verse fácilmente que no sólo las funciones por separado son solución, sino que además h(x) = sen(x) + cos(x) también lo es. Y más general aún, cualquier combinación lineal de la forma c1 sen(x) + c2 cos(x) es solución de dicha ecuación. Lema 4.3 (Principio de superposición). Si L es un operador diferencial lineal y y1 (x), y2 (x) son solución de L(y1 (x)) = f1 (x) y L(y2 (x)) = f2 (x) respectivamente, entonces para c1 , c2 constantes cualesquiera, la combinación y(x) = c1 y1 (x) + c2 y2 (x) es solución de L(y(x)) = c1 f1 (x) + c2 f2 (x).14 Corolario 4.4. Si y1 (x) es solución del sistema no homogéneo L(y1 (x)) = f (x) y y2 (x) es solución del sistema homogéneo L(y2 (x)) = 0, entonces la función y(x) = y1 (x) + y2 (x) es solución del sistema no homogéneo. Este corolario será de vital importancia. Lo que nos afirma es que, dada una ecuación no homogénea L(y(x)) = f (x), primero nos conviene encontrar una solución yc (x) al problema homogéneo asociado L(y(x)) = 0, y luego una solución yp (x) para el término no homogéneo f (x). La solución general buscada será y(x) = yc (x) + yp (x).15 12 En general, dos operadores diferenciales no conmutan. Una condición suficiente para que lo hagan es que sean a coeficientes constante. 13 Al integrar para hallar la solución siempre se obtiene una constante de integración que puede variar en caso de que tengamos condiciones iniciales. 14 Este principio puede extenderse a ecuaciones de orden n con n soluciones y, por tanto, n constantes arbitrarias. 15 Las funciones yc (x), yp (x) se llaman solución complementaria y solución particular respectivamente. 23 Definición 4.5. Un conjunto de funciones f1 (x), f2 (x), . . . , fn (x) es linealmente independiente en un intervalo I si las únicas constantes para las que c1 f1 (x) + c2 f2 (x) + · · · + cn fn (x) = 0 para toda x en I son c1 = c2 = · · · = cn = 0. Si el conjunto no es linealmente independiente entonces se llama linealmente dependiente Esta definición es muy sencilla en el caso de dos funciones f1 (x) y f2 (x). Partiendo de la definición, claramete se ve que dos funciones son linealmente independientes si una no es un múltiplo constante de la otra en el intervalo. Dicho de otra manera, si dos funciones son linealmente dependientes, el cociente de las funciones debe ser constante. Ejemplo 4.6. Con este ejemplo se trata de salvar una posible confusión. Las funciones f1 (x) = x y f2 (x) = |x| son linealmente independientes. Para ver esto, notemos que |x| = ±1 x y, si bien podrı́a parecer que su cociente es un número, no es constante en un intervalo que incluya al cero. Con la definición de independencia lineal y el principio de superposición, vemos fácilmente que el problema de resolver culquier ecuación de la forma L(y(x)) = f (x) se resume en encontrar n soluciones linealmente independientes del problema. Pues, una vez logrado esto, cualquier otra solución puede obtenerse como combinación lineal de las funciones encontradas. Definición 4.7. Supongamos que las funciones f1 (x), f2 (x), . . . , fn (x) tienen al menos n − 1 derivadas. Entonces el determinante f f2 ··· fn 1 0 f20 ... fn0 f1 . .. .. = W (f1 , f2 , . . . , fn ) .. . . . . . (n−1) (n−1) (n−1) f1 f2 . . . fn se llama Wronskiano de las funciones f1 , f2 , . . . , fn . Teorema 4.8. Consideremos el problema y 00 (x) + p(x)y 0 (x) + q(x)y(x) = 0, (4.1) con p y q continuas en I ⊂ R. Sean y1 , y2 dos soluciones en I. 1. Si y1 , y2 son linealmente dependientes, entonces W (y1 , y2 ) = 0 ∀x ∈ I. 2. Si y1 , y2 son linealmente independientes, entonces W (y1 , y2 ) 6= 0 ∀x ∈ I. 24 Teorema 4.9 (Fórmula de Abel). Supongamos que A(x), B(x) y C(x) son funciones continuas en un intervalo I tal que A(x) 6= 0 para todo x en I. Sean y1 (x) y y2 (x) dos soluciones cualesquiera de la ecuación A(x)y 00 (x) + B(x)y 0 (x) + C(x)y(x) = 0. Entonces existe k ∈ R tal que W (y1 (x), y2 (x)) = ke− R B dx A Demostración. Hagamos W = W (y1 , y2 ) = y10 y2 − y1 y20 . Derivando W vemos que W 0 = y100 y2 − y1 y200 y multiplicando por A a ambos miembros se tiene, usando el hecho de que y1 , y2 son solución de la ecuación AW 0 = y2 Ay100 − y1 Ay200 = y2 −By10 − Cy2 − y1 −By20 − Cy2 = −B y10 y2 − y1 y20 = −BW. Resulta entonces que AW 0 = −BW , por lo que W0 B B = − =⇒ (ln |W |)0 = − =⇒ |W | = W A A Z − B dx + c. A Despejando, se obtiene el resultado deseado R W (y1 , y2 ) = W = e dx+c −B A R = |{z} ec e dx −B A . k Es un error común creer que si el Wronskiano de dos funciones vale cero en un punto, entonces las funciones son linealmente dependientes en un intervalo que contenga a dicho punto. No debemos caer en este error. Ejemplo 4.10. Sean f1 (x) = x y f2 (x) = |x|. Entonces el Wronskiano W (f1 , f2 ) x x x −x = 0, ∀x ≥ 0 = 0, ∀x < 0. 1 1 1 −1 Sin embargo vimos que estas funciones no son linealmente dependientes en un intervalo que contenga al cero. Antes de ver algunos métodos de resolución cabe aclarar que, como puede verse, el estudio de ecuaciones diferenciales es uno de los más amplios y difundidos de la matemática aplicada. Por lo general, una forma ruda de ver estos temas es siendo bastante pragmático en la medida en que uno se enfoca sólo en los procedimientos (algorı́tmicos) que deben seguirse para hallar soluciones a un problema determinado. Pero nunca está de más detenerse primero y pensar ¿es posible encontrar una solución a este problema?, ¿dicha solución será única?, y en caso de lograr encontrarla ¿en qué región vive? 25 Teorema 4.11. Sean p(x), q(x) y f (x) continuas en un intervalo I abierto tal que a ∈ I y b0 , b1 ∈ R. Entonces la ecuación diferencial y 00 (x) + p(x)y 0 (x) + q(x) = f (x) tiene una solución única y(x) en I que satisface y(a) = b0 , y 0 (a) = b1 . 4.1. Método de reducción de orden Una forma sencilla para resolver una ecuación diferencial de segundo orden es llevarla a una forma equivalente de primer orden y aplicar, según convenga, las técnicas de la anterior sección (u otras, en caso de ser necesario). Para un problema de la forma a2 (x)y 00 (x) + a1 (x)y 0 (x) + a0 (x)y(x) = 0 (4.2) sabemos que la solución general será de la forma y = c1 y1 + c2 y2 donde y1 , y2 son dos soluciones linealmente independientes en algún intervalo I. Una ecuación diferencial de segundo orden involucra una segunda derivada de la función desconocida y(x), y por lo tanto tiene la forma general F (x, y, y 0 , y 00 ) = 0. Si la variable x o y no se encuentran en dicha ecuación, entonces esto es fácilmente reducible por una simple sustitución en un sistema de ecuaciones de primer orden. Supongamos que la variable y no figura en nuestro problema. Entonces la ecuación se reduce a F (x, y 0 , y 00 ) = 0, de modo que la sustitución p = y0 p0 = y 00 resulta en una ecuación de primer orden F (x, p, p0 ) = 0. Ejemplo 4.12. Resolver la ecuación xy 00 + 2y 0 = 6x. Claramente la ausencia de la variable y nos sugiere usar la sustitución que acabamos de ver. Con ella, nuestro problema se transforma en x dp + 2p = 6x dx que es una ecuación lineal con factor integrante ρ(x) = x2 . Finalmente p = 2x + C1 x2 por lo que y(x) = x2 + C1 + C2 . x Ahora bien, si x no está presente, entonces nuestra ecuación general toma la forma F (y, y 0 , y 00 ) = 0. En este caso, la sustitución viene dada por p = y0 = dy , dx y 00 = dp dp dy dp = =p . dx dy dx dy 26 Ejemplo 4.13. Resolver la ecuación yy 00 = (y 0 )2 . La sustitución que acabamos de definir nos provee la ecuación de primer orden dp yp = p2 . dy Por separación de variables, tenemos que Z Z dp dy = p y ln(p) = ln(y) + C p = C1 y donde C1 = eC . Por lo tanto dx dy 1 1 = p C1 y Z dy C1 x = = ln(y) + C2 y = La solución general del problema es y(x) = eC1 x−C2 . Los dos métodos mencionados anteriormente funcionan en los casos que alguna de las variables, x o y, no se encuentren en nuestra ecuación. Para ver un caso más general, pensemos en un sistema de la forma y 00 (x) + p(x)y 0 (x) + q(x)y(x) = 0 (4.3) con p, q continuas en un intervalo I. Supongamos que y1 (x) es solución de (4.3) en I. Veremos que existe una función u(x) tal que y2 (x) = y1 (x)u(x) es también solución del problema, y con ello encontraremos la solución general. Primero notemos que y20 = y10 u + y1 u0 , y200 = y100 u + 2y10 u0 + y1 u00 . Si y2 (x) es solución, entonces debe cumplir (4.3). Resulta entonces que 0 = y200 + py20 + qy2 = y100 u + 2y10 u0 + y1 u00 + p(y10 u + y1 u0 ) + qy1 u = u(y100 + py10 + qy1 ) +u00 y1 + 2u0 y10 + pu0 y1 {z } | 0 = y1 u00 + u0 (2y1 + py1 ). Supongamos que y1 (x) 6= 0 para todo x en I. Entonces de la última identidad 0 y u00 + u0 2 1 + p = 0, y1 27 por lo que podemos usar el cambio v = u0 para transformarla en una ecuación lineal de primer orden 0 y1 0 v + v 2 + p = 0. y1 El factor integrante es R e y0 2 y1 +p dx 1 = y12 e R P (x)dx . Encontramos por integración directa que Z − R P (x)dx e dx + c2 . u(x) = c1 y12 (x) Si tomamos c1 = 1 y c2 = 0, vemos que la segunda solución viene dada por Z − R P (x)dx e y2 (x) = y1 (x) dx. y12 (x) Como dijimos, la solución general será entonces y(x) = c1 y1 (x) + c2 y2 (x).16 Ejemplo 4.14. Encontrar una solución general de la ecuación diferencial x2 y 00 − 3xy + 4y = 0 sabiendo que la función y1 (x) = x2 es una solución en (0, ∞). Llevando esta ecuación a la forma dada por (4.3) se tiene y 00 − 3 0 4 y + 2 y = 0, x x por lo que y2 (x) = x 2 Z e3 R dx/x x4 dx = x2 ln(x). Luego, la solución general es y(x) = c1 x2 + c2 x2 ln(x). 4.2. Ecuaciones a coeficientes constantes Hemos mencionado la dificultad de resolver ecuaciones diferenciales de segundo o mayor orden en un aspecto general. Al mismo tiempo, vimos algunas formas prácticas de resolver estas en caso de tener una forma relativamente sencilla en nuestro problema. Veremos ahora un caso particular. Supongamos como problema central nuestro sistema homogéneo L(y(x)) = an (x)y (n) (x) + an−1 (x)y (n−1) (x) + · · · + a1 (x)y 0 (x) + a0 (x) = 0. Podrı́amos pensar, de manera acertada, que una forma sencilla de este problema se da cuando los polinomios ai (x) de la anterior ecuación son constantes. 16 Claramente y1 y y2 son linealmente independientes. 28 En ese caso, tenemos lo que llamamos una ecuación diferencial a coeficientes constantes de la forma L(y(x)) = an y (n) (x) + an−1 y (n−1) (x) + · · · + a1 y 0 (x) + a0 y(x) = 0, (4.4) donde ai son números constantes y, por tanto, L es un operador lineal constante. Del sistema a1 y 0 + a2 y = 0 vemos que despejando, obtenemos y 0 = ky. Sabemos por otro lado, que su solución es de la forma y(x) = ekx . Como la intuición nos manda, si esta solución funciona para este sencillo caso de un problema a coeficientes constantes, podrı́amos pensar que también funciona para órdenes superiores. Dicho esto, vamos a proponer que la solución a (4.4) es de la forma y(x) = rx e para alguna constante r. Si esto es ası́, al reemplazar y(x) en la ecuación obtenemos an rn erx + · · · + a1 rerx + a0 = an rn + an−1 rn−1 + · · · + a1 r + a0 erx = 0, y como el término erx es distinto de cero, el sistema anterior se simplifica a la ecuación an rn + an−1 rn−1 + · · · + a1 r + a0 = 0 (4.5) llamada ecuación caracterı́stica del sistema (4.4). Dicho esto, proponemos una solución, para la ecuación diferencial a coeficientes constantes, de la forma y(x) = c1 er1 x + · · · + cn ern x donde ri son las raı́ces de la ecuación caracterı́stica. A continuación trataremos distintos casos para ecuaciones de segundo orden. Sea ay 00 (x) + by 0 (x) + cy(x) = 0 (4.6) con a, b, c ∈ R, entonces la ecuación caracterı́stica de (4.6) es ar2 + br + c = 0. Caso 1. Supongamos que las raı́ces de la ecuación caracterı́stica son r1 y r2 con r1 6= r2 . Entonces la solución general de (4.6), en el intervalo (−∞, ∞) viene dada por y(x) = c1 er1 x + c2 er2 x donde claramente ambas funciones son linealmente independientes. Casi 2. Supongamos ahora que la ecuación caracterı́stica tiene sólo una raı́z r. Por supuesto, una solución será y1 (x) = erx . Para encontrar otra podemos basarnos en el método visto en la sección anterior para obtener una segunda solución de la forma Z 2rx e rx y2 (x) = e dx = xerx , e2rx donde trivialmente y1 , y2 son linealmente independientes. Luego la solución general es y(x) = c1 erx + c2 xerx . 29 Caso 3. Si la solución a la ecuación caracterı́stica son raı́ces complejas conjugadas r1 = α + iβ, r2 = α − iβ, con α, β ∈ R podemos usar fácilmente la identidad de Euler para concluir que y(x) = eαx (c1 cos(βx) + c2 sen(βx)) es la solución general del problema. Ejemplo 4.15. Encontrar la solución general de y 00 − 4y 0 + 5y = 0. Por ser una ecuación a coeficientes constantes, determinamos primero su ecuación caracterı́stica como r2 − 4r + 5 = (r − 2)2 + 1 = 0, cuyas raı́ces son el par 2 ± i. Por lo visto anteriormente, la solución general viene dada por y(x) = e2x (c1 cos(x) + c2 sen(x)) Ejemplo 4.16. Encontrar la solución general de 9y (5) − 6y (4) + y (3) = 0. Nuevamente estamos ante un caso de ecuación a coeficientes constantes, con ecuación caracterı́stica 9r5 − 6r4 + r3 = r3 (3r − 1)2 = 0 con raı́z triple r = 0 y raı́z doble r = 1/3. Para la raı́z triple r = 0, aplicando dos veces el método visto anteriormente se tiene que las tres soluciones asociadas son y1 (x) = e0x , y2 (x) = xe0x , y3 (x) = x2 e0x . Para la raı́z doble r = 1/3 se sabe que dos soluciones linealmente independientes asociadas son y4 (x) = ex/3 , y5 (x) = xex/3 . Finalmente la solución general es y(x) = c1 + c2 x + c3 x2 + c4 ex/3 + c5 xex/3 . Ejemplo 4.17. Resolver la ecuación diferencial y 000 + 3y 00 − 4y = 0. Como la ecuación caracterı́stica tiene una raı́z simple r1 = 1 y una raı́z doble r2 = −2, la solución general del problema estará dada por y(x) = c1 ex + c2 e−2x + c3 xe−2x . 30 4.3. Método de los coeficientes indeterminados Lo visto anteriormente nos ayuda a encontrar una solución al problema L(y(x)) = 0 para L un operador diferencial a coeficientes constantes. Sin embargo, puede presentarse el problema de resolver un sistema no homogéneo an y (n) (x) + an−1 y (n−1) (x) + · · · + a1 y 0 (x) + a0 y(x) = f (x). (4.7) Por lo visto anteriormente, sabemos que una solución general para (4.7) es y(x) = yc (x) + yp (x), y la sección anterior nos mostró un método eficiente para hallar la solución complementaria yc (x) al sistema homogéneo asociado. Queda entonces la cuestión de encontrar yp (x). El método de coeficientes indeterminados es una herramienta directa para solucionar el mismo, siempre que la función f (x) en (4.7) tenga una forma relativamente sencilla. Por ejemplo, supongamos que f (x) es un polinomio de grado n. Entonces cabe esperarse que una solución particular yp (x) tenga la forma de un polinomio general de grado n, pues es la única forma en que (4.7) nos dé una igualdad. La razón al nombre del método es porque desconocemos los coeficientes del polinomio que sirve como solución particular. De la misma forma, si f (x) tiene la forma de una exponencial ekx , debemos esperar que su solución sea una clase de combinación lineal de exponenciales, pues sus derivadas sólo desprenden la constante k. Y finalmente, las funciones armónicas cumplen algo similar, si recordamos que son solución de y 00 = −y. Vemos que en realidad este método no se desprende de ningún teorema. De hecho, es simplemente un procedimiento que debe seguirse, como si se tratara de una búsqueda por tanteo. La única condición con la que debemos tener cuidado es que nuestra f (x) (y ninguna de sus derivadas) sea solución de L(y(x)) = 0, pues entonces claramente no se trata de una solución particular. Nota 4.18 (Regla general del método). Supongamos que el término no homogéneo en (4.7) es de la forma f (x) = eαx (p(x) cos(βx) + q(x) sen(βx)) con α, β ∈ R (posiblemente ceros) y p, q polinomios (no necesariamente del mismo orden). Caso 1. Supongamos β = 0. Entonces, si α no es raı́z caracterı́stica del problema L(y(x)) = 0, el método asegura que existe una solución de la forma yp (x) = eαx (a0 + a1 x + a2 x2 + · · · + an xn ) donde a0 , a1 , a2 , . . . , an son coeficientes a determinar sustituyendo en la ecuación diferencial L(y(x)) = f (x). Si α es raı́z caracterı́stica de multiplicidad uno, por lo que sabemos de secciones anteriores, entonces el método sugiere usar yp (x) = eαx (a0 x + a1 x2 + a2 x3 + · · · + an xn+1 ). 31 Caso 2. Supongamos β 6= 0. Si α ± iβ no es raı́z caracterı́stica, el método asegura que existe una solución particular de la forma yp (x) = eαx [(a0 + a1 x + a2 x2 + · · · + an xn ) cos(βx) + (b0 + b1 x + b2 x2 + · · · + bn xn ) sen(βx)], donde los coeficientes se determinan por sustitución directa en la ecuación principal. En caso de ser raı́z caracterı́stica, se aplica lo mismo que en el caso 1. Ejemplo 4.19. Encontrar la solución general de y 00 + 4y = 3x3 . Usando el método que acabamos de describir, primero hallamos la solución complementaria yc (x) = c1 cos(2x) + c2 sen(2x) con la ecuación caracterı́stica. A continuación, proponemos una solución particular de la forma yp (x) = a1 x3 + a2 x2 + a3 x + a4 . Entonces yp0 = 3a1 x2 + 2a2 x + a3 yp00 = 6a1 x + 2a2 . Sustituyendo en la ecuación del problema, tenemos yp00 + 4yp = 4a1 x3 + 4a2 x2 + (6a1 + 4a3 )x + (2a2 + a4 ) = 3x3 . Igualando coeficientes, vemos que 4a1 = 3, 4a2 = 0, (6a1 + 4a3 ) = 0 y (2a2 + a4 ) = 0, cuya solución es a1 = 3/4, a2 = 0, a3 = −9/8 y a4 = 0. Para terminar, sumamos la solución complementaria con la particular para obtener la solución general 3 9 y(x) = c1 cos(2x) + c2 sen(2x) + x3 − x. 4 8 Ejemplo 4.20. Resolver el PVI y 00 − 3y 0 + 2y = 3e−x − 10 cos(3x), y(0) = 1, y 0 (0) = 2. La ecuación caracterı́stica r2 − 3r + 2 = 0 tiene raı́ces r1 = 1, r2 = 2. Por tanto, la solución complementaria será yc (x) = c1 ex + c2 e2x . Los términos en f (x) (ni sus derivadas) se encuentran en yc (x), por lo tanto intentamos con algo de la forma yp = Ae−x + B cos(3x) + C sen(3x), yp0 = −Ae−x − 3B sen(3x) + 3C cos(3x), yp00 = Ae−x − 9B cos(3x) − 9C sen(3x). Sustituyendo esto en la ecuación del problema y agrupando coeficientes, se obtiene yp00 − 3yp0 + 2yp = 6Ae−x + (−7B − 9C) cos(3x) + (9B − 7C) sen(3x) = 3e−x − 10 cos(3x). 32 Ası́, 6A = 3, −7B − 9C = −10 y 9B − 7C = 0, con solución A = 1/2, B = 7/13 y C = 9/13. Para satisfacer las condiciones iniciales y(0) = 1 y y 0 (0) = 2, encontramos que c1 = −1/2 y c2 = 6/13. La solución general es entonces 1 6 1 7 9 y(x) = − ex + e2x + e−x + cos(3x) + sen(3x). 2 13 2 13 13 4.4. Variación de los parámetros Supongamos que enfretamos un problema en el cual el término no homogéneo de L(y(x)) = f (x) no tiene una forma sencilla como la expuesta en la nota 4.18. Anteriormente vimos que, si se conoce una solución y1 (x) entonces el método de reducción de orden propone encontrar una función u(x) tal que y2 (x) = y1 (x)u(x) es otra solución linealmente independiente. Pensemos entonces en nuestro problema central de segundo orden y 00 (x) + P (x)y 0 (x) + Q(x)y(x) = f (x), (4.8) donde P, Q son continuas en algún intervalo I. Podemos pensar que, si y1 , y2 son soluciones linealmente independientes en el intervalo I para el sistema homogéneo asociado, entonces deberı́amos encontrar funciones u1 (x), u2 (x) tal que una solución particular sea yp (x) = y1 (x)u1 (x) + y2 (x)u2 (x). Calculando las derivadas, tenemos que yp0 = y10 u1 + y1 u01 + y20 u2 + y2 u02 yp00 = y100 u1 + y10 u01 + u01 y10 + y1 u001 + y200 u2 + y20 u02 + u02 y20 + y2 u002 . Sustituyendo esto en (4.8) y agrupando términos, vemos que 0 0 z }| { z }| { yp00 + P yp0 + Qyp = u1 [y100 + P y10 + Qy1 ] + u2 [y200 + P y20 + Qy2 ] + y1 u001 +u01 y10 + y2 u002 + u02 y20 + P [y1 u01 + y2 u02 ] + y10 u01 + y20 u02 donde los términos que valen cero se debe a que y1 , y2 son solución del problema homogéneo asociado a (4.8). Continuando, tenemos que yp00 + P yp0 + Qyp = y1 u001 + u01 y10 + y2 u002 + u02 y20 + P [y1 u01 + y2 u02 ] + y10 u01 + y20 u02 d d = [y1 u01 ] + [y2 u02 ] + P [y1 u01 + y2 u02 ] + y10 u01 + y20 u02 dx dx d = [y1 u01 + y2 u02 ] + P [y1 u01 + y2 u02 ] + y10 u01 + y20 u02 = f (x). dx 33 Como se buscan dos funciones desconocidas u1 , u2 la razón nos dice que son necesarias dos ecuaciones. Lo que necesitamos es la suposición adicional de que y1 u01 + y2 u02 = 0, con lo que y10 u01 + y20 u02 = f (x). Nos queda entonces el sistema y1 u01 + y2 u02 = 0 y10 u01 + y20 u02 = f (x), que como puede observarse, la matriz de coeficientes sobre las variables u1 , u2 es simplemente W (y1 , y2 ). Por regla de Cramer u01 = −y2 f (x) W (y1 , y2 ) u02 = y1 f (x) . W (y1 , y2 ) Por lo tanto, el método de variación de parámetros dice que, dada una ecuación de segundo orden como (4.8) y dos soluciones al sistema homogéneo asociado y1 , y2 , la solución particular puede hallarse mediante Z yp (x) = −y1 (x) y2 (x)f (x) dx + y2 (x) W (y1 , y2 ) Z y1 (x)f (x) dx. W (y1 , y2 ) Ejemplo 4.21. Resolver la ecuación diferencial y 00 − 4y 0 + 4y = (x + 1)e2x . De la ecuación caracterı́stica vemos que r2 − 4r + 4 = (r − 2)2 = 0 se tiene que la solución complementaria es yc (x) = c1 e2x + c2 xe2x . Identificando y1 (x) = e2x , y2 (x) = xe2x , el Wronskiano nos queda e2x 2x xe W e2x , xe2x = 2x = e4x . 2e 2xe2x + e2x Como f (x) = (x + 1)e2x por las ecuaciones anterior obtenemos (x + 1)xe4x (x + 1)e4x 2 0 = −x − x, u = = x + 1. 2 e4x e4x Se tiene entonces u1 = −x3 /3 − x2 /2 y u2 = x2 /2 + x. Por lo tanto 1 2 1 3 1 2 2x yp = − x − x e + x + x xe2x , 3 2 2 u01 = − y luego la solución general es 1 1 y(x) = c1 e2x + c2 xe2x + x3 e2x + x2 e2x . 6 2 Desde luego el método puede generalizarse a ecuaciones diferenciales de orden n, en el cual obtendrı́amos n ecuaciones sobre las incógnitas u01 , u02 , . . . , u0n y el Wronskiano será un determinante de n × n. Vemos que este último método tiene una ventaja sobre coeficientes indeterminados, pues siempre produce una solución particular para la ecuación (4.8), siempre que pueda resolverse primero el problema homogéneo asociado. La variación de parámetros también es efectiva en ecuaciones diferenciales lineales a coeficientes variables. 34 4.5. Ecuaciones de Euler-Cauchy En general, la forma (relativamente) sencilla en que pudimos encontrar soluciones a los problemas de las secciones anteriores, se deben en gran medida a que se trataban de ecuaciones a coeficientes constantes. Este hecho desde luego no se sostiene para ecuaciones a coeficientes variables. Sin embargo, algo muy parecido al método visto en la sección 4.2 puede ser muy útil al considerar ecuaciones de este tipo cuando tiene una forma especial. Una ecuación de la forma an xn y (n) (x) + an−1 xn−1 y (n−1) (x) + · · · + a1 xy 0 (x) + a0 y(x) = 0 (4.9) en donde el orden de la variable x coincide con el grado de derivación de y, se denomina ecuación de Euler-Cauchy. Se prueba una solución de la forma y(x) = xr donde r es un valor que se debe determinar. Vamos a realizar algo análogo a cuando sustituimos erx en una ecuación a coeficientes constantes; de esta manera, si y = xr en (4.9) obtendremos que el primer término ak xk y (k) = ak r(r − 1)(r − 2) · · · (r − k + 1)xr . Por ejemplo, cuando sustituimos y = xr en la ecuación de Euler-Cauchy de segundo orden, tenemos ax2 y 00 + bxy 0 + cy = ar(r − 1)xr + brxr + cxr = (ar(r − 1) + br + c)xr = 0. Por lo tanto, el cálculo del valor r queda determinado por ar(r −1)+br +c = 0 que llamaremos ecuación indicial. Nota 4.22 (Ecuación de Euler-Cauchy). Si una ecuación diferencial es de la forma (4.9), entonces utilice una solución prueba y = xr para deducir la ecuación indicial correspondiente; luego, resuelva sobre r. Enfocando nuestra atención en las ecuaciones de Euler-Cauchy de orden dos, podemos distinguir lo siguiente Caso 1. Si de la ecuación indicial se obtiene dos raı́ces reales distintas, entonces y(x) = c1 xr1 + c2 xr2 es la solución del problema homogéneo. Claramente esta solución es suma de funciones linealmente independientes Caso 2. Supongamos que r1 = r2 . Entonces, al igual que en el caso para coeficientes constantes, la otra solución puede encontrarse mediante Z dx y2 (x) = xr1 = xr ln(x), x y la solución general será de la forma y(x) = c1 xr + c2 xr ln(x). 35 Caso 3. Por último, pensemos en un par de raı́ces complejas conjugadas α ± iβ. Una ligera modificación nos da xiβ = (eln(x) )iβ = eiβ ln(x) y gracias a la identidad de Euler xiβ = cos(β ln(x)) + i sen(β ln(x)). Por lo tanto, para construir la solución general usamos y(x) = xα [c1 cos(β ln(x)) + c2 sen(β ln(x))] . Ya vimos un caso de ecuaciones de Euler-Cauchy en el ejemplo 4.14. En aquel entonces habı́amos mencionado una solución de la forma y1 (x) = x2 y mediante reducción de orden obtuvimos otra linealmente independiente, y2 (x) = x2 ln(x). La misma solución habrı́amos obtenido aplicando los métodos recién vistos puesto que r = 2 es la raı́z doble de la ecuación indicial. Ejemplo 4.23. Resolver la ecuación x3 y (3) + 5x2 y 00 + 7xy 0 + 8y = 0. Reconocemos este problema como una ecuación de Euler-Cauchy, con ecuación indicial (r+2)(r2 +4) = 0. Por lo tanto las tres raı́ces son r1 = −2, r2 = 2i, y r3 = −2i. Por lo tanto, la solución general es y(x) = c1 x−2 + c2 cos(2 ln x) + c3 sen(2 ln x). Las similitudes entre el método de resolución que acabamos de ver y aquellos usados para ecuaciones diferenciales a coeficientes constantes no son una coincidencia. De hecho, toda ecuación de Euler-Cauchy se puede escribir de nuevo como una ecuación diferencial lineal a coeficientes constantes usando el cambio x = et . La idea cae sobre resolver el nuevo problema en la variable t y luego sustituir nuevamente con t = ln x. Ejemplo 4.24. Resolver el problema x2 y 00 − xy 0 + y = ln x. Es sencillo ver que se trata de una ecuación de Euler-Cauchy. Sin embargo, usaremos el cambio x = et o t = ln x para ver que dy dx d2 y dx2 = = = dy dt 1 dy = dt dx xdt dy 1 1 d dy + − 2 x dx dt dt x 2 1 d y1 dy 1 1 d2 y dy + − 2 = 2 − . x dt2 x dt x x dt2 dt Sustituyendo en la ecuación diferencial dada y agrupando convenientemente, se llega a d2 y dy − 2 + y = t, 2 dt dt 36 que es una ecuación a coeficientes constantes y podemos resolver determinando su ecuación caracterı́stica (r − 1)2 = 0. Ası́ obtenemos la solución yc (t) = c1 et + c2 tet . Usando coeficientes indeterminados se prueba una solución particular yp (t) = A + Bt. Esta suposición conduce a A = 2 y B = 1, con la que obtenemos la solución general y(t) = c1 et + c2 tet + t + 2. Finalmente, la solución general al problema original es y(x) = c1 x + c2 x ln x + ln x + 2. 5. Sistemas de ecuaciones diferenciales Los sistemas de ecuaciones diferenciales son casos en que debemos resolver de manera simultánea dos o más ecuaciones diferenciales, y que pueden, desde luego, tener dos o más condiciones para cada una de las funciones desconocidas. Por ejemplo, sean p11 (t), p12 (t), . . . , pnn (t) funciones continuas, entonces un sistema general de orden n es de la forma x01 = p11 (t)x1 + p12 (t)x2 + · · · + p1n (t)xn + f1 (t) x02 x03 (5.1) = p21 (t)x1 + p22 (t)x2 + · · · + p2n (t)xn + f2 (t) = p31 (t)x1 + p32 (t)x2 + · · · + p3n (t)xn + f3 (t) .. . x0n = pn1 (t)x1 + pn2 (t)x2 + · · · + pnn (t)xn + fn (t). Si usamos la notación para la matriz de coeficientes P(t) = [pij (t)] y los vectores columna x = [xi ], f(t) = [fi (t)] entonces el sistema anterior se reduce a x0 = P(t)x + f(t). Teorema 5.1. Supongamos que las funciones p11 , p12 , . . . , pnn y las funciones f1 , f2 , . . . , fn son continuas en un intervalo abierto I que contiene al punto a. Entonces, dados n números b1 , b2 , . . . , bn , el sistema (5.1) tiene una única solución en todo el intervalo I que satisface las n condiciones iniciales x1 (a) = b1 , x2 (a) = b2 , ... xn (a) = bn . Definición 5.2. Las funciones con valores vectoriales x1 , x2 , . . . , xn son linealmente dependientes en un intervalo I siempre que existan constantes c1 , c2 , . . . , cn no todas nulas, tal que c1 x1 (t) + c2 x2 (t) + · · · + cn xn (t) = 0, para toda t en I. En caso contrario, son linealmente independientes. 37 Tal como el caso de una ecuación de orden n, existe un determinante Wronskiano que nos dice si n soluciones dadas al sistema x0 = P(t)x son linealmente dependientes o no. Si x1 , x2 , . . . , xn son tales soluciones, entonces su Wronskiano es x (t) x (t) · · · x (t) 12 1n 11 x21 (t) x22 (t) . . . x2n (t) . .. .. = W (x1 , x2 , . . . xn ). . . . . xn1 (t) xn2 (t) . . . xnn (t) El mismo teorema que relaciona el Wronskiano de las soluciones con la dependencia lineal funciona para este caso. Lema 5.3 (Principio de superposición). Sean x1 , x2 , . . . xn en el intervalo abierto I, n soluciones de la ecuación homogénea x0 = P(t)x. Si c1 , c2 , . . . , cn son constantes, entonces la combinación lineal x(t) = c1 x1 (t) + c2 x2 (t) + · · · + cn xn (t) es también solución de la ecuación en I. Teorema 5.4 (Soluciones generales de sistema homogéneos). Sean n soluciones linealmente independientes x1 , x2 , . . . xn de la ecuación lineal homogénea x0 = P(t)x en el intervalo abierto I, donde P(t) es continua. Si x(t) es cualquier solución de esta ecuación homogénea en I, entonces existen valores c1 , c2 , . . . , cn tales que x(t) = c1 x1 (t) + c2 x2 (t) + · · · + cn xn (t) para toda t en I.17 Demostración. Sea a ∈ I fijo. Sea X(t) la matriz de n×n con vectores columna x1 , x2 , . . . xn y sea c el vector columna con componentes c1 , c2 , . . . , cn . Entonces la ecuación x(a) = c1 x1 (a) + c2 x2 (a) + · · · + cn xn (a) (5.2) puede escribirse en la forma X(a)c = x(a). 17 Hay una increı́ble similitud entre este teorema y el principio de superposición. Pero veámoslo más de cerca. El principio de superposición dice que, si se tienen n soluciones al sistema, entonces una combinación lineal de ellas es también solución, pero nada nos dice que dichas combinaciones generan todas las soluciones. El teorema afirma que, en efecto, todas las soluciones son en realidad de esta forma. 38 Nótese ahora que el Wronskiano W (x1 , x2 , . . . xn )(a) = |X(a)| es diferente de cero, porque las soluciones x1 , x2 , . . . xn son linealmente independientes. En consecuencia, la matriz X(a) tiene inversa, por lo que c = X−1 (a)x(a). Finalmente, vemos que la solución dada x(t) y la solución dada por y(t) = c1 x1 (t)+c2 x2 (t)+· · ·+cn xn (t) con los valores ci determinados por X−1 (a)x(a) tienen los mismos valores iniciales en t = a. Se concluye, por el teorema de existencia y unicidad (5.1), que x(t) = y(t) para toda t en I. 5.1. Autovalores y autovectores Definición 5.5. Sea A una matriz de orden n × n y λ un valor a determinar. Entonces el determinante |A − λI| = 0 determina una ecuación de grado n en λ llamada ecuación caracterı́stica de A. Definición 5.6. Decimos que λ es un autovalor asociado a la matriz A si es raı́z de la ecuación caracterı́stica de A. Un autovector asociado al autovalor λ es un vector ~v tal que A~v = λ~v . Sea A una matriz de coeficientes constantes. Entonces el sistema homogéneo x0 (t) = Ax(t) nos podrı́a llevar a pensar que posee soluciones parecidas a las que planteamos para una ecuación ordinaria a coeficientes constantes, donde la solución propuesta era y(x) = erx . Desde luego, la combinación c1 er1 x , . . . , cn ern x en este caso deberı́a tomar la forma de v1 er1 x , . . . , vn ern x . Teorema 5.7 (Solución de sistema homogéneo con autovalores). Sea λ un autovalor de la matriz de coeficientes constantes A del sistema lineal de primer orden x0 (t) = Ax(t). (5.3) Si v es un autovector asociado a λ, entonces x(t) = veλt es una solución no trivial de (5.3). Nota 5.8 (Método del autovalor). Un método general para resolver sistemas homogéneos de la forma (5.3) se prodece como sigue 1. Resolver la ecuación caracterı́stica A para los autovalores λ1 , . . . , λn . 39 2. Intentar encontrar n autovectores linealmente independiente v1 , . . . , vn asociados a los autovalores de A. 3. El paso anterior no siempre es posible, pero cuando lo es, se obtienen las n soluciones linealmente independientes x1 (t) = v1 eλ1 t , . . . , xn (t) = vn eλn t por lo que la solución general resulta x(t) = c1 x1 (t) + · · · + cn xn (t). Todas las conclusiones que fueron realizadas para ecuaciones a coeficientes constantes puede extenderse fácilmente a sistemas como (5.3) teniendo en cuenta los autovalores y autovectores, por ello no las repetiremos. 5.2. Completitud, matriz exponencial y caso general Supongamos que tenemos un sistema como (5.3). Si al hallar los autovalores de la matriz A encontramos que todos ellos son distintos, entonces es posible obtener un conjunto de n autovectores linealmente independientes, tal como se afirma en el paso 2 de la última nota, y de allı́ logramos extraer fácilmente la solución general del sistema. Vamos a ver qué ocurre si esto no pasa. Definición 5.9. Sea λ un autovalor de A. Entonces λ es de multiplicidad k si es raı́z k-ésima de la ecuación caracterı́stica. Si un autovalor λ es de multiplicidad k, entonces se llama completo si tiene k autovectores linealmente independientes asociados. Si un autovalor no es completo se llama defectuoso. Si λ tiene p < k autovectores linealmente independientes asociados, entonces el número d = k − p se llama defecto del autovalor λ. Definición 5.10. Si λ es un autovalor de la matriz A, entonces un autovector generalizado de rango r asociado a λ, es un vector v tal que (A − λI)r v = 0 pero (A − λI)r−1 v 6= 0. Definición 5.11. Una cadena de longitud k de autovectores generalizados asociados al autovector v1 es un conjunto {v1 , v2 , . . . , vn } de k autovectores generalizados tales que (A − λI)vk = vk−1 , (A − λI)vk−1 = vk−2 , .. . (A − λI)v2 = v1 . con la propiedad de que (A − λI)j vj = 0. 40 Nota 5.12 (Cadenas de autovectores generalizados como solución). Comiéncese con una solución u1 diferente de cero de (A − λI)d+1 u = 0 y multiplı́quese sucesivamente por la matriz A − λI hasta obtener el vector cero. Si (A − λI)u1 = u2 6= 0, .. . (A − λI)uk−1 = uk 6= 0. pero (A − λI)uk = 0, entonces los vectores {v1 , v2 , . . . , vk } = {uk , uk−1 , . . . , u2 , u1 } forman una cadena de autovectores generalizados de longitud k basados en el autovector ordinario v1 . Cada cadena de longitud k de autovectores generalizados {v1 , v2 , . . . , vk } (con un autovector ordinario v1 asociado al autovalor λ) determina un conjunto de k soluciones linealmente independientes de (5.3) correspondientes al autovalor λ: x1 (t) = v1 eλt , x2 (t) = (v1 t + v2 )eλt , 1 2 v1 t + v2 t + v3 eλt , x3 (t) = 2 .. . vk−2 t2 v1 tk−1 + ··· + + vk−1 t + vk eλt . xk (t) = (k − 1)! 2! Ejemplo 5.13. Supóngase que la matriz A de 6 × 6 tiene dos autovalores λ1 = −2 y λ2 = 3 de multiplicidad 3 con defectos 1 y 2, respectivamente. Entonces λ1 debe tener un autovector asociado u1 y una cadena de longitud dos {v1 , v2 } de autovectores generalizados (con los autovectores u1 y v1 linealmente independientes), mientras que λ2 debe tener una cadena de longitud tres {w1 , w2 , w3 } de autovectores generalizados basada en su autovector w1 . Los seis autovectores generalizados u1 , v1 , v2 , w1 , w2 y w3 son linealmente independientes y producen las seis soluciones al problema (5.3) dada por: x1 (t) = u1 e−2t , x2 (t) = v1 e−2t , x3 (t) = (v1 t + v2 )e−2t , x4 (t) = w1 e3t , x5 (t) = (w1 t + w2 )e3t , 1 2 x6 (t) = w1 t + w2 t + w3 e3t . 2 41 Los vectores solucion de un sistema lineal homogéneo de n × n dado por (5.3) pueden utilizarse para construir una matriz cuadrada X = Φ(t) que satisface la ecuación diferencial matricial Φ0 = AΦ asociada con (5.3). Supongamos que x1 (t), x2 (t), . . . , xn (t) son n soluciones linealmente independientes de (5.3). La matriz de n × n | | | Φ(t) = x1 (t) x2 (t) . . . xn (t) | | | se llama matriz fundamental del sistema (5.3). En términos de la matriz fundamental Φ(t), la solución general x(t) = c1 x1 (t) + c2 x2 (t) + · · · + cn xn (t) del sistema (5.3) se puede escribir en la forma x(t) = Φ(t)c donde c es el vector columna con componentes constantes c1 , c2 , . . . , cn . Ahora bien, si Ψ(t) es otra matriz fundamental, entonces por resultados ya vistos, se tiene que Ψ(t) = Φ(t)c. Debido a que la matriz fundamental consiste en vectores columna linealmente independientes, Φ es no singular, y por lo tanto tiene inversa Φ−1 . Para que la solución general x(t) dada satisfaga una condición inicial x(0) = x0 es suficiente que el vector de coeficientes c sea tal que Φ(0)c = x0 , por lo que c = Φ(0)−1 x0 . Todo esto nos conduce al intuitivo resultado. Teorema 5.14. Sea Φ(t) una matriz fundamental del sistema lineal homogéneo x0 = Ax. Entonces la única solución de este problema, con las condiciones iniciales x(0) = x0 está dada por x(t) = Φ(t)Φ(0)−1 x0 . Ejemplo 5.15. Encuentre la solución al sistema x0 = 4x + 2y y 0 = 3x − y con condiciones x(0) = 1, y(0) = −1. Es sencillo encontrar las dos soluciones linealmente independientes " # " # e−2t 2e5t x1 (t) = y x2 (t) 5t −3e−2t e 42 (5.4) por lo que la matriz fundamental está dada por Φ(t) = e−2t 2e5t −3e−2t e5t Entonces Φ(0)−1 1 = 7 ! . ! 1 −2 3 1 y x0 = [1, −1]. Aplicando (5.4) se tiene la solución general " # 1 3e−2t + 4e5t x(t) = . 7 −9e−2t + 1e5t 43 A. Sección de apéndice Definición A.1. Sea {fm } una sucesión de funciones reales definidas en algún conjunto D ⊂ Rn . Entonces {fm } se llama uniformemente de Cauchy si para todo ε > 0 existe un entero M = M (ε) tal que cuando m > k > M se tiene |fk (x) − fm (x)| < ε para todo x ∈ D. Definición A.2. Sea {fm } una sucesión de funciones reales definidas en algún conjunto D ⊂ Rn . Entonces {fm } converge uniformemente a una función f , si para todo ε > 0 existe un entero M = M (ε) tal que si m > M entonces |f (x) − fm (x)| < ε para todo x ∈ D. Teorema A.3. Sea {fm } ⊂ C (K) donde K es un conjunto compacto (i.e., un subconjunto cerrado y acotado de Rn ). Entonces {fm } es una sucesión uniformemente de Cauchy en K si, y sólo si, existe una función f ∈ C (K) tal que {fm } converge uniformemente a f en K. Definición A.4. Sea F una familia de funciones reales definidas en D ⊂ Rn . Entonces F se llama uniformemente acotada si existe una constante positiva M tal que |f (x)| < M para todo x ∈ D y para todo f ∈ F . Notación A.5. Decimos que B(x,y) (r) es una bola de centro (x, y) y radio r al conjunto de todos los puntos tales que su distancia a (x, y) no supera a r, para un r > 0. Notación A.6. Sean A y B dos conjuntos tales que A ⊂ B. Entonces la diferencia entre los conjuntos B \ A son los puntos que están en B pero que no están en A. Notación A.7. Sea S un subconjunto de un espacio métrico M . Entonces S representa la clausura de S. Definición A.8. Sea S un subconjunto de un espacio métrico M . Un punto x de M se llama punto frontera de S si cada bola Bx (r) contiene, por lo menos, un punto de S y, por lo menos, un punto de M \ S. Notación A.9. Decimos que ∂S es la frontera del conjunto S y está definida por ∂S = S ∩ M \ S Lema A.10 (Zorn). Todo conjunto parcialmente ordenado no vacı́o en el que toda cadena (subconjunto totalmente ordenado) tiene una cota superior, contiene al menos un elemento maximal. Definición A.11. Definimos la distancia de un punto (x, y) a un conjunto A como el mı́nimo sobre la distancia de (x, y) a (a, b) siendo (a, b) ∈ A. 45 Principio de superposición. Como L(y1 (x)) = f1 (x) y L(y2 (x)) = f2 (x) se tiene que, por linealidad L(y(x)) = L(c1 y1 (x) + c2 y2 (x) = c1 L(y1 (x)) + c2 L(y2 (x)) = c1 f1 (x) + c2 f2 (x). 46 Referencias [1] Earl A Coddington and Norman Levinson. Theory of ordinary differential equations. Tata McGraw-Hill Education, 1955. [2] Henry Edwards and David Penney. Elementary differential equations with boundary value problems. Pearson Higher Ed, 2014. [3] Morris W Hirsch, Stephen Smale, and Robert L Devaney. Differential equations, dynamical systems, and an introduction to chaos. Academic press, 2012. [4] RK Miller and AN Michel. Ordinary difierential equations. Academic Press, New York, 1982. [5] G Zill and R Cullen. Differential equations with bvps, 2001. Thomson Learning. 47
© Copyright 2025