Un poco de teor´ıa sobre ecuaciones diferenciales

Un poco de teorı́a sobre ecuaciones diferenciales
ordinarias
Jerónimo Basa
23 de agosto de 2015
Resumen
Este es un sencillo trabajo sobre la teorı́a más simple de ecuaciones
diferenciales ordinarias. Consta de los teoremas básicos de existencia y
unicidad, ámpliamente encontrado en la mayorı́a de los libros, y algunas referencias al análisis que ayudarán en las demostraciones. Como
siempre, se presenta una introducción a la notación y definiciones. El
apéndice contiene lo necesario para realizar una lectura directa del tema,
se recomienda comenzar por allı́.
Índice
1. Existencia y unidad
1.1. Existencia de soluciones . . . . . . . . . . . . . . . . . . . . . .
1.2. Unicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3. El método de las aproximaciones sucesivas . . . . . . . . . . . .
2. Continuación de soluciones
1
1
6
9
11
3. Problemas con valores iniciales
15
3.1. Método de resolución . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2. Diferencial exacta . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3. Ecuaciones de Bernoulli . . . . . . . . . . . . . . . . . . . . . . 21
4. Ecuaciones de segundo orden
4.1. Método de reducción de orden . . . . . . .
4.2. Ecuaciones a coeficientes constantes . . .
4.3. Método de los coeficientes indeterminados
4.4. Variación de los parámetros . . . . . . . .
4.5. Ecuaciones de Euler-Cauchy . . . . . . . .
i
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
22
26
28
31
33
35
5. Sistemas de ecuaciones diferenciales
37
5.1. Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . 39
5.2. Completitud, matriz exponencial y caso general . . . . . . . . . 40
A. Sección de apéndice
45
Referencias
47
ii
Segunda Edición
1.
Existencia y unidad
El propósito de las siguientes secciones es mostrar algunos resultados básicos y útiles sobre existencia, unicidad y continuación del problema
x0 = f (t, x).
(E)
Antes de meternos en discusiones como encontrar soluciones de ecuaciones, primero debemos preguntar si realmente existen. Si se quiere encontrar
soluciones reales a la ecuación x2 = −1 ni siquiera nos tomaremos la molestia.
Pues sabemos que sus soluciones1 no son reales. En cambio, si estudiamos las
soluciones de algo como
1
x2 + + 1 = 0,
x
primero descartamos el valor que no puede tomar x. De la misma manera,
para casos como
√
x + ln(x − 2) = c,
estudiamos todo un conjunto (llamado dominio) antes de adentrarnos a la
búsqueda de soluciones.
Para ecuaciones diferenciables tenemos exactamente las mismas consideraciones. Nos gustarı́a tener herramientas (si es que existen) que nos aseguren
una (no necesariamente única) solución, de acuerdo a las propiedades de los
términos que involucran la ecuación determinada.
1.1.
Existencia de soluciones
Denotemos con I = (a, b) un intervalo abierto en la recta real, es decir, el
conjunto de todos los números reales t tal que a < t < b para constantes a
y b reales. El conjunto de todas las funciones reales2 que poseen k derivadas
parciales continuas sobre I se denota por C k (I). Si f es una función con
derivada parcial k-ésima continua, decimos que f ∈ C k (I).
Si D es un dominio, i.e., un conjunto abierto y conexo, en el plano real
(t, x), el conjunto de todas las funciones f definidas en D tal que ∂ k f /∂tp ∂xq
(p + q = k) existe y es continua en D, decimos que f ∈ C k (D).
Entonces nuestro problema central es encontrar una función diferenciable
ϕ definida en un intervalo real I tal que
(t, ϕ(t)) ∈ D
(t ∈ I)
ϕ0 (t) = f (t, ϕ(t)),
1
2
±i.
También puede extenderse a funciones complejas.
1
con f ∈ C k (I). Si el intervalo I y la función ϕ existen, entonces ϕ se llama
una solución de la ecuación diferencial (E) en I.
En términos geométricos, (E) preescribe una pendiente f (t, x) en cada
punto de D. Una solución ϕ en I es una función cuya gráfica tiene pendiente
f (t, ϕ(t)) para cada t ∈ I.
El sistema en (E) puede tener más de una solución en el intervalo I.
Ejemplo 1.1. El sistema
x0 = 1
tiene, para cada constante real c, el conjunto de soluciones
ϕc = t + c,
en cualquier intervalo real I, pero sólo una de estas soluciones pasa a través
del punto (1, 1).
Por lo tanto, el problema de valores iniciales puede establecerse de la siguiente manera. Dado un punto (τ, ξ) en D, encontrar un intervalo I que
contiene a τ y una solución ϕ de (E) que satisface ϕ(τ ) = ξ.
Supongamos que tal solución ϕ existe en un intervalo dado I. Entonces
por integración directa se obtiene la ecuación integral
Z
ϕ(t) = ξ +
t
f (s, ϕ(s))ds
(t ∈ I).
(V)
τ
De manera similar, supongamos que ϕ es continua y satisface la anterior
ecuación integral en I. Entonces claramente ϕ(τ ) = ξ, y por diferenciación se
sigue que ϕ0 (t) = f (t, ϕ(t)). En otras palabras, hay una equivalencia directa
entre las soluciones ϕ de (E) en I tal que ϕ(τ ) = ξ, y las funciones continuas
ϕ que satisfacen la anterior ecuación integral.
Dada una función f continua en D, como fue introducida anteriormente,
la primera pregunta es si existe una solución al problema (E). La respuesta es
sı́, pero teniendo mucho cuidado con la elección de I.
Ejemplo 1.2. Consideremos el sistema
x0 = x2 ,
está claro que una solución a este problema que pase por (1, −1) viene dado
por ϕ(t) = −t−1 . Sin embargo, esta solución no existe en t = 0 siendo que
f (t, x) = x2 es continua allı́.
Esto muestra que cualquier teorema general sobre existencia de soluciones
a ecuaciones de este tipo, son necesariamente de naturaleza local. Para probar
2
entonces dicha existencia local, realizaremos la construcción que se muestra a
continuación.
Sea f una función real continua en un dominio D del plano (t, x). Una
solución ε-aproximada de (E) en un intervalo I que contiene a t es una función
ϕ continua en I tal que
1. (t, ϕ(t)) ∈ D
(t ∈ I).
2. ϕ ∈ C 1 (I), excepto posiblemente en un conjunto finito de puntos S en
I, donde ϕ0 puede tener discontinuidades simples.
3. |ϕ0 (t) − f (t, ϕ(t))| < ε
(t ∈ I \ S).
Si f es continua en el rectángulo
R:
|t − τ | ≤ a,
|x − ξ| ≤ b
alrededor del punto (τ, ξ) entonces es acotada allı́. Sea
M = máx{|f (t, x)|}
((t, x) ∈ R)
y
b
α = mı́n a,
M
.
Teorema 1.3. Sea f una función real continua en R. Dado ε > 0, existe una
solución ε-aproximada ϕ de (E) en |t − τ | ≤ α tal que ϕ(τ ) = ξ.
Demostración. Sea ε > 0 dado. Se realizará la construcción sólo para [τ, τ +α].
La solución aproximada va a consistir en una poligonal que comienza en (τ, ξ),
es decir, consiste en un número finito de segmentos de recta unidos punto a
punto.
Por ser R ⊂ R2 cerrado y acotado, es compacto. Como f es continua en R,
es uniformemente continua, y por tanto, para el ε dado, existe δε > 0 tal que
|f (t, x) − f (t̂, x̂)| < ε,
si
(t, x) ∈ R, (t̂, x̂) ∈ R
y
|t − t̂| < δε ,
|x − x̂| < δε .
Ahora, realizamos una partición P del intervalo [τ, τ + α] en n partes
τ = t0 < t1 < . . . < tn = τ + α
de modo que
δε
kPk = máx |tk − tk−1 | ≤ mı́n δε ,
.
M
3
(1.1)
Ahora, desde el punto (τ, ξ) se construye un segmento de recta con pendiente f (τ, ξ) hacia la derecha de τ hasta que intersecte con la recta t = t1 en
algún punto; digamos (t1 , x1 ). Este segmento de recta debe estar totalmente
contenido en una región triangular limitada por M , la recta τ +α, y −M . Esto
se sigue inmediatamente de la definición de α y el hecho de que |f (t, x)| ≤ M .
En el punto (t1 , x1 ) se construye un segmento de recta a la derecha de t1 con
pendiente f (t1 , x1 ) hasta que intersecte con la recta t = t2 en un punto (t2 , x2 ).
Continuando de esta manera, en el n-ésimo paso el camino resultante ϕ llega
a la recta t = tn = τ + α.
Este es el ϕ que resultará ser una solución ε-aproximada. Analı́ticamente,
puede expresarse como
ϕ(τ ) = ξ
ϕ(t) = ϕ(tk−1 ) + f (tk−1 , ϕ(tk−1 ))(t − tk−1 ).
(1.2)
Por la forma en que fue construida, resulta trivial ver que ϕ es C 1 ([τ, τ + α])
a trozos y que
|ϕ(t) − ϕ(t̂)| ≤ M |t − t̂|.
(t, t̂ ∈ [τ, τ + α])
(1.3)
Si t es tal que tk−1 < t < tk entonces (1.3) junto con (1.1) implican que
|ϕ(t) − ϕ(tk−1 )| < δε . Por (1.2) y (E)
|ϕ0 (t) − f (t, ϕ(t))| = |f (tk−1 , ϕ(tk−1 )) − f (t, ϕ(t))| < ε
debido a la continuidad uniforme de f . Esto muestra que ϕ es una solución
ε-aproximada.
Para probar la existencia de una sucesión de soluciones aproximadas que
convergen a una solución de (E), donde sólo se utiliza la hipótesis de que
f ∈ C (R), se requiere la noción de familia equicontinua de funciones.
Definición 1.4. Un conjunto de funciones F = {f } definida sobre algún
intervalo real I se dice equicontinua en I si, dado ε > 0, existe δ(ε) > 0, que
no depende de f ∈ F y t, t̂ ∈ I, tal que
|f (t) − f (t̂)| < ε
cuando |t − t̂| < δ.
Lema 1.5 (Ascoli). Sea I un intervalo acotado y F un conjunto infinito,
uniformemente acotado y equicontinuo de funciones. Entonces F contiene una
sucesión {fn } que converge uniformemente en I.
Demostración. Sea {rk } los números racionales contenidos en I enumerados en
algún orden. El conjunto de números {f (r1 )}, f ∈ F , es acotado, y por tanto
existe una sucesión de funciones distintas {fn1 }, fn1 ∈ F , tal que {fn1 (r1 )} es
convergente. Más aún, el conjunto de números {fn1 (r2 )} tiene una subsucesión
4
convergente {fn2 (r2 )}. Continuando de esta manera, se obtiene un conjunto
infinito de funciones fnk ∈ F , n, k = 1, 2, . . . , con la propiedad de que {fnk }
converge en r1 , . . . , rk . Defı́nase fn como la función fnn . Claramente {fn }
converge en cada número racional de I. Luego, dado ε > 0 y un racional
rk ∈ I, entonces existe un entero Nε (rk ) tal que
|fn (rk ) − fm (rk )| < ε.
(n, m > Nε (rk ))
Para el ε dado, existe un δ(ε), independiente de t, t̂ y f ∈ F tal que
|f (t) − f (t̂)| < ε,
|t − t̂| < δ.
Dividimos el intervalo I en un número finito de subintervalos, digamos I1 , I2 , . . . , Ip
tal que la longitud del subintervalo más grande no supere δε . Para cada Ik ,
tomamos un número racional r̂k ∈ Ik . Si t ∈ I, entonces t debe estar en alguno
de los Ik , por lo tanto
|fn (t) − fm (t)| < |fn (t) − fn (r̂k )| + |fn (r̂k ) − fm (r̂k )| + |fm (r̂k ) − fm (t)|
< 3ε
para n, m > máx{Nε (r̂1 ), . . . , Nε (r̂p )}. Finalmente, resulta que {fn } es uniformemente de Cauchy, y por tanto converge uniformemente en I ⊂ R.
Teorema 1.6 (Cauchy-Peano). Si f ∈ C (R), entonces existe una solución
ϕ ∈ C 1 de (E) en |t − τ | ≤ α tal que ϕ(τ ) = ξ.
Demostración. Sea {εn } una sucesión monótona decreciente de números reales
positivos que tiende a cero cuando n → ∞.3 Por (1.3), para cada εn , existe una
solución ε-aproximada ϕn de (E) en |t − τ | ≤ α tal que ϕn (τ ) = ξ. Elijamos
una de estas soluciones ϕn para cada εn . Por (1.3) se sigue que
|ϕn (t) − ϕn (t̂)| ≤ M |t − t̂|.
(1.4)
Aplicamos (1.4) a t̂ = τ ; puede verse que, como |t − τ | ≤ α, la sucesión {ϕn }
es uniformemente acotada pues
|ϕn (t)| ≤ |ϕn (τ )| + |ϕn (t) − ϕn (τ )| ≤ |ξ| + M α.
Más aún, (1.4) implica que {ϕn } es un conjunto equicontinuo. Por el lema de
Ascoli, existe una subsucesión {ϕnk }, k = 1, 2, . . . que converge uniformemente
en [τ − α, τ + α] a una función lı́mite ϕ, que debe ser continua ya que cada ϕn
lo es.
3
E.g. 1/n.
5
La relación definida por ϕn como una solución ε-aproximada puede escribirse en su forma integral como
Z t
ϕn (t) = ξ +
(f (s, ϕn (s)) + ∆n (s))ds,
(1.5)
τ
donde
(
∆n (t) =
ϕ0n (t) − f (t, ϕn (t)), si ϕ0n existe
.
0,
en otro caso
Por ser ϕn solución ε-aproximada, |∆n (t)| ≤ εn .4 Como f es uniformemente
continua en R, y ϕnk → ϕ uniformemente en [τ − α, τ + α] si k → ∞, se
sigue que f (t, ϕnk (t)) → f (t, ϕ(t)) uniformemente en [τ − α, τ + α] si k → ∞.
Reemplazando n por nk en (1.5) se obtiene
Z t
ϕ(t) = ξ +
f (s, ϕ(s))ds.
(1.6)
τ
Pero ya vimos que toda función ϕ que cumple (1.6) es equivalente a decir que
ϕ ∈ C 1 ([τ − α, τ + α]) y es solución de (E) con ϕ(τ ) = ξ.
Corolario 1.7. Sea f continua en un dominio D del plano (t, x) y supongamos
que (τ, ξ) ∈ D. Entonces existe una solución ϕ de (E) en algún intervalo que
contiene a τ en su interior.
Demostración. Como D es abierto, se tiene la bola B(τ,ξ) (r) ⊂ D, con centro
(τ, ξ) y radio r > 0. Sea R cualquier rectángulo que encierra (τ, ξ) y que
está contenido dentro de la bola B(τ,ξ) (r), y por lo tanto, totalmente dentro
de D. Luego, aplicando el teorema de Cauchy-Peano en R nos da el resultado
deseado.
1.2.
Unicidad
Existen muchos ejemplos donde la continuidad de la f en (E) no alcanza
para garantizar la unicidad de las soluciones que pasan por un determinado punto. Sin embargo, podemos dar una condición suficiente que ayudará a
resolver este detalle.
Definición 1.8. Sea f definida en un dominio D del plano (t, x). Decimos
que f es Lipschitz continua si existe una constante k > 0 tal que para todo
(t, x1 ) y (t, x2 ) en D
|f (t, x1 ) − f (t, x2 )| < k|x1 − x2 |.
La constante k es llamada constante de Lipschitz.
4
En efecto, ∆n (t) → 0 en [τ − α, τ + α] cuando n → ∞ por propiedad de εn .
6
Si f es Lipschitz continua en D, entonces f es uniformemente continua en
x para cada t fijo, sin embargo nada puede derivarse sobre la continuidad de
f con respecto de t.
Teorema 1.9. Supongamos que f es una función Lipschitz continua en D.
Sean ϕ1 , ϕ2 ∈ C 1 (a, b) dos soluciones ε1 - y ε2 -aproximadas de (E), que satisfacen
|ϕ1 (τ ) − ϕ2 (τ )| < δ
para algún τ ∈ (a, b), donde δ es una constante positiva. Si ε = ε1 + ε2 ,
entonces
ε k|t−τ |
|ϕ1 (t) − ϕ2 (t)| < δek|t−τ | +
e
− 1 , ∀t ∈ (a, b)
(1.7)
k
donde k es la constante de Lipschitz.
Demostración. Sin pérdida de generalidad, consideremos el caso en que τ <
t < b. Como ϕ1 y ϕ2 son soluciones ε1 - y ε2 -aproximadas de (E)
|ϕ0i (s) − f (s, ϕi (s))| < εi
(i = 1, 2)
(1.8)
para todo punto en τ < s < b.5 Integrando desde τ a t, donde τ < t < b, (1.8)
resulta en
Z t
ϕi (t) − ϕi (τ ) −
f (s, ϕi (s))ds < εi (t − τ ).
(1.9)
τ
Usando el hecho de que |α − β| ≤ |α| + |β|, lo anterior nos da
Z t
r(t) − r(τ ) −
< ε(t − τ )
[f
(s,
ϕ
(s))
−
f
(s,
ϕ
(s))]ds
1
2
τ
donde r(x) = |ϕ1 (x) − ϕ2 (x)| es una función en [τ, b). Entonces la última
desigualdad implica
Z t
r(t) ≤ r(τ ) +
[f (s, ϕ1 (s)) − f (s, ϕ2 (s))]ds + ε(t − τ )
τ
y por ser f Lipschitz continua en D, se tiene
Z t
r(t) ≤ r(τ ) + k
r(s)ds + ε(t − τ ).
τ
Defı́nase la función g como
Z t
g(t) =
r(s)ds.
(τ < t < b)
τ
5
En realidad, para todo punto donde tenga sentido definir ϕ0i (s).
7
(1.10)
En términos de g, (1.10) es
g 0 (t) − kg(t) ≤ δ + ε(t − τ )
ya que por hipótesis, r(τ ) < δ. Multiplicando ambos miembros de la desigualdad por el término e−k(t−τ ) e integrando el resultado desde τ a t, se obtiene
δ
ε
ε
e−k(t−τ ) g(t) ≤
1 − e−k(t−τ ) − 2 e−k(t−τ ) (1 + k(t − τ )) + 2
k
k
k
o
ε
ε
δ k(t−τ )
e
− 1 − 2 (1 + k(t − τ )) + 2 ek(t−τ ) .
k
k
k
Combinando (1.10) con (1.11) resulta
ε k(t−τ )
r(t) < δek(t−τ ) +
e
−1 .
k
g(t) ≤
(1.11)
Notemos que si δ y ε son pequeños, también la diferencia ϕ1 (t) − ϕ2 (t)
lo será. En efecto, si δ = ε = 0, entonces ϕ1 (t) = ϕ2 (t), y hay al menos
una solución de (E) que pasa a través del punto (τ, ξ) en D. Esto prueba la
siguiente
Proposición 1.10. Sea f Lipschitz continua en D y (τ, ξ) un punto. Si ϕ1 y
ϕ2 son dos soluciones de (E) en (a, b) tal que ϕ1 (τ ) = ϕ2 (τ ) = ξ, τ ∈ (a, b),
entonces ϕ1 = ϕ2 .
En realidad, para obtener un resultado sobre unicidad, no es necesario una
hipótesis tan fuerte como la Lipschitz continuidad de la f .
Teorema 1.11. Supongamos que f es Lipschitz continua en el rectángulo
R:
|t − τ | ≤ a,
|x − ξ| ≤ b
alrededor del punto (τ, ξ). Sea
M = máx{|f (t, x)|}
((t, x) ∈ R)
y
b
.
α = mı́n a,
M
Entonces existe una única solución ϕ ∈ C 1 ([τ − α, τ + α]) de (E) tal que
ϕ(τ ) = ξ.
Demostración. Sea {εn } una sucesión monótona decreciente de números reales
positivos que tiende a cero cuando n → ∞. Elijamos para cada εn , una solución
εn -aproximada ϕn . Estas funciones satisfacen
Z t
ϕn (t) = ξ +
(f (s, ϕn (s)) + ∆n (s))ds
(1.12)
τ
8
donde
(
∆n (t) =
ϕ0n (t) − f (t, ϕn (t)), si ϕ0n existe
.
0,
en otro caso
Por (1.7) aplicado a ϕn y ϕm se obtiene, para |t − τ | ≤ α,
(εn + εm )(ekα − 1)
k
donde k existe, por ser f Lipschitz continua. Entonces la sucesión {ϕn } es
uniformemente convergente en |t − τ | ≤ α, y por lo tanto existe una función
lı́mite continua ϕ en este intervalo tal que ϕn → ϕ si n → ∞ uniformemente.
Este hecho, sumado a la continuidad uniforme de f en R, implica que
|ϕn (t) − ϕm (t)| ≤
f (t, ϕn (t)) → f (t, ϕ(t))
(n → ∞)
uniformemente en |t − τ | ≤ α. Luego
Z t
Z t
lı́m
(f (s, ϕn (s)) + ∆n (s))ds =
f (s, ϕ(s))ds.
n→∞ τ
τ
Luego por (1.12), si n → ∞,
t
Z
f (s, ϕ(s))ds
ϕ(t) = ξ +
τ
que, como ya vimos, implica una solución a (E) con las condiciones requeridas.
Dicha solución es única por la proposición anterior.
1.3.
El método de las aproximaciones sucesivas
El teorema de Cauchy-Peano no es satisfactorio a la hora de establecer un
método constructivo para obtener una solución de (E). Sin embargo, como fue
mencionado, si se sabe que la solución, que pasa a través de un punto dado, es
única, entonces la solución poligonal aproximada original puede usarse para
derivar la solución; no se necesita elegir ninguna subsucesión. En particular,
si f es Lipschitz continua, se tiene la siguiente cota para el error cuando se
establece una solución ε-aproximada en lugar de la solución actual
εn ek|t−τ | − 1
.
|ϕ(t) − ϕn (t)| ≤
k
Vamos a considerar R, M y α como ya fue hecho anteriormente; y desde
luego, f es continua en R. Las aproximaciones sucesivas para (E) se definen
como funciones ϕ0 , ϕ1 , . . . , dadas recursivamente por las expresiones
ϕ0 (t) = ξ
Z t
ϕk+1 (t) = ξ +
f (s, ϕk (s))ds
τ
sobre |t − τ | ≤ α.
9
(1.13)
Teorema 1.12 (Picard-Lindelöf ). Si f es Lipschitz continua en R, entonces las aproximaciones sucesivas ϕk existen en |t − τ | ≤ α como funciones
continuas, y convergen uniformemente, en este intervalo, a la única solución
ϕ de (E) tal que ϕ(τ ) = ξ.
Demostración. Sin pérdida de generalidad, tomamos el intervalo [τ, τ + α]. Se
mostrará que cada ϕk existe en [τ, τ + α], ϕk ∈ C 1 ([τ, τ + α]) y
|ϕk (t) − ξ| < M (t − τ ).
(t ∈ [τ, τ + α])
(1.14)
Claramente ϕ0 , siendo la constante ξ, satisface esta condición. Asumamos
que ϕk también lo hace; entonces f (t, ϕk (t)) está definida y es continua en
[τ, τ + α]. Por (1.13) esto implica que ϕk+1 existe en [τ, τ + α], ϕk+1 ∈ C 1 allı́,
y |ϕk+1 (t) − ξ| < M (t − τ ). Entonces las anteriores propiedades se siguen para
todo ϕk por inducción. Geométricamente, esto significa que las ϕk comienzan
en (τ, ξ) y permanecen dentro de la región triangular acotada por las rectas
x − ξ = ±M (t − τ )
y t = τ + α.
Resta probar la convergencia de las ϕk . Sea ∆k definida como
∆k (t) = |ϕk+1 (t) − ϕk (t)|.
(t ∈ [τ, τ + α])
Entonces de (1.13) por sustracción, y el hecho de que f es Lipschitz continua
en R, con alguna constante c > 0,
Z t
∆k (t) ≤ c
∆k−1 (s)ds.
(1.15)
τ
Pero (1.14) nos dice que para k = 0,
∆0 (t) = |ϕ1 (t) − ϕ0 (t)| < M (t − τ ),
y puede generalizarse trivialmente que, por inducción sobre (1.15) se tiene
M ck+1 (t − τ )k+1
.
c
(k + 1)!
P
Esto muestra que los términos de la serie ∞
son mayorizados por la
k=0 ∆k (t)
P∞
cα
serie de potencias de (M/c)e , y por tanto, la serie k=0 ∆k (t) es uniformemente convergente en [τ, τ + α]. Luego, la serie
∆k (t) ≤
ϕ0 (t) +
∞
X
(ϕk+1 (t) − ϕk (t))
k=0
10
es absoluta y uniformemente convergente en [τ, τ + α]. En consecuencia, la
suma parcial
n−1
X
ϕ0 (t) +
(ϕk+1 (t) − ϕk (t)) = ϕn (t)
k=0
tiende uniformemente a la función lı́mite continua ϕ sobre [τ, τ + α]. Resta ver
que la función ϕ satisface
Z t
f (s, ϕ(s))ds
(t ∈ [τ, τ + α])
(1.16)
ϕ(t) = ξ +
τ
y que, por tanto, es solución de (E). Como todas las ϕk se mantienen en la
región triangular mencionada, también ası́ lo hace ϕ. Entonces f (s, ϕ(s)) existe
para s ∈ [τ, τ + α]. Claramente
Z t
Z t
[f (s, ϕ(s)) − f (s, ϕk (s))]ds ≤
|f (s, ϕ(s)) − f (s, ϕk (s))|ds
τ
τ
Z t
≤ c
|ϕ(s) − ϕk (s)|ds
τ
por ser f Lipschitz continua en R. Pero |ϕ(s) − ϕk (s)| → 0 si k → ∞ uniformemente en [τ, τ + α], y por lo tanto la desigualdad muestra que (1.13)
implica (1.16) cuando k → ∞. Se sabe, por lo proposición, que esta solución
es única.
Una cota para el error en la aproximación de ϕ mediante la n-ésima aproximación ϕn viene dada por
|ϕ(t) − ϕk (t)| ≤
∞
X
|ϕk+1 (t) − ϕk (t)| ≤
k=n+1
k=n
≤
∞
M X ck (t − τ )k
c
k!
∞
∞
M X (cα)k
M (cα)n+1 X (cα)k
M (cα)n+1 cα
<
=
e .
c
k!
c (n + 1)!
k!
c (n + 1)!
k=n+1
2.
k=0
Continuación de soluciones
Una vez que la existencia de una solución, para un problema de valores
iniciales, es verificada sobre algún intervalo J, cabe preguntarse si es posible
extender dicha solución a un intervalo más grande, digamos J0 . Llamamos
a este proceso continuación de soluciones. Para ser más especı́ficos, sea ϕ
una solución de (E) con condiciones iniciales en algún intervalo J. Por una
continuación de ϕ nos referimos a una extensión ϕ0 de ϕ a un intervalo más
grande J0 de manera que la extensión resuelva (E) en J0 . Entonces, decimos
que ϕ es continuable en caso de cumplirse dicha propiedad, y no continuable
en otro caso.
11
Ejemplo 2.1. Para el problema x0 = x2 , la solución
ϕ(t) = (1 − t)−1
−1<t<1
sobre
es siempre continuable a la izquierda, pero no es continuable a la derecha.
Ejemplo 2.2. Para el problema x0 = x1/3 , la solución
ψ(t) ≡ 0
sobre
−1<t<0
es continuable a la derecha del cero en más de una forma. Por ejemplo, ψ0 (t) ≡
0 o ψ0 (t) = (2t/3)3/2 para t > 0 funcionan.
Teorema 2.3. Sea f ∈ C (D) y acotada en D. Supongamos que ϕ es solución
de (E) en el intervalo J = (a, b). Entonces, los lı́mites
lı́m ϕ(t) = ϕ(a+ )
t→a+
y
lı́m ϕ(t) = ϕ(b− )
t→b−
existen. Si (a, ϕ(a+ )) (respectivamente se tiene para (b, ϕ(b− )) está en D,
entonces la solución ϕ puede continuarse a la izquierda del punto t = a (respectivamente, a la derecha del punto t = b).
Demostración. Vamos a considerar el caso para el punto final b. Sea M la cota
para |f (t, x)| en D, con t fijo en J y sea ϕ(τ ) = ξ. Entonces para τ < t < u < b
la solución ϕ satisface (V), ası́ que
Z u
f (s, ϕ(s))ds
|ϕ(u) − ϕ(t)| = Z tu
Z u
≤
|f (s, ϕ(s))| ds ≤
M ds = M (u − t).
t
t
Dada una sucesión {tm } ⊂ (τ, b) con tm tendiendo de manera monótona a
b, vemos que la estimación dada por la anterior desigualdad implican que
{ϕ(tm )} es de Cauchy. Entonces, el lı́mite ϕ(b− ) existe.
Si (b, ϕ(b− )) está en D, entonces por el teorema de existencia local hay una
solución ϕ0 de (E) que satisface ϕ0 (b) = ϕ(b− ). La solución ϕ0 (t) estará definida en algún intervalo b ≤ t ≤ b + c para alguna constante c > 0. Hágase
ϕ0 (t) = ϕ(t) en a < t < b. Entonces ϕ0 es continua en a < t < b + c y satisface
Z t
ϕ0 (t) = ξ +
f (s, ϕ0 (s))ds,
(a < t < b)
(2.1)
τ
y
−
Z
ϕ0 (t) = ϕ(b ) +
t
f (s, ϕ0 (s))ds,
b ≤ t ≤ b + c.
b
El lı́mite de (2.1) cuando t tiende a b parece ser
Z b
−
ϕ0 (b ) = ξ +
f (s, ϕ0 (s))ds.
τ
12
Luego
Z
b
Z
τ
t
Z
t
f (s, ϕ0 (s))ds
f (s, ϕ0 (s))ds = ξ +
f (s, ϕ0 (s))ds +
ϕ0 (t) = ξ +
τ
b
sobre b ≤ t < b + c. Como ϕ0 resuelve (V) en a < t < b + c, también lo hace
para (E) en el mismo intervalo.
Corolario 2.4. Si f ∈ C (D) y si ϕ es una solución de (E) con condiciones
iniciales en un intervalo J, entonces ϕ puede continuarse a un intervalo maximal J ∗ ⊃ J de manera que (t, ϕ(t)) → ∂D si t → ∂J ∗ y |t| + |ϕ(t)| → ∞ si
∂D = ∅. La solución ϕ∗ que es continuación sobre J ∗ es no continuable.
Demostración. Sea ϕ solución sobre J dada. El grafo de ϕ es el conjunto
Gr(ϕ) = {(t, ϕ(t)) : t ∈ J}.
Sea A = {ψ : ψ es una solución de ψ 0 (t) = f (t, ψ(t)) que es continuación de ϕ}.
Sean ϕ1 y ϕ2 dos elementos de A. Definimos la relación ϕ1 ≤ ϕ2 si, y sólo si,
Gr(ϕ1 ) ⊂ Gr(ϕ2 ), i.e., si ϕ2 es una continuación de ϕ1 . La relación “≤” induce
en A un orden parcial. Si C = {ϕα : α ∈ I 6 } es una cadena 7 de A entonces
[
Gr(ϕα )
α∈I
es el grafo de una función ϕI que es continuación de ϕ, i.e., ϕI ∈ A y ϕα ≤ ϕI
∀ α ∈ I. Esta ϕI es una cota superior para la cadena. Por el lema de Zorn
existe un elemento maximal ϕ∗ .8
Sea J ∗ el dominio de ϕ∗ . Entonces J ∗ es un intervalo abierto en virtud del
teorema de extensión de soluciones.9 Hagamos, entonces, J ∗ = (a, b). Asumamos que b < ∞ y que ∂D 6= ∅. D, la clausura de D, puede definirse como
D ∪ ∂D. Si f es acotada en D entonces existe ϕ∗ (b− ) con (b, ϕ∗ (b− )) 6∈ D,
pues sino serı́a continuable. Luego (b, ϕ∗ (b− )) ∈ ∂D y es (t, ϕ(t)) → ∂D si
t → b− .
Teorema 2.5. Sean h(t) y g(x) funciones continuas y positivas sobre t0 ≤
t < ∞ y 0 < x < ∞, y tal que 1/g(x) no es integrable en el infinito, i.e.,
Z ∞
1
dx = +∞
∀ a > 0.
(2.2)
g(x)
a
6
Un conjunto de ı́ndices.
Subconjunto totalmente ordenado.
8
Claramente ϕ∗ no es continuable, de lo contrario no serı́a maximal.
9
Si J ∗ = (a, b], como (b, ϕ∗ (b)) ∈ D entonces ϕ∗ podrı́a continuarse a la derecha de b, lo
cual no puede ser.
7
13
Entonces todas las soluciones de
x0 = h(t)g(x),
x(τ ) = ξ
(2.3)
con τ ≥ t0 y ξ > 0 pueden continuarse a la derecha sobre todo el intervalo
τ ≤ t < ∞.
Demostración. Si el resultado no fuese cierto, entonces existe una solución ϕ(t)
y T > τ tal que ϕ(τ ) = ξ, ϕ(t) existe sobre τ ≤ t < T pero no es continuable
más allá de T . Como ϕ es solución de (2.3), ϕ0 (t) > 0 sobre τ ≤ t < T por lo
que ϕ es creciente. Por el corolario anterior, se sigue que ϕ(t) → +∞ cuando
t → T − . Por separación de variables se tiene que
Z t 0
Z t
ϕ (s)
x0
h(s) =
h(s)ds =
=⇒
ds.
(con x = ϕ(s))
g(x)
τ g(ϕ(s))
τ
El cambio de variables mencionado muestra que la última expresión es
Z ϕ(t)
Z ϕ(t)
Z t 0
dx
dx
ϕ (s)
ds =
=
.
g(ϕ(s))
g(x)
g(x)
ϕ(τ )
ξ
τ
Tomando lı́mite t → T − obtenemos finalmente
Z T
Z ∞
dx
h(s)ds =
.
g(x)
τ
ξ
Por hipótesis, la integral de la derecha no existe. Pero como h es continua, la
integral de la izquierda existe y es finita. Esta contradicción prueba el teorema.
Teorema 2.6 (Gronwall). Sea r una función continua no negativa en un
intervalo J = [a, b]. Sean δ y k constantes positivas tal que
Z
r(t) ≤ δ + k
b
r(s)ds.
(t ∈ J)
a
Entonces se tiene la desigualdad de Gronwall
r(t) ≤ δek(t−a) .
Rt
Demostración. Sea R(t) = δ + k a r(s)ds. Claramente R(a) = δ y además
R(t) ≥ r(t). Multiplicando por −k y como R0 (t) = kr(t), se tiene
R0 (t) − kR(t) ≤ R0 (t) − kr(t) = 0.
Multiplicando por ek(a−t) se obtiene
0
R(t)ek(a−t) ≤ 0,
14
por lo que
ek(a−t) R(t) − δ ≤ 0,
del cual se deduce que
δek(t−a) ≥ R(t) ≥ r(t).
Teorema 2.7. Sea J ⊂ R un intervalo abierto y f Lipschitz continua en
J × R. Entonces toda solución de (E) con x(τ ) = ξ existe en todo el intervalo
J.
Demostración. Supongamos que J = (a, b) y τ ∈ J, la existencia y unicidad
local de (E) está garantizada por los teoremas anteriores. Supongamos que ϕ
es solución en (τ, c) con c < b. Probamos que ϕ es continuable a la derecha de
c.
Obervemos que
Z t
ϕ(t) = ξ +
f (s, ϕ(s))ds,
∀ t ∈ [τ, c)
τ
entonces
t
Z
t
Z
[f (s, ϕ(s)) − f (s, ξ)] ds +
ϕ(t) − ξ =
f (s, ξ) ds
τ
τ
y por tanto
Z
|ϕ(t) − ξ| ≤
τ
t
k|ϕ(s) − ξ| ds + máx |f (s, ξ)|(c − τ ) .
s∈[τ,c)
|
{z
}
δ
Se sigue que
Z
|ϕ(t) − ξ| ≤ k
t
|ϕ(s) − ξ| ds + δ ≤ δek|t−τ |
τ
para todo t ∈ [τ, c), donde esta última propiedad se deriva de la desigualdad
de Gronwall. Luego |ϕ(t)| es acotado en [τ, c) y puede continuarse a la derecha
de c.
3.
Problemas con valores iniciales
Estamos acostumbrados a resolver problemas que involucran ecuaciones
diferenciales ordinarias que tiendan a ser lo más sencillas posibles, por ejemplo
y 0 (x) = f (x, y). Desde luego, puede pasar que nuestra ecuación sea de mayor
orden, en este caso lo que intentamos es que nuestra ecuación pueda resolverse
para la variable de mayor orden en la derivada, es decir
dn y
0
(n−1)
=
f
x,
y,
y
,
.
.
.
,
y
.
(3.1)
dxn
15
En su mayorı́a, estas ecuaciones modelan sistemas fı́sicos, los cuales están
sujetos a lo que llamamos condiciones iniciales, que son impuestas por el
sistema y que pueden variar de acuerdo a ciertos factores. Por ejemplo, resolver
la ecuación (3.1) sujeto a
y(x0 ) = c0 , y 0 (x0 ) = c1 , . . . , y (n−1) (x0 ) = cn−1 .
Esto es lo que denominamos problema de valores iniciales (PVI). Ahora nos
preguntamos ¿afecta de alguna forma la condición inicial a nuestra búsqueda
de una solución única?
Ejemplo 3.1. Una familia uniparamétrica y(x) = 1/(x2 + c) son soluciones
de la ecuación diferencial y 0 + 2xy 2 = 0. Si se establece la condición inicial
y(0) = −1 entonces al sustituir x = 0 y y = −1 en la familia, se encuentra que
c = −1. Por lo que obtenemos la solución especı́fica y(x) = 1/(x2 − 1). Ahora
bien, considerada como función, vemos que esta y(x) tiene como dominio los
reales excepto x = ±1. Considerada como la solución a la ecuación diferencial
y 0 + 2xy 2 = 0, el intervalo I de definición de y(x) podrı́a tomarse como uno
en el que y está definida y es diferenciable allı́. Por ejemplo, los intervalos
más grandes que funcionan son (−∞, −1) y (1, ∞). Pero vemos ahora que,
considerada como solución al PVI y 0 + 2xy 2 = 0, y(0) = −1 necesitamos un
intervalo I donde y exista, sea diferenciable y que además contenga al punto
inicial x = 0. Vemos que el intervalo más grande para cumplir estas últimas
propiedades es (−1, 1).
1 4
x satisface la
Ejemplo 3.2. Cada una de las funciones y = 0 y y = 16
0
1/2
ecuación diferencial y = xy
con la condición inicial y(0) = 0. Por lo que el
PVI
y 0 (x) = xy 1/2 , y(0) = 0
tiene al menos dos soluciones.
Este último ejemplo sirve para poner de manifiesto el tema de la unicidad
en ecuaciones diferenciales sencillas. Lo que necesitamos entonces es una idea
fija y acertada que logre ayudarnos a responder las cuestiones de existencia y
unidad para estos problemas.
Teorema 3.3. Sea R una región rectangular en el plano xy definida como
a ≤ x ≤ b, c ≤ y ≤ d que contiene al punto (x0 , y0 ) en su interior. Si f (x, y)
y ∂f /∂y son continuas en R, entonces el PVI y 0 = f (x, y), y(x0 ) = y0 tiene
una solución única en un intervalo I0 contenido en [a, b].
Este es uno de los teoremas más poderosos sobre existencia y unicidad
para los PVI mencionados. Vemos fácilmente en nuestro ejemplo 3.2 que la
unicidad falló pues la derivada parcial no es continua en 0.
16
3.1.
Método de resolución
Nos intriga el dilema de cuánto sabemos acerca de la (aunque posiblemente
no única) solución de una ecuación diferencial dada. Es aquı́ cuando la matemática se vuelve extraña. En cualquier libro o curso básico nos encontramos
con el hecho de que sabemos todo acerca de ecuaciones diferenciales lineales
de primer orden. Sin embargo, al aumentar sólo un grado en el problema, todo
se derrumba. No es cierto que sabemos todo acerca de ecuaciones diferenciales
de segundo o mayor orden. De hecho, hay más problemas de segundo orden
que no podemos resolver en comparación con aquellos que sı́ podemos. Pero
vamos a detenernos primero en las de primer orden.
Sea la ecuación diferencial lineal
dy
+ P (x)y = Q(x)
dx
(3.2)
podemos considerar distintos casos para su resolución; cada uno presentará su
método. Supongamos que nuestra ecuación diferencial tiene la forma
dy
= h(y)g(x).
dx
(3.3)
Toda ecuación de la forma (3.3) se llama ecuación separable. La razón de su
nombre es muy sencilla. Al hacer un pequeño pasaje vemos que
dy
= g(x)dx
h(y)
y mediante integración directa en ambos términos podemos encontrar la solución general.
dy
Ejemplo 3.4. Resolver el PVI (e2y − y) cos(x) dx
= ey sen(2x), y(0) = 0.
Realizando la separación de variables, vemos que
e2y − y
sen(2x)
dy =
dx.
y
e
cos(x)
Usando la identidad 2 sen(x) cos(x) = sen(2x) y aplicando integración a ambos
términos se tiene
Z
Z
y
−y
(e − ye )dy = 2 sen(x)dx,
por lo que
ey + ye−y + e−y = −2 cos(x) + c.
La condición inicial y(0) = 0 implica que c = 4. Por lo tanto, la solución a
nuestro PVI es ey + ye−y + e−y = 4 − 2 cos(x).10
10
Nótese que no es sencillo expresar y en términos de x. Pero esto no será problema, pues
podemos establecer nuestra solución de manera implı́cita.
17
Ahora bien, es claro que no todas las ecuaciones son en variables separables.
Pero como mencionamos, mientras se mantengan en el rango de ser lineales
de primer orden, todo será posible. Supongamos una ecuación como (3.2).11
Una forma eficaz para resolverla es mediante lo que conocemos como factor
integrante. Este factor es un término de la forma
R
ρ(x) = e
P (x)dx
.
Notemos que, al multiplicar por este factor en (3.2) se obtiene
R
e
P (x)dx
0
R
R
y 0 (x) + P (x)y(x) = y(x)e P (x)dx = e P (x)dx Q(x).
Ahora resulta trivial despejar y(x) para obtener la expresión final de la
solución como
Z R
R
P (x)dx
− P (x)dx
e
Q(x)dx + c
(3.4)
y(x) = e
Ejemplo 3.5. Resolver el PVI y 0 (x) + y(x) = x, y(0) = 4.
Vemos que no es una ecuación en variables separables, pero tiene la forma
de (3.2) con P (x) = 1 y Q(x) = x por lo que podemos usar el método del
factor integrante. Tenemos que
R
ρ(x) = e
dx
= ex .
Por la fórmula dada en (3.4) vemos que y(x) = x − 1 + ce−x . Por la condición
inicial, sabemos que y(0) = 4, con lo que c = 5. La solución del PVI es entonces
y(x) = x − 1 + 5e−x .
Estas dos herramientas que vimos sobre ecuaciones diferenciales ordinarias
lineales de primer orden sirven para encontrar (tal vez no fácilmente, pues
podrı́amos tener dificultades en la integral del factor ρ) la solución a cualquier
problema de este tipo. Sin embargo, podemos encontrarnos un caso en donde
una pequeña alternativa es aún más útil.
Aunque la sencilla ecuación diferencial dada por
ydx + xdy = 0
es en variables separable, podemos ver que el lado izquierdo es en realidad la
diferencial de f (x, y) = xy.
11
Aquı́ nos ponemos firmes con la forma dada en (3.2), pues si nuestra ecuación es de la
forma
dy
f1 (x)
+ f2 (x)y(x) = f3 (x)
dx
entonces deberı́amos dividir a ambos miembros por f1 (x) para lograr la forma deseada. Al
hacer esto, es posible que perdamos valores para x en caso de que f1 (x) se anule.
18
3.2.
Diferencial exacta
Definición 3.6. Sea z = f (x, y) una función de dos variables con primeras derivadas parciales continuas en una región R del plano xy, entonces su
diferencial viene dada por
dz =
∂f
∂f
dx +
dy.
∂x
∂y
(3.5)
Veamos que, en el caso especial de tener una familia de curvas f (x, y) = c,
con c constante, entonces el término izquierdo de (3.5) es cero y obtenemos una
ecuación homogénea. Es decir, dada la familia f (x, y) = c podemos generar
una ecuación diferencial de primer orden calculando el diferencial a ambos
lados de esta igualdad.
Definición 3.7. Una ecuación diferencial M (x, y)dx + N (x, y)dy = 0 se dice exacta si el término izquierdo se corresponde con la diferencial de alguna
función f (x, y) definida en una región R del plano xy.
Teorema 3.8. Sean M (x, y) y N (x, y) continuas y que tienen primeras derivadas parciales continuas en una región rectangular R del plano xy. Entonces
M (x, y)dx + N (x, y)dy determina una ecuación diferencial exacta si, y sólo si,
∂M
∂N
=
.
∂y
∂x
(3.6)
La demostración es una consecuencia del teorema de Clairaut.
Dada una ecuación diferencial exacta M (x, y)dx + N (x, y)dy = 0, nos
interesa encontrar la función f de la cual se deduce. Si esto es ası́, entonces
existe una función tal que
∂f
= M (x, y).
∂x
Para obtener f podrı́amos realizar una integración directa sobre x
Z
Z
∂f
dx = f (x, y) = M (x, y)dx + g(y),
∂x
con una función arbitraria g(y) actuando como constante de integración. Por
otro lado, sabemos que ∂f /∂y = N (x, y), y de aquı́ vemos que
Z
∂
∂f
=
M (x, y)dx + g 0 (y) = N (x, y),
∂y
∂y
por lo que
∂
g (y) = N (x, y) −
∂y
0
Z
M (x, y)dx.
Por último, para encontrar g(y) simplemente procedemos a integrar
19
Z g(y) =
∂
N (x, y) −
∂y
Z
M (x, y)dx dy.
Observación. Desde luego, podrı́amos haber comenzado el método con la
suposición de que ∂f /∂y = N (x, y).
Ejemplo 3.9. Resolver el PVI
dy
xy 2 − cos(x) sen(x)
=
,
dx
y(1 − x2 )
y(0) = 2.
Al escribirlo como ecuación diferencial exacta, vemos que
cos(x) sen(x) − xy 2 dx + y(1 − x2 )dy = 0,
y claramente
∂N
∂M
= −2xy =
.
∂y
∂x
Ahora
∂f
= N (x, y) = y(1 − x2 ),
∂y
por lo que
Z
f (x, y) =
N (x, y)dy + h(x) =
y2
(1 − x2 ) + h(x).
2
También
∂f
= −xy 2 + h0 (x) = M (x, y) = cos(x) sen(x) − xy 2 .
∂x
Claramente la última expresión nos dice que el término faltante es h0 (x) =
cos(x) sen(x). Integrando obtenemos
Z
1
h(x) = cos(x) sen(x)dx = − cos2 (x).
2
Finalmente
y2
1
(1 − x2 ) − cos2 (x) = c1
2
2
o
y 2 (1 − x2 ) − cos2 (x) = c.
La condición inicial y(0) = 2 nos da que c = 3. La solución del problema
es entonces y 2 (1 − x2 ) − cos2 (x) = 3.
20
3.3.
Ecuaciones de Bernoulli
Definición 3.10. Una ecuación diferencial de la forma
dy
+ P (x)y = Q(x)y n
dx
(3.7)
se llama ecuación de Bernoulli.
Las ecuaciones de Bernoulli no poseen un método especı́fico de resolución.
Más bien, utilizan el cambio v = y 1−n para transformar (3.7) en la ecuación
lineal
dv
+ (1 − n)P (x)v = (1 − n)Q(x).
dx
Ejemplo 3.11. Resolver la ecuación 2xyy 0 = 4x2 + 3y 2 .
Este expresión puede reescribirse como
3
2x
dy
−
y=
,
dx 2x
y
(3.8)
que es una ecuación de Bernoulli con P (x) = −3/(2x), Q(x) = 2x, n = −1.
Sustituyendo, tenemos que v = y 2 , y = v 1/2 y
dy
dy dv
1
dv
=
= v −1/2 .
dx
dv dx
2
dx
Esto resulta en
1 −1/2 dv
3 1/2
v
−
v
= 2xv −1/2 .
2
dx 2x
Luego, la multiplicación por 2v 1/2 nos lleva a la ecuación lineal
3
dv
− v = 4x
dx x
con factor integrante ρ(x) = e
R
−3/xdx
= x−3 . Ası́, obtenemos
d −3
(x v) =
dx
4
x2
4
x−3 v = − + c
x
4
x−3 y 2 = − + c
x
y 2 = −4x2 + cx3 .
Observación. No debemos pasar por alto que, en caso de haber dado
condiciones iniciales, cuando transformamos nuestro problema en la ecuación
(3.8) estamos perdiendo la posibilidad de considerar x = 0, y = 0.
21
Ejemplo 3.12. La ecuación
2xe2y
dy
= 3x4 + e2y
dx
no es separable, ni lineal ni homogénea, pero tampoco es de Bernoulli. No
obstante, se ve que y aparece sólo en los términos e2y y Dx (e2y ) = 2e2y y 0 .
Podemos entonces intentar con el cambio v = e2y y
dv
dy
= 2e2y
dx
dx
que transforma el problema en la ecuación lineal
dv
1
− v = 3x3 .
dx x
Después de multiplicar por el factor integrante ρ(x) = 1/x se tiene que
Z
1
v = 3x2 dx + C,
para que e2y = v = x4 + Cx.
x
La solución a la ecuación es entonces
y(x) =
1
ln |x4 + Cx|.
2
Para finalizar, debemos mencionar que existe una variante un poco distinta
al teorema de existencia y unicidad 3.3.
Teorema 3.13. Si P (x) y Q(x) son continuas en un intervalo abierto I que
contiene al punto x0 , el problema
dy
+ P (x)y = Q(x),
dx
y(x0 ) = y0
tiene una solución única y(x) en I.
Esto nos garantiza una solución única en todo el intervalo I, a diferencia
del teorema 3.3 que sólo garantiza una solución en un posible intervalo más
pequeño que el ancho del rectángulo.
4.
Ecuaciones de segundo orden
Es increı́ble el hecho de que al pasar de ecuaciones de primer orden a
una de segundo orden perdamos tanto conocimiento sobre las soluciones de
estos. Por suerte, existen métodos numéricos que si bien no pueden resolver
de manera exacta un problema, nos permite obtener una aproximación a la
solución. Lo que se expone a continuación son algunas nociones básicas sobre
aquellos problemas de segundo orden que poseen un método de resolución.
22
Notación 4.1. Diremos que L es un operador diferencial lineal si es un operador polinomial
h
i
L(y(·)) = D(n) + Pn−1 (·)D(n−1) + Pn−2 (·)D(n−2) + · · · + P1 (·)D + P0 (·) y(·)
donde D representa la derivada (en su respectivo orden) con respecto a la
variable independiente.12
Con esto, podemos representar cualquier tipo de ecuación diferencial no
homogénea de orden n simplemente escribiendo L(y(x)) = f (x).
Hemos hablado sobre unicidad de las soluciones a la hora de tener un
problema de valores iniciales. Sabemos que cuando no disponemos de dicha
condición inicial, las soluciones en realidad determinan una familia de funciones 13 definidas en un cierto intervalo donde resuelven la ecuación diferencial.
Ejemplo 4.2. Las funciones f (x) = sen(x) y g(x) = cos(x) son solución de
la ecuación diferencial y 00 (x) = −y(x).
A partir del ejemplo anterior puede verse fácilmente que no sólo las funciones por separado son solución, sino que además h(x) = sen(x) + cos(x)
también lo es. Y más general aún, cualquier combinación lineal de la forma
c1 sen(x) + c2 cos(x) es solución de dicha ecuación.
Lema 4.3 (Principio de superposición). Si L es un operador diferencial
lineal y y1 (x), y2 (x) son solución de L(y1 (x)) = f1 (x) y L(y2 (x)) = f2 (x)
respectivamente, entonces para c1 , c2 constantes cualesquiera, la combinación
y(x) = c1 y1 (x) + c2 y2 (x) es solución de L(y(x)) = c1 f1 (x) + c2 f2 (x).14
Corolario 4.4. Si y1 (x) es solución del sistema no homogéneo L(y1 (x)) =
f (x) y y2 (x) es solución del sistema homogéneo L(y2 (x)) = 0, entonces la
función y(x) = y1 (x) + y2 (x) es solución del sistema no homogéneo.
Este corolario será de vital importancia. Lo que nos afirma es que, dada
una ecuación no homogénea L(y(x)) = f (x), primero nos conviene encontrar
una solución yc (x) al problema homogéneo asociado L(y(x)) = 0, y luego
una solución yp (x) para el término no homogéneo f (x). La solución general
buscada será y(x) = yc (x) + yp (x).15
12
En general, dos operadores diferenciales no conmutan. Una condición suficiente para que
lo hagan es que sean a coeficientes constante.
13
Al integrar para hallar la solución siempre se obtiene una constante de integración que
puede variar en caso de que tengamos condiciones iniciales.
14
Este principio puede extenderse a ecuaciones de orden n con n soluciones y, por tanto,
n constantes arbitrarias.
15
Las funciones yc (x), yp (x) se llaman solución complementaria y solución particular respectivamente.
23
Definición 4.5. Un conjunto de funciones f1 (x), f2 (x), . . . , fn (x) es linealmente independiente en un intervalo I si las únicas constantes para las que
c1 f1 (x) + c2 f2 (x) + · · · + cn fn (x) = 0
para toda x en I son c1 = c2 = · · · = cn = 0. Si el conjunto no es linealmente
independiente entonces se llama linealmente dependiente
Esta definición es muy sencilla en el caso de dos funciones f1 (x) y f2 (x).
Partiendo de la definición, claramete se ve que dos funciones son linealmente
independientes si una no es un múltiplo constante de la otra en el intervalo. Dicho de otra manera, si dos funciones son linealmente dependientes, el
cociente de las funciones debe ser constante.
Ejemplo 4.6. Con este ejemplo se trata de salvar una posible confusión. Las
funciones f1 (x) = x y f2 (x) = |x| son linealmente independientes. Para ver
esto, notemos que
|x|
= ±1
x
y, si bien podrı́a parecer que su cociente es un número, no es constante en un
intervalo que incluya al cero.
Con la definición de independencia lineal y el principio de superposición,
vemos fácilmente que el problema de resolver culquier ecuación de la forma
L(y(x)) = f (x) se resume en encontrar n soluciones linealmente independientes del problema. Pues, una vez logrado esto, cualquier otra solución puede
obtenerse como combinación lineal de las funciones encontradas.
Definición 4.7. Supongamos que las funciones f1 (x), f2 (x), . . . , fn (x) tienen
al menos n − 1 derivadas. Entonces el determinante
f
f2
···
fn 1
0
f20
...
fn0 f1
.
..
.. = W (f1 , f2 , . . . , fn )
..
.
.
.
. .
(n−1)
(n−1)
(n−1)
f1
f2
. . . fn
se llama Wronskiano de las funciones f1 , f2 , . . . , fn .
Teorema 4.8. Consideremos el problema
y 00 (x) + p(x)y 0 (x) + q(x)y(x) = 0,
(4.1)
con p y q continuas en I ⊂ R. Sean y1 , y2 dos soluciones en I.
1. Si y1 , y2 son linealmente dependientes, entonces W (y1 , y2 ) = 0 ∀x ∈ I.
2. Si y1 , y2 son linealmente independientes, entonces W (y1 , y2 ) 6= 0 ∀x ∈ I.
24
Teorema 4.9 (Fórmula de Abel). Supongamos que A(x), B(x) y C(x) son
funciones continuas en un intervalo I tal que A(x) 6= 0 para todo x en I. Sean
y1 (x) y y2 (x) dos soluciones cualesquiera de la ecuación
A(x)y 00 (x) + B(x)y 0 (x) + C(x)y(x) = 0.
Entonces existe k ∈ R tal que
W (y1 (x), y2 (x)) = ke−
R
B
dx
A
Demostración. Hagamos W = W (y1 , y2 ) = y10 y2 − y1 y20 . Derivando W vemos
que W 0 = y100 y2 − y1 y200 y multiplicando por A a ambos miembros se tiene,
usando el hecho de que y1 , y2 son solución de la ecuación
AW 0 = y2 Ay100 − y1 Ay200
= y2 −By10 − Cy2 − y1 −By20 − Cy2
= −B y10 y2 − y1 y20 = −BW.
Resulta entonces que AW 0 = −BW , por lo que
W0
B
B
= − =⇒ (ln |W |)0 = − =⇒ |W | =
W
A
A
Z
−
B
dx + c.
A
Despejando, se obtiene el resultado deseado
R
W (y1 , y2 ) = W = e
dx+c
−B
A
R
= |{z}
ec e
dx
−B
A
.
k
Es un error común creer que si el Wronskiano de dos funciones vale cero en
un punto, entonces las funciones son linealmente dependientes en un intervalo
que contenga a dicho punto. No debemos caer en este error.
Ejemplo 4.10. Sean f1 (x) = x y f2 (x) = |x|. Entonces el Wronskiano
W (f1 , f2 )
x x
x −x
= 0, ∀x ≥ 0
= 0, ∀x < 0.
1 1
1 −1 Sin embargo vimos que estas funciones no son linealmente dependientes en un
intervalo que contenga al cero.
Antes de ver algunos métodos de resolución cabe aclarar que, como puede verse, el estudio de ecuaciones diferenciales es uno de los más amplios y
difundidos de la matemática aplicada. Por lo general, una forma ruda de ver
estos temas es siendo bastante pragmático en la medida en que uno se enfoca
sólo en los procedimientos (algorı́tmicos) que deben seguirse para hallar soluciones a un problema determinado. Pero nunca está de más detenerse primero
y pensar ¿es posible encontrar una solución a este problema?, ¿dicha solución
será única?, y en caso de lograr encontrarla ¿en qué región vive?
25
Teorema 4.11. Sean p(x), q(x) y f (x) continuas en un intervalo I abierto
tal que a ∈ I y b0 , b1 ∈ R. Entonces la ecuación diferencial
y 00 (x) + p(x)y 0 (x) + q(x) = f (x)
tiene una solución única y(x) en I que satisface y(a) = b0 , y 0 (a) = b1 .
4.1.
Método de reducción de orden
Una forma sencilla para resolver una ecuación diferencial de segundo orden
es llevarla a una forma equivalente de primer orden y aplicar, según convenga,
las técnicas de la anterior sección (u otras, en caso de ser necesario). Para un
problema de la forma
a2 (x)y 00 (x) + a1 (x)y 0 (x) + a0 (x)y(x) = 0
(4.2)
sabemos que la solución general será de la forma y = c1 y1 + c2 y2 donde y1 , y2
son dos soluciones linealmente independientes en algún intervalo I.
Una ecuación diferencial de segundo orden involucra una segunda derivada
de la función desconocida y(x), y por lo tanto tiene la forma general
F (x, y, y 0 , y 00 ) = 0.
Si la variable x o y no se encuentran en dicha ecuación, entonces esto es
fácilmente reducible por una simple sustitución en un sistema de ecuaciones
de primer orden.
Supongamos que la variable y no figura en nuestro problema. Entonces la
ecuación se reduce a F (x, y 0 , y 00 ) = 0, de modo que la sustitución
p = y0
p0 = y 00
resulta en una ecuación de primer orden F (x, p, p0 ) = 0.
Ejemplo 4.12. Resolver la ecuación xy 00 + 2y 0 = 6x.
Claramente la ausencia de la variable y nos sugiere usar la sustitución que
acabamos de ver. Con ella, nuestro problema se transforma en
x
dp
+ 2p = 6x
dx
que es una ecuación lineal con factor integrante ρ(x) = x2 . Finalmente
p = 2x +
C1
x2
por lo que
y(x) = x2 +
C1
+ C2 .
x
Ahora bien, si x no está presente, entonces nuestra ecuación general toma
la forma F (y, y 0 , y 00 ) = 0. En este caso, la sustitución viene dada por
p = y0 =
dy
,
dx
y 00 =
dp
dp dy
dp
=
=p .
dx
dy dx
dy
26
Ejemplo 4.13. Resolver la ecuación yy 00 = (y 0 )2 .
La sustitución que acabamos de definir nos provee la ecuación de primer
orden
dp
yp
= p2 .
dy
Por separación de variables, tenemos que
Z
Z
dp
dy
=
p
y
ln(p) = ln(y) + C
p = C1 y
donde C1 = eC . Por lo tanto
dx
dy
1
1
=
p
C1 y
Z
dy
C1 x =
= ln(y) + C2
y
=
La solución general del problema es y(x) = eC1 x−C2 .
Los dos métodos mencionados anteriormente funcionan en los casos que
alguna de las variables, x o y, no se encuentren en nuestra ecuación. Para ver
un caso más general, pensemos en un sistema de la forma
y 00 (x) + p(x)y 0 (x) + q(x)y(x) = 0
(4.3)
con p, q continuas en un intervalo I. Supongamos que y1 (x) es solución de
(4.3) en I. Veremos que existe una función u(x) tal que y2 (x) = y1 (x)u(x) es
también solución del problema, y con ello encontraremos la solución general.
Primero notemos que
y20 = y10 u + y1 u0 ,
y200 = y100 u + 2y10 u0 + y1 u00 .
Si y2 (x) es solución, entonces debe cumplir (4.3). Resulta entonces que
0 = y200 + py20 + qy2
= y100 u + 2y10 u0 + y1 u00 + p(y10 u + y1 u0 ) + qy1 u
= u(y100 + py10 + qy1 ) +u00 y1 + 2u0 y10 + pu0 y1
{z
}
|
0
= y1 u00 + u0 (2y1 + py1 ).
Supongamos que y1 (x) 6= 0 para todo x en I. Entonces de la última identidad
0
y
u00 + u0 2 1 + p = 0,
y1
27
por lo que podemos usar el cambio v = u0 para transformarla en una ecuación
lineal de primer orden
0
y1
0
v + v 2 + p = 0.
y1
El factor integrante es
R
e
y0
2 y1 +p dx
1
= y12 e
R
P (x)dx
.
Encontramos por integración directa que
Z − R P (x)dx
e
dx + c2 .
u(x) = c1
y12 (x)
Si tomamos c1 = 1 y c2 = 0, vemos que la segunda solución viene dada por
Z − R P (x)dx
e
y2 (x) = y1 (x)
dx.
y12 (x)
Como dijimos, la solución general será entonces y(x) = c1 y1 (x) + c2 y2 (x).16
Ejemplo 4.14. Encontrar una solución general de la ecuación diferencial
x2 y 00 − 3xy + 4y = 0 sabiendo que la función y1 (x) = x2 es una solución
en (0, ∞).
Llevando esta ecuación a la forma dada por (4.3) se tiene
y 00 −
3 0
4
y + 2 y = 0,
x
x
por lo que
y2 (x) = x
2
Z
e3
R
dx/x
x4
dx = x2 ln(x).
Luego, la solución general es y(x) = c1 x2 + c2 x2 ln(x).
4.2.
Ecuaciones a coeficientes constantes
Hemos mencionado la dificultad de resolver ecuaciones diferenciales de segundo o mayor orden en un aspecto general. Al mismo tiempo, vimos algunas
formas prácticas de resolver estas en caso de tener una forma relativamente
sencilla en nuestro problema. Veremos ahora un caso particular.
Supongamos como problema central nuestro sistema homogéneo
L(y(x)) = an (x)y (n) (x) + an−1 (x)y (n−1) (x) + · · · + a1 (x)y 0 (x) + a0 (x) = 0.
Podrı́amos pensar, de manera acertada, que una forma sencilla de este problema se da cuando los polinomios ai (x) de la anterior ecuación son constantes.
16
Claramente y1 y y2 son linealmente independientes.
28
En ese caso, tenemos lo que llamamos una ecuación diferencial a coeficientes
constantes de la forma
L(y(x)) = an y (n) (x) + an−1 y (n−1) (x) + · · · + a1 y 0 (x) + a0 y(x) = 0,
(4.4)
donde ai son números constantes y, por tanto, L es un operador lineal constante. Del sistema a1 y 0 + a2 y = 0 vemos que despejando, obtenemos y 0 = ky.
Sabemos por otro lado, que su solución es de la forma y(x) = ekx . Como la
intuición nos manda, si esta solución funciona para este sencillo caso de un
problema a coeficientes constantes, podrı́amos pensar que también funciona
para órdenes superiores.
Dicho esto, vamos a proponer que la solución a (4.4) es de la forma y(x) =
rx
e para alguna constante r. Si esto es ası́, al reemplazar y(x) en la ecuación
obtenemos
an rn erx + · · · + a1 rerx + a0 = an rn + an−1 rn−1 + · · · + a1 r + a0 erx
= 0,
y como el término erx es distinto de cero, el sistema anterior se simplifica a la
ecuación
an rn + an−1 rn−1 + · · · + a1 r + a0 = 0
(4.5)
llamada ecuación caracterı́stica del sistema (4.4).
Dicho esto, proponemos una solución, para la ecuación diferencial a coeficientes constantes, de la forma y(x) = c1 er1 x + · · · + cn ern x donde ri son las
raı́ces de la ecuación caracterı́stica. A continuación trataremos distintos casos
para ecuaciones de segundo orden.
Sea
ay 00 (x) + by 0 (x) + cy(x) = 0
(4.6)
con a, b, c ∈ R, entonces la ecuación caracterı́stica de (4.6) es ar2 + br + c = 0.
Caso 1. Supongamos que las raı́ces de la ecuación caracterı́stica son r1 y r2 con
r1 6= r2 . Entonces la solución general de (4.6), en el intervalo (−∞, ∞)
viene dada por y(x) = c1 er1 x + c2 er2 x donde claramente ambas funciones
son linealmente independientes.
Casi 2. Supongamos ahora que la ecuación caracterı́stica tiene sólo una raı́z r.
Por supuesto, una solución será y1 (x) = erx . Para encontrar otra podemos basarnos en el método visto en la sección anterior para obtener una
segunda solución de la forma
Z 2rx
e
rx
y2 (x) = e
dx = xerx ,
e2rx
donde trivialmente y1 , y2 son linealmente independientes. Luego la solución general es y(x) = c1 erx + c2 xerx .
29
Caso 3. Si la solución a la ecuación caracterı́stica son raı́ces complejas conjugadas
r1 = α + iβ, r2 = α − iβ, con α, β ∈ R podemos usar fácilmente la
identidad de Euler para concluir que
y(x) = eαx (c1 cos(βx) + c2 sen(βx))
es la solución general del problema.
Ejemplo 4.15. Encontrar la solución general de y 00 − 4y 0 + 5y = 0.
Por ser una ecuación a coeficientes constantes, determinamos primero su
ecuación caracterı́stica como r2 − 4r + 5 = (r − 2)2 + 1 = 0, cuyas raı́ces son
el par 2 ± i. Por lo visto anteriormente, la solución general viene dada por
y(x) = e2x (c1 cos(x) + c2 sen(x))
Ejemplo 4.16. Encontrar la solución general de 9y (5) − 6y (4) + y (3) = 0.
Nuevamente estamos ante un caso de ecuación a coeficientes constantes,
con ecuación caracterı́stica
9r5 − 6r4 + r3 = r3 (3r − 1)2 = 0
con raı́z triple r = 0 y raı́z doble r = 1/3. Para la raı́z triple r = 0, aplicando dos veces el método visto anteriormente se tiene que las tres soluciones
asociadas son y1 (x) = e0x , y2 (x) = xe0x , y3 (x) = x2 e0x . Para la raı́z doble
r = 1/3 se sabe que dos soluciones linealmente independientes asociadas son
y4 (x) = ex/3 , y5 (x) = xex/3 . Finalmente la solución general es
y(x) = c1 + c2 x + c3 x2 + c4 ex/3 + c5 xex/3 .
Ejemplo 4.17. Resolver la ecuación diferencial y 000 + 3y 00 − 4y = 0.
Como la ecuación caracterı́stica tiene una raı́z simple r1 = 1 y una raı́z
doble r2 = −2, la solución general del problema estará dada por
y(x) = c1 ex + c2 e−2x + c3 xe−2x .
30
4.3.
Método de los coeficientes indeterminados
Lo visto anteriormente nos ayuda a encontrar una solución al problema
L(y(x)) = 0 para L un operador diferencial a coeficientes constantes. Sin
embargo, puede presentarse el problema de resolver un sistema no homogéneo
an y (n) (x) + an−1 y (n−1) (x) + · · · + a1 y 0 (x) + a0 y(x) = f (x).
(4.7)
Por lo visto anteriormente, sabemos que una solución general para (4.7)
es y(x) = yc (x) + yp (x), y la sección anterior nos mostró un método eficiente
para hallar la solución complementaria yc (x) al sistema homogéneo asociado.
Queda entonces la cuestión de encontrar yp (x).
El método de coeficientes indeterminados es una herramienta directa para
solucionar el mismo, siempre que la función f (x) en (4.7) tenga una forma
relativamente sencilla. Por ejemplo, supongamos que f (x) es un polinomio de
grado n. Entonces cabe esperarse que una solución particular yp (x) tenga la
forma de un polinomio general de grado n, pues es la única forma en que (4.7)
nos dé una igualdad. La razón al nombre del método es porque desconocemos
los coeficientes del polinomio que sirve como solución particular. De la misma
forma, si f (x) tiene la forma de una exponencial ekx , debemos esperar que su
solución sea una clase de combinación lineal de exponenciales, pues sus derivadas sólo desprenden la constante k. Y finalmente, las funciones armónicas
cumplen algo similar, si recordamos que son solución de y 00 = −y.
Vemos que en realidad este método no se desprende de ningún teorema.
De hecho, es simplemente un procedimiento que debe seguirse, como si se
tratara de una búsqueda por tanteo. La única condición con la que debemos
tener cuidado es que nuestra f (x) (y ninguna de sus derivadas) sea solución de
L(y(x)) = 0, pues entonces claramente no se trata de una solución particular.
Nota 4.18 (Regla general del método). Supongamos que el término no
homogéneo en (4.7) es de la forma
f (x) = eαx (p(x) cos(βx) + q(x) sen(βx))
con α, β ∈ R (posiblemente ceros) y p, q polinomios (no necesariamente del
mismo orden).
Caso 1. Supongamos β = 0. Entonces, si α no es raı́z caracterı́stica del problema L(y(x)) = 0, el método asegura que existe una solución de la
forma yp (x) = eαx (a0 + a1 x + a2 x2 + · · · + an xn ) donde a0 , a1 , a2 , . . . , an
son coeficientes a determinar sustituyendo en la ecuación diferencial
L(y(x)) = f (x).
Si α es raı́z caracterı́stica de multiplicidad uno, por lo que sabemos de
secciones anteriores, entonces el método sugiere usar
yp (x) = eαx (a0 x + a1 x2 + a2 x3 + · · · + an xn+1 ).
31
Caso 2. Supongamos β 6= 0. Si α ± iβ no es raı́z caracterı́stica, el método asegura
que existe una solución particular de la forma yp (x) = eαx [(a0 + a1 x +
a2 x2 + · · · + an xn ) cos(βx) + (b0 + b1 x + b2 x2 + · · · + bn xn ) sen(βx)], donde los coeficientes se determinan por sustitución directa en la ecuación
principal.
En caso de ser raı́z caracterı́stica, se aplica lo mismo que en el caso 1.
Ejemplo 4.19. Encontrar la solución general de y 00 + 4y = 3x3 .
Usando el método que acabamos de describir, primero hallamos la solución complementaria yc (x) = c1 cos(2x) + c2 sen(2x) con la ecuación caracterı́stica. A continuación, proponemos una solución particular de la forma
yp (x) = a1 x3 + a2 x2 + a3 x + a4 . Entonces
yp0 = 3a1 x2 + 2a2 x + a3
yp00 = 6a1 x + 2a2 .
Sustituyendo en la ecuación del problema, tenemos
yp00 + 4yp = 4a1 x3 + 4a2 x2 + (6a1 + 4a3 )x + (2a2 + a4 ) = 3x3 .
Igualando coeficientes, vemos que 4a1 = 3, 4a2 = 0, (6a1 + 4a3 ) = 0 y (2a2 +
a4 ) = 0, cuya solución es a1 = 3/4, a2 = 0, a3 = −9/8 y a4 = 0. Para terminar,
sumamos la solución complementaria con la particular para obtener la solución
general
3
9
y(x) = c1 cos(2x) + c2 sen(2x) + x3 − x.
4
8
Ejemplo 4.20. Resolver el PVI y 00 − 3y 0 + 2y = 3e−x − 10 cos(3x), y(0) = 1,
y 0 (0) = 2.
La ecuación caracterı́stica r2 − 3r + 2 = 0 tiene raı́ces r1 = 1, r2 = 2. Por
tanto, la solución complementaria será yc (x) = c1 ex + c2 e2x . Los términos en
f (x) (ni sus derivadas) se encuentran en yc (x), por lo tanto intentamos con
algo de la forma
yp = Ae−x + B cos(3x) + C sen(3x),
yp0 = −Ae−x − 3B sen(3x) + 3C cos(3x),
yp00 = Ae−x − 9B cos(3x) − 9C sen(3x).
Sustituyendo esto en la ecuación del problema y agrupando coeficientes, se
obtiene
yp00 − 3yp0 + 2yp = 6Ae−x + (−7B − 9C) cos(3x) + (9B − 7C) sen(3x)
= 3e−x − 10 cos(3x).
32
Ası́, 6A = 3, −7B − 9C = −10 y 9B − 7C = 0, con solución A = 1/2,
B = 7/13 y C = 9/13. Para satisfacer las condiciones iniciales y(0) = 1 y
y 0 (0) = 2, encontramos que c1 = −1/2 y c2 = 6/13. La solución general es
entonces
1
6
1
7
9
y(x) = − ex + e2x + e−x +
cos(3x) +
sen(3x).
2
13
2
13
13
4.4.
Variación de los parámetros
Supongamos que enfretamos un problema en el cual el término no homogéneo de L(y(x)) = f (x) no tiene una forma sencilla como la expuesta en
la nota 4.18. Anteriormente vimos que, si se conoce una solución y1 (x) entonces el método de reducción de orden propone encontrar una función u(x) tal
que y2 (x) = y1 (x)u(x) es otra solución linealmente independiente. Pensemos
entonces en nuestro problema central de segundo orden
y 00 (x) + P (x)y 0 (x) + Q(x)y(x) = f (x),
(4.8)
donde P, Q son continuas en algún intervalo I. Podemos pensar que, si y1 ,
y2 son soluciones linealmente independientes en el intervalo I para el sistema
homogéneo asociado, entonces deberı́amos encontrar funciones u1 (x), u2 (x)
tal que una solución particular sea
yp (x) = y1 (x)u1 (x) + y2 (x)u2 (x).
Calculando las derivadas, tenemos que
yp0 = y10 u1 + y1 u01 + y20 u2 + y2 u02
yp00 = y100 u1 + y10 u01 + u01 y10 + y1 u001 + y200 u2 + y20 u02 + u02 y20 + y2 u002 .
Sustituyendo esto en (4.8) y agrupando términos, vemos que
0
0
z
}|
{
z
}|
{
yp00 + P yp0 + Qyp = u1 [y100 + P y10 + Qy1 ] + u2 [y200 + P y20 + Qy2 ] + y1 u001
+u01 y10 + y2 u002 + u02 y20 + P [y1 u01 + y2 u02 ] + y10 u01 + y20 u02
donde los términos que valen cero se debe a que y1 , y2 son solución del problema
homogéneo asociado a (4.8).
Continuando, tenemos que
yp00 + P yp0 + Qyp = y1 u001 + u01 y10 + y2 u002 + u02 y20 + P [y1 u01 + y2 u02 ] + y10 u01 + y20 u02
d
d
=
[y1 u01 ] +
[y2 u02 ] + P [y1 u01 + y2 u02 ] + y10 u01 + y20 u02
dx
dx
d
=
[y1 u01 + y2 u02 ] + P [y1 u01 + y2 u02 ] + y10 u01 + y20 u02 = f (x).
dx
33
Como se buscan dos funciones desconocidas u1 , u2 la razón nos dice que son
necesarias dos ecuaciones. Lo que necesitamos es la suposición adicional de
que y1 u01 + y2 u02 = 0, con lo que y10 u01 + y20 u02 = f (x). Nos queda entonces el
sistema
y1 u01 + y2 u02 = 0
y10 u01 + y20 u02 = f (x),
que como puede observarse, la matriz de coeficientes sobre las variables
u1 , u2 es simplemente W (y1 , y2 ). Por regla de Cramer
u01 =
−y2 f (x)
W (y1 , y2 )
u02 =
y1 f (x)
.
W (y1 , y2 )
Por lo tanto, el método de variación de parámetros dice que, dada una
ecuación de segundo orden como (4.8) y dos soluciones al sistema homogéneo
asociado y1 , y2 , la solución particular puede hallarse mediante
Z
yp (x) = −y1 (x)
y2 (x)f (x)
dx + y2 (x)
W (y1 , y2 )
Z
y1 (x)f (x)
dx.
W (y1 , y2 )
Ejemplo 4.21. Resolver la ecuación diferencial y 00 − 4y 0 + 4y = (x + 1)e2x .
De la ecuación caracterı́stica vemos que r2 − 4r + 4 = (r − 2)2 = 0 se
tiene que la solución complementaria es yc (x) = c1 e2x + c2 xe2x . Identificando
y1 (x) = e2x , y2 (x) = xe2x , el Wronskiano nos queda
e2x
2x
xe
W e2x , xe2x = 2x
= e4x .
2e
2xe2x + e2x Como f (x) = (x + 1)e2x por las ecuaciones anterior obtenemos
(x + 1)xe4x
(x + 1)e4x
2
0
=
−x
−
x,
u
=
= x + 1.
2
e4x
e4x
Se tiene entonces u1 = −x3 /3 − x2 /2 y u2 = x2 /2 + x. Por lo tanto
1 2
1 3 1 2 2x
yp = − x − x e +
x + x xe2x ,
3
2
2
u01 = −
y luego la solución general es
1
1
y(x) = c1 e2x + c2 xe2x + x3 e2x + x2 e2x .
6
2
Desde luego el método puede generalizarse a ecuaciones diferenciales de orden n, en el cual obtendrı́amos n ecuaciones sobre las incógnitas u01 , u02 , . . . , u0n
y el Wronskiano será un determinante de n × n. Vemos que este último método tiene una ventaja sobre coeficientes indeterminados, pues siempre produce
una solución particular para la ecuación (4.8), siempre que pueda resolverse
primero el problema homogéneo asociado. La variación de parámetros también
es efectiva en ecuaciones diferenciales lineales a coeficientes variables.
34
4.5.
Ecuaciones de Euler-Cauchy
En general, la forma (relativamente) sencilla en que pudimos encontrar
soluciones a los problemas de las secciones anteriores, se deben en gran medida
a que se trataban de ecuaciones a coeficientes constantes. Este hecho desde
luego no se sostiene para ecuaciones a coeficientes variables. Sin embargo, algo
muy parecido al método visto en la sección 4.2 puede ser muy útil al considerar
ecuaciones de este tipo cuando tiene una forma especial.
Una ecuación de la forma
an xn y (n) (x) + an−1 xn−1 y (n−1) (x) + · · · + a1 xy 0 (x) + a0 y(x) = 0
(4.9)
en donde el orden de la variable x coincide con el grado de derivación de y, se
denomina ecuación de Euler-Cauchy.
Se prueba una solución de la forma y(x) = xr donde r es un valor que
se debe determinar. Vamos a realizar algo análogo a cuando sustituimos erx
en una ecuación a coeficientes constantes; de esta manera, si y = xr en (4.9)
obtendremos que el primer término
ak xk y (k) = ak r(r − 1)(r − 2) · · · (r − k + 1)xr .
Por ejemplo, cuando sustituimos y = xr en la ecuación de Euler-Cauchy de
segundo orden, tenemos
ax2 y 00 + bxy 0 + cy = ar(r − 1)xr + brxr + cxr = (ar(r − 1) + br + c)xr = 0.
Por lo tanto, el cálculo del valor r queda determinado por ar(r −1)+br +c = 0
que llamaremos ecuación indicial.
Nota 4.22 (Ecuación de Euler-Cauchy). Si una ecuación diferencial es de
la forma (4.9), entonces utilice una solución prueba y = xr para deducir la
ecuación indicial correspondiente; luego, resuelva sobre r.
Enfocando nuestra atención en las ecuaciones de Euler-Cauchy de orden
dos, podemos distinguir lo siguiente
Caso 1. Si de la ecuación indicial se obtiene dos raı́ces reales distintas, entonces
y(x) = c1 xr1 + c2 xr2 es la solución del problema homogéneo. Claramente
esta solución es suma de funciones linealmente independientes
Caso 2. Supongamos que r1 = r2 . Entonces, al igual que en el caso para coeficientes constantes, la otra solución puede encontrarse mediante
Z
dx
y2 (x) = xr1
= xr ln(x),
x
y la solución general será de la forma y(x) = c1 xr + c2 xr ln(x).
35
Caso 3. Por último, pensemos en un par de raı́ces complejas conjugadas α ± iβ.
Una ligera modificación nos da
xiβ = (eln(x) )iβ = eiβ ln(x)
y gracias a la identidad de Euler
xiβ = cos(β ln(x)) + i sen(β ln(x)).
Por lo tanto, para construir la solución general usamos
y(x) = xα [c1 cos(β ln(x)) + c2 sen(β ln(x))] .
Ya vimos un caso de ecuaciones de Euler-Cauchy en el ejemplo 4.14. En
aquel entonces habı́amos mencionado una solución de la forma y1 (x) = x2
y mediante reducción de orden obtuvimos otra linealmente independiente,
y2 (x) = x2 ln(x). La misma solución habrı́amos obtenido aplicando los métodos recién vistos puesto que r = 2 es la raı́z doble de la ecuación indicial.
Ejemplo 4.23. Resolver la ecuación x3 y (3) + 5x2 y 00 + 7xy 0 + 8y = 0.
Reconocemos este problema como una ecuación de Euler-Cauchy, con ecuación indicial (r+2)(r2 +4) = 0. Por lo tanto las tres raı́ces son r1 = −2, r2 = 2i,
y r3 = −2i. Por lo tanto, la solución general es
y(x) = c1 x−2 + c2 cos(2 ln x) + c3 sen(2 ln x).
Las similitudes entre el método de resolución que acabamos de ver y aquellos usados para ecuaciones diferenciales a coeficientes constantes no son una
coincidencia. De hecho, toda ecuación de Euler-Cauchy se puede escribir de
nuevo como una ecuación diferencial lineal a coeficientes constantes usando el
cambio x = et . La idea cae sobre resolver el nuevo problema en la variable t y
luego sustituir nuevamente con t = ln x.
Ejemplo 4.24. Resolver el problema x2 y 00 − xy 0 + y = ln x. Es sencillo ver que
se trata de una ecuación de Euler-Cauchy. Sin embargo, usaremos el cambio
x = et o t = ln x para ver que
dy
dx
d2 y
dx2
=
=
=
dy dt
1 dy
=
dt dx xdt
dy
1
1 d dy
+
− 2
x dx dt
dt
x
2 1 d y1
dy
1
1 d2 y dy
+
− 2 = 2
−
.
x dt2 x
dt
x
x
dt2
dt
Sustituyendo en la ecuación diferencial dada y agrupando convenientemente,
se llega a
d2 y
dy
− 2 + y = t,
2
dt
dt
36
que es una ecuación a coeficientes constantes y podemos resolver determinando
su ecuación caracterı́stica (r − 1)2 = 0. Ası́ obtenemos la solución yc (t) =
c1 et + c2 tet .
Usando coeficientes indeterminados se prueba una solución particular yp (t) =
A + Bt. Esta suposición conduce a A = 2 y B = 1, con la que obtenemos la
solución general y(t) = c1 et + c2 tet + t + 2. Finalmente, la solución general al
problema original es
y(x) = c1 x + c2 x ln x + ln x + 2.
5.
Sistemas de ecuaciones diferenciales
Los sistemas de ecuaciones diferenciales son casos en que debemos resolver
de manera simultánea dos o más ecuaciones diferenciales, y que pueden, desde
luego, tener dos o más condiciones para cada una de las funciones desconocidas.
Por ejemplo, sean p11 (t), p12 (t), . . . , pnn (t) funciones continuas, entonces un
sistema general de orden n es de la forma
x01 = p11 (t)x1 + p12 (t)x2 + · · · + p1n (t)xn + f1 (t)
x02
x03
(5.1)
= p21 (t)x1 + p22 (t)x2 + · · · + p2n (t)xn + f2 (t)
= p31 (t)x1 + p32 (t)x2 + · · · + p3n (t)xn + f3 (t)
..
.
x0n = pn1 (t)x1 + pn2 (t)x2 + · · · + pnn (t)xn + fn (t).
Si usamos la notación para la matriz de coeficientes P(t) = [pij (t)] y los
vectores columna x = [xi ], f(t) = [fi (t)] entonces el sistema anterior se reduce
a
x0 = P(t)x + f(t).
Teorema 5.1. Supongamos que las funciones p11 , p12 , . . . , pnn y las funciones
f1 , f2 , . . . , fn son continuas en un intervalo abierto I que contiene al punto
a. Entonces, dados n números b1 , b2 , . . . , bn , el sistema (5.1) tiene una única
solución en todo el intervalo I que satisface las n condiciones iniciales
x1 (a) = b1 ,
x2 (a) = b2 ,
...
xn (a) = bn .
Definición 5.2. Las funciones con valores vectoriales x1 , x2 , . . . , xn son linealmente dependientes en un intervalo I siempre que existan constantes c1 , c2 , . . . , cn
no todas nulas, tal que
c1 x1 (t) + c2 x2 (t) + · · · + cn xn (t) = 0,
para toda t en I. En caso contrario, son linealmente independientes.
37
Tal como el caso de una ecuación de orden n, existe un determinante
Wronskiano que nos dice si n soluciones dadas al sistema x0 = P(t)x son
linealmente dependientes o no. Si x1 , x2 , . . . , xn son tales soluciones, entonces
su Wronskiano es
x (t) x (t) · · · x (t) 12
1n
11
x21 (t) x22 (t) . . . x2n (t) .
..
.. = W (x1 , x2 , . . . xn ).
.
.
. .
xn1 (t) xn2 (t) . . . xnn (t)
El mismo teorema que relaciona el Wronskiano de las soluciones con la dependencia lineal funciona para este caso.
Lema 5.3 (Principio de superposición). Sean x1 , x2 , . . . xn en el intervalo
abierto I, n soluciones de la ecuación homogénea x0 = P(t)x. Si c1 , c2 , . . . , cn
son constantes, entonces la combinación lineal
x(t) = c1 x1 (t) + c2 x2 (t) + · · · + cn xn (t)
es también solución de la ecuación en I.
Teorema 5.4 (Soluciones generales de sistema homogéneos). Sean n
soluciones linealmente independientes x1 , x2 , . . . xn de la ecuación lineal homogénea x0 = P(t)x en el intervalo abierto I, donde P(t) es continua. Si
x(t) es cualquier solución de esta ecuación homogénea en I, entonces existen
valores c1 , c2 , . . . , cn tales que
x(t) = c1 x1 (t) + c2 x2 (t) + · · · + cn xn (t)
para toda t en I.17
Demostración. Sea a ∈ I fijo. Sea X(t) la matriz de n×n con vectores columna
x1 , x2 , . . . xn y sea c el vector columna con componentes c1 , c2 , . . . , cn . Entonces
la ecuación
x(a) = c1 x1 (a) + c2 x2 (a) + · · · + cn xn (a)
(5.2)
puede escribirse en la forma
X(a)c = x(a).
17
Hay una increı́ble similitud entre este teorema y el principio de superposición. Pero
veámoslo más de cerca. El principio de superposición dice que, si se tienen n soluciones al
sistema, entonces una combinación lineal de ellas es también solución, pero nada nos dice
que dichas combinaciones generan todas las soluciones. El teorema afirma que, en efecto,
todas las soluciones son en realidad de esta forma.
38
Nótese ahora que el Wronskiano W (x1 , x2 , . . . xn )(a) = |X(a)| es diferente de
cero, porque las soluciones x1 , x2 , . . . xn son linealmente independientes. En
consecuencia, la matriz X(a) tiene inversa, por lo que c = X−1 (a)x(a).
Finalmente, vemos que la solución dada x(t) y la solución dada por y(t) =
c1 x1 (t)+c2 x2 (t)+· · ·+cn xn (t) con los valores ci determinados por X−1 (a)x(a)
tienen los mismos valores iniciales en t = a. Se concluye, por el teorema de
existencia y unicidad (5.1), que x(t) = y(t) para toda t en I.
5.1.
Autovalores y autovectores
Definición 5.5. Sea A una matriz de orden n × n y λ un valor a determinar.
Entonces el determinante
|A − λI| = 0
determina una ecuación de grado n en λ llamada ecuación caracterı́stica de
A.
Definición 5.6. Decimos que λ es un autovalor asociado a la matriz A si es
raı́z de la ecuación caracterı́stica de A. Un autovector asociado al autovalor λ
es un vector ~v tal que
A~v = λ~v .
Sea A una matriz de coeficientes constantes. Entonces el sistema homogéneo
x0 (t) = Ax(t)
nos podrı́a llevar a pensar que posee soluciones parecidas a las que planteamos
para una ecuación ordinaria a coeficientes constantes, donde la solución propuesta era y(x) = erx . Desde luego, la combinación c1 er1 x , . . . , cn ern x en este
caso deberı́a tomar la forma de v1 er1 x , . . . , vn ern x .
Teorema 5.7 (Solución de sistema homogéneo con autovalores).
Sea λ un autovalor de la matriz de coeficientes constantes A del sistema
lineal de primer orden
x0 (t) = Ax(t).
(5.3)
Si v es un autovector asociado a λ, entonces
x(t) = veλt
es una solución no trivial de (5.3).
Nota 5.8 (Método del autovalor). Un método general para resolver sistemas homogéneos de la forma (5.3) se prodece como sigue
1. Resolver la ecuación caracterı́stica A para los autovalores λ1 , . . . , λn .
39
2. Intentar encontrar n autovectores linealmente independiente v1 , . . . , vn
asociados a los autovalores de A.
3. El paso anterior no siempre es posible, pero cuando lo es, se obtienen las
n soluciones linealmente independientes
x1 (t) = v1 eλ1 t , . . . , xn (t) = vn eλn t
por lo que la solución general resulta
x(t) = c1 x1 (t) + · · · + cn xn (t).
Todas las conclusiones que fueron realizadas para ecuaciones a coeficientes
constantes puede extenderse fácilmente a sistemas como (5.3) teniendo en
cuenta los autovalores y autovectores, por ello no las repetiremos.
5.2.
Completitud, matriz exponencial y caso general
Supongamos que tenemos un sistema como (5.3). Si al hallar los autovalores
de la matriz A encontramos que todos ellos son distintos, entonces es posible
obtener un conjunto de n autovectores linealmente independientes, tal como
se afirma en el paso 2 de la última nota, y de allı́ logramos extraer fácilmente
la solución general del sistema. Vamos a ver qué ocurre si esto no pasa.
Definición 5.9. Sea λ un autovalor de A. Entonces λ es de multiplicidad
k si es raı́z k-ésima de la ecuación caracterı́stica. Si un autovalor λ es de
multiplicidad k, entonces se llama completo si tiene k autovectores linealmente
independientes asociados. Si un autovalor no es completo se llama defectuoso.
Si λ tiene p < k autovectores linealmente independientes asociados, entonces
el número d = k − p se llama defecto del autovalor λ.
Definición 5.10. Si λ es un autovalor de la matriz A, entonces un autovector
generalizado de rango r asociado a λ, es un vector v tal que
(A − λI)r v = 0
pero
(A − λI)r−1 v 6= 0.
Definición 5.11. Una cadena de longitud k de autovectores generalizados
asociados al autovector v1 es un conjunto {v1 , v2 , . . . , vn } de k autovectores
generalizados tales que
(A − λI)vk = vk−1 ,
(A − λI)vk−1 = vk−2 ,
..
.
(A − λI)v2 = v1 .
con la propiedad de que
(A − λI)j vj = 0.
40
Nota 5.12 (Cadenas de autovectores generalizados como solución).
Comiéncese con una solución u1 diferente de cero de (A − λI)d+1 u = 0 y
multiplı́quese sucesivamente por la matriz A − λI hasta obtener el vector cero.
Si
(A − λI)u1 = u2 6= 0,
..
.
(A − λI)uk−1 = uk 6= 0.
pero (A − λI)uk = 0, entonces los vectores
{v1 , v2 , . . . , vk } = {uk , uk−1 , . . . , u2 , u1 }
forman una cadena de autovectores generalizados de longitud k basados en el
autovector ordinario v1 .
Cada cadena de longitud k de autovectores generalizados {v1 , v2 , . . . , vk }
(con un autovector ordinario v1 asociado al autovalor λ) determina un conjunto de k soluciones linealmente independientes de (5.3) correspondientes al
autovalor λ:
x1 (t) = v1 eλt ,
x2 (t) = (v1 t + v2 )eλt ,
1
2
v1 t + v2 t + v3 eλt ,
x3 (t) =
2
..
.
vk−2 t2
v1 tk−1
+ ··· +
+ vk−1 t + vk eλt .
xk (t) =
(k − 1)!
2!
Ejemplo 5.13. Supóngase que la matriz A de 6 × 6 tiene dos autovalores
λ1 = −2 y λ2 = 3 de multiplicidad 3 con defectos 1 y 2, respectivamente.
Entonces λ1 debe tener un autovector asociado u1 y una cadena de longitud dos {v1 , v2 } de autovectores generalizados (con los autovectores u1 y v1
linealmente independientes), mientras que λ2 debe tener una cadena de longitud tres {w1 , w2 , w3 } de autovectores generalizados basada en su autovector
w1 . Los seis autovectores generalizados u1 , v1 , v2 , w1 , w2 y w3 son linealmente
independientes y producen las seis soluciones al problema (5.3) dada por:
x1 (t) = u1 e−2t ,
x2 (t) = v1 e−2t ,
x3 (t) = (v1 t + v2 )e−2t ,
x4 (t) = w1 e3t ,
x5 (t) = (w1 t + w2 )e3t ,
1
2
x6 (t) =
w1 t + w2 t + w3 e3t .
2
41
Los vectores solucion de un sistema lineal homogéneo de n × n dado por
(5.3) pueden utilizarse para construir una matriz cuadrada X = Φ(t) que
satisface la ecuación diferencial matricial
Φ0 = AΦ
asociada con (5.3). Supongamos que x1 (t), x2 (t), . . . , xn (t) son n soluciones
linealmente independientes de (5.3). La matriz de n × n


|
|
|


Φ(t) = x1 (t) x2 (t) . . . xn (t)
|
|
|
se llama matriz fundamental del sistema (5.3).
En términos de la matriz fundamental Φ(t), la solución general
x(t) = c1 x1 (t) + c2 x2 (t) + · · · + cn xn (t)
del sistema (5.3) se puede escribir en la forma
x(t) = Φ(t)c
donde c es el vector columna con componentes constantes c1 , c2 , . . . , cn . Ahora
bien, si Ψ(t) es otra matriz fundamental, entonces por resultados ya vistos,
se tiene que Ψ(t) = Φ(t)c. Debido a que la matriz fundamental consiste en
vectores columna linealmente independientes, Φ es no singular, y por lo tanto
tiene inversa Φ−1 .
Para que la solución general x(t) dada satisfaga una condición inicial
x(0) = x0 es suficiente que el vector de coeficientes c sea tal que Φ(0)c = x0 ,
por lo que c = Φ(0)−1 x0 . Todo esto nos conduce al intuitivo resultado.
Teorema 5.14. Sea Φ(t) una matriz fundamental del sistema lineal homogéneo
x0 = Ax. Entonces la única solución de este problema, con las condiciones iniciales x(0) = x0 está dada por
x(t) = Φ(t)Φ(0)−1 x0 .
Ejemplo 5.15. Encuentre la solución al sistema
x0 = 4x + 2y
y 0 = 3x − y
con condiciones x(0) = 1, y(0) = −1.
Es sencillo encontrar las dos soluciones linealmente independientes
"
#
"
#
e−2t
2e5t
x1 (t) =
y x2 (t) 5t
−3e−2t
e
42
(5.4)
por lo que la matriz fundamental está dada por
Φ(t) =
e−2t
2e5t
−3e−2t e5t
Entonces
Φ(0)−1
1
=
7
!
.
!
1 −2
3 1
y x0 = [1, −1]. Aplicando (5.4) se tiene la solución general
"
#
1 3e−2t + 4e5t
x(t) =
.
7 −9e−2t + 1e5t
43
A.
Sección de apéndice
Definición A.1. Sea {fm } una sucesión de funciones reales definidas en algún
conjunto D ⊂ Rn . Entonces {fm } se llama uniformemente de Cauchy si para
todo ε > 0 existe un entero M = M (ε) tal que cuando m > k > M se tiene
|fk (x) − fm (x)| < ε para todo x ∈ D.
Definición A.2. Sea {fm } una sucesión de funciones reales definidas en algún
conjunto D ⊂ Rn . Entonces {fm } converge uniformemente a una función f ,
si para todo ε > 0 existe un entero M = M (ε) tal que si m > M entonces
|f (x) − fm (x)| < ε para todo x ∈ D.
Teorema A.3. Sea {fm } ⊂ C (K) donde K es un conjunto compacto (i.e.,
un subconjunto cerrado y acotado de Rn ). Entonces {fm } es una sucesión
uniformemente de Cauchy en K si, y sólo si, existe una función f ∈ C (K) tal
que {fm } converge uniformemente a f en K.
Definición A.4. Sea F una familia de funciones reales definidas en D ⊂ Rn .
Entonces F se llama uniformemente acotada si existe una constante positiva
M tal que |f (x)| < M para todo x ∈ D y para todo f ∈ F .
Notación A.5. Decimos que B(x,y) (r) es una bola de centro (x, y) y radio r
al conjunto de todos los puntos tales que su distancia a (x, y) no supera a r,
para un r > 0.
Notación A.6. Sean A y B dos conjuntos tales que A ⊂ B. Entonces la
diferencia entre los conjuntos B \ A son los puntos que están en B pero que
no están en A.
Notación A.7. Sea S un subconjunto de un espacio métrico M . Entonces S
representa la clausura de S.
Definición A.8. Sea S un subconjunto de un espacio métrico M . Un punto x
de M se llama punto frontera de S si cada bola Bx (r) contiene, por lo menos,
un punto de S y, por lo menos, un punto de M \ S.
Notación A.9. Decimos que ∂S es la frontera del conjunto S y está definida
por
∂S = S ∩ M \ S
Lema A.10 (Zorn). Todo conjunto parcialmente ordenado no vacı́o en el
que toda cadena (subconjunto totalmente ordenado) tiene una cota superior,
contiene al menos un elemento maximal.
Definición A.11. Definimos la distancia de un punto (x, y) a un conjunto A
como el mı́nimo sobre la distancia de (x, y) a (a, b) siendo (a, b) ∈ A.
45
Principio de superposición. Como L(y1 (x)) = f1 (x) y L(y2 (x)) = f2 (x)
se tiene que, por linealidad
L(y(x)) = L(c1 y1 (x) + c2 y2 (x) = c1 L(y1 (x)) + c2 L(y2 (x)) = c1 f1 (x) + c2 f2 (x).
46
Referencias
[1] Earl A Coddington and Norman Levinson. Theory of ordinary differential
equations. Tata McGraw-Hill Education, 1955.
[2] Henry Edwards and David Penney. Elementary differential equations with
boundary value problems. Pearson Higher Ed, 2014.
[3] Morris W Hirsch, Stephen Smale, and Robert L Devaney. Differential
equations, dynamical systems, and an introduction to chaos. Academic
press, 2012.
[4] RK Miller and AN Michel. Ordinary difierential equations. Academic
Press, New York, 1982.
[5] G Zill and R Cullen. Differential equations with bvps, 2001. Thomson
Learning.
47