Separazione delle variabili




In matematica, per separazione delle variabili o metodo di Fourier si intende una strategia risolutiva per equazioni differenziali ordinarie e alle derivate parziali in cui è possibile riscrivere l'equazione in modo che due date variabili compaiano l'una al membro di destra e l'altra al membro di sinistra dell'equazione.




Indice






  • 1 Equazioni differenziali ordinarie


    • 1.1 Esempio




  • 2 Equazioni alle derivate parziali


    • 2.1 Caso omogeneo


    • 2.2 Caso non omogeneo




  • 3 Bibliografia


  • 4 Voci correlate


  • 5 Collegamenti esterni





Equazioni differenziali ordinarie |


Si supponga che un'equazione differenziale ordinaria (ODE) si possa scrivere nella forma:


dydx=g(x)h(y){displaystyle {frac {dy}{dx}}=g(x)h(y)}{displaystyle {frac {dy}{dx}}=g(x)h(y)}

con y=f(x){displaystyle y=f(x)}y=f(x). Se h(y)≠0{displaystyle h(y)neq 0}{displaystyle h(y)neq 0} si possono riordinare i termini:


dyh(y)=∫g(x)dx{displaystyle int {dy over h(y)}=int {g(x)dx}}{displaystyle int {dy over h(y)}=int {g(x)dx}}

in modo che le variabili x{displaystyle x}x e y{displaystyle y}y siano separate ognuna in uno dei due membri.


Una delle equazioni più significative a cui si applica il metodo è y′=ay{displaystyle y'=ay}{displaystyle y'=ay}, la crescita esponenziale.



Esempio |


.mw-parser-output .vedi-anche{border:1px solid #CCC;font-size:95%;margin-bottom:.5em}.mw-parser-output .vedi-anche td:first-child{padding:0 .5em}.mw-parser-output .vedi-anche td:last-child{width:100%}



Magnifying glass icon mgx2.svg
Lo stesso argomento in dettaglio: Equazione logistica.

La crescita di una popolazione è spesso modellata da un'equazione differenziale del tipo:


dPdt=kP(1−PK){displaystyle {frac {dP}{dt}}=kPleft(1-{frac {P}{K}}right)}{displaystyle {frac {dP}{dt}}=kPleft(1-{frac {P}{K}}right)}

dove P{displaystyle P}P è la popolazione in funzione del tempo t{displaystyle t}t, k{displaystyle k}k è il suo tasso di crescita e K{displaystyle K}K è la capacità portante dell'ambiente. Riordinando i termini e integrando:


dPP(1−PK)=∫kdt{displaystyle int {frac {dP}{Pleft(1-{frac {P}{K}}right)}}=int k,dt}{displaystyle int {frac {dP}{Pleft(1-{frac {P}{K}}right)}}=int k,dt}

Per valutare l'integrale a sinistra si semplifica la frazione:


1P(1−PK)=KP(K−P){displaystyle {frac {1}{Pleft(1-{frac {P}{K}}right)}}={frac {K}{Pleft(K-Pright)}}}{displaystyle {frac {1}{Pleft(1-{frac {P}{K}}right)}}={frac {K}{Pleft(K-Pright)}}}

e quindi la si decompone in fratti semplici:


KP(K−P)=1P+1K−P{displaystyle {frac {K}{Pleft(K-Pright)}}={frac {1}{P}}+{frac {1}{K-P}}}{displaystyle {frac {K}{Pleft(K-Pright)}}={frac {1}{P}}+{frac {1}{K-P}}}

Si ha quindi:


(1P+1K−P)dP=∫kdt{displaystyle int left({frac {1}{P}}+{frac {1}{K-P}}right),dP=int k,dt}{displaystyle int left({frac {1}{P}}+{frac {1}{K-P}}right),dP=int k,dt}

Uguagliando gli integrandi:


ln⁡|P|−ln⁡|K−P|=kt+C{displaystyle ln {begin{vmatrix}Pend{vmatrix}}-ln {begin{vmatrix}K-Pend{vmatrix}}=kt+C}{displaystyle ln {begin{vmatrix}Pend{vmatrix}}-ln {begin{vmatrix}K-Pend{vmatrix}}=kt+C}

da cui:


ln⁡|K−P|−ln⁡|P|=−kt−C{displaystyle ln {begin{vmatrix}K-Pend{vmatrix}}-ln {begin{vmatrix}Pend{vmatrix}}=-kt-C}{displaystyle ln {begin{vmatrix}K-Pend{vmatrix}}-ln {begin{vmatrix}Pend{vmatrix}}=-kt-C}

per le proprietà dei logaritmi:


ln⁡|K−PP|=−kt−C{displaystyle ln {begin{vmatrix}{cfrac {K-P}{P}}end{vmatrix}}=-kt-C}{displaystyle ln {begin{vmatrix}{cfrac {K-P}{P}}end{vmatrix}}=-kt-C}

Si ha:


|K−PP|=e−kt−C=e−Ce−kt{displaystyle {begin{vmatrix}{cfrac {K-P}{P}}end{vmatrix}}=e^{-kt-C}=e^{-C}e^{-kt}}{displaystyle {begin{vmatrix}{cfrac {K-P}{P}}end{vmatrix}}=e^{-kt-C}=e^{-C}e^{-kt}}

e quindi:


K−PP=±e−Ce−kt{displaystyle {frac {K-P}{P}}=pm e^{-C}e^{-kt}}{displaystyle {frac {K-P}{P}}=pm e^{-C}e^{-kt}}

Sia A=±e−C{displaystyle A=pm e^{-C}}{displaystyle A=pm e^{-C}}. Allora:


K−PP=Ae−kt{displaystyle {frac {K-P}{P}}=Ae^{-kt}}{displaystyle {frac {K-P}{P}}=Ae^{-kt}}

che si può riscrivere:


KP−1=Ae−kt{displaystyle {frac {K}{P}}-1=Ae^{-kt}}{displaystyle {frac {K}{P}}-1=Ae^{-kt}}

da cui si ricava:


P=K1+Ae−kt{displaystyle P={frac {K}{1+Ae^{-kt}}}}{displaystyle P={frac {K}{1+Ae^{-kt}}}}

Quindi la soluzione all'equazione logistica è:


P(t)=K1+Ae−kt{displaystyle Pleft(tright)={frac {K}{1+Ae^{-kt}}}}{displaystyle Pleft(tright)={frac {K}{1+Ae^{-kt}}}}

Per trovare A{displaystyle A}A, sia t=0{displaystyle t=0}t=0 e P(0)=P0{displaystyle Pleft(0right)=P_{0}}{displaystyle Pleft(0right)=P_{0}}. Si ha:


P0=K1+Ae0{displaystyle P_{0}={frac {K}{1+Ae^{0}}}}{displaystyle P_{0}={frac {K}{1+Ae^{0}}}}

Notando che e0=1{displaystyle e^{0}=1}{displaystyle e^{0}=1}, risolvendo per A{displaystyle A}A si ha:


A=K−P0P0{displaystyle A={frac {K-P_{0}}{P_{0}}}}{displaystyle A={frac {K-P_{0}}{P_{0}}}}


Equazioni alle derivate parziali |


Il metodo è utilizzato per affrontare un grande numero di equazioni differenziali alle derivate parziali, come l'equazione delle onde, l'equazione del calore, l'equazione di Laplace o l'equazione di Helmholtz.



Caso omogeneo |


Data l'equazione del calore in una dimensione:


u∂t−α2u∂x2=0{displaystyle {frac {partial u}{partial t}}-alpha {frac {partial ^{2}u}{partial x^{2}}}=0}{displaystyle {frac {partial u}{partial t}}-alpha {frac {partial ^{2}u}{partial x^{2}}}=0}

con condizione al contorno:


u|x=0=u|x=L=0{displaystyle u{big |}_{x=0}=u{big |}_{x=L}=0}{displaystyle u{big |}_{x=0}=u{big |}_{x=L}=0}

si cerca di trovare una soluzione u{displaystyle u}u non identicamente nulla che soddisfa le condizioni al contorno e tale che sia un prodotto in cui la dipendenza da x{displaystyle x}x e t{displaystyle t}t è separata, ovvero:


u(x,t)=X(x)T(t){displaystyle u(x,t)=X(x)T(t)}{displaystyle u(x,t)=X(x)T(t)}

Sostituendo u{displaystyle u}u nell'equazione e usando la regola del prodotto:


T′(t)αT(t)=X″(x)X(x){displaystyle {frac {T'(t)}{alpha T(t)}}={frac {X''(x)}{X(x)}}}{displaystyle {frac {T'(t)}{alpha T(t)}}={frac {X''(x)}{X(x)}}}

Dato che il membro alla destra dipende solo da x{displaystyle x}x e quello alla sinistra solo da t{displaystyle t}t, entrambi sono uguali ad una qualche costante λ{displaystyle -lambda }{displaystyle -lambda }:


T′(t)=−λαT(t)X″(x)=−λX(x){displaystyle T'(t)=-lambda alpha T(t)qquad X''(x)=-lambda X(x)}{displaystyle T'(t)=-lambda alpha T(t)qquad X''(x)=-lambda X(x)}

dove λ{displaystyle -lambda }{displaystyle -lambda } è autovalore di entrambi gli operatori differenziali, con T(t){displaystyle T(t)}T(t) e X(x){displaystyle X(x)}X(x) le rispettive autofunzioni.


Per mostrare che non vi sono soluzioni per λ0{displaystyle lambda leq 0}{displaystyle lambda leq 0}, si osserva inizialmente che per λ<0{displaystyle lambda <0}lambda <0 esistono due numeri reali B{displaystyle B}B e C{displaystyle C}C tali che:


X(x)=Be−λx+Ce−λx{displaystyle X(x)=Be^{{sqrt {-lambda }},x}+Ce^{-{sqrt {-lambda }},x}}{displaystyle X(x)=Be^{{sqrt {-lambda }},x}+Ce^{-{sqrt {-lambda }},x}}

Utilizzando le condizioni al contorno si ha che X(0)=0=X(L){displaystyle X(0)=0=X(L)}{displaystyle X(0)=0=X(L)}, da cui si ha B=0=C{displaystyle B=0=C}{displaystyle B=0=C}, che implica che u{displaystyle u}u è nulla. Supponendo λ=0{displaystyle lambda =0}lambda = 0, del resto, in tal caso esistono due numeri reali B{displaystyle B}B e C{displaystyle C}C tali che:


X(x)=Bx+C{displaystyle X(x)=Bx+C}{displaystyle X(x)=Bx+C}

Dal fatto che X(0)=0=X(L){displaystyle X(0)=0=X(L)}{displaystyle X(0)=0=X(L)} si conclude in modo analogo che u{displaystyle u}u è nulla. Quindi, deve essere λ>0{displaystyle lambda >0}lambda >0, ed esistono A{displaystyle A}A, B{displaystyle B}B e C{displaystyle C}C tali che:


T(t)=Ae−λαtX(x)=Bsin⁡x)+Ccos⁡x){displaystyle T(t)=Ae^{-lambda alpha t}qquad X(x)=Bsin({sqrt {lambda }},x)+Ccos({sqrt {lambda }},x)}{displaystyle T(t)=Ae^{-lambda alpha t}qquad X(x)=Bsin({sqrt {lambda }},x)+Ccos({sqrt {lambda }},x)}

Sfruttando nuovamente X(0)=0=X(L){displaystyle X(0)=0=X(L)}{displaystyle X(0)=0=X(L)}, si ha C=0{displaystyle C=0}{displaystyle C=0} e che per qualche intero positivo n{displaystyle n}n si verifica:


λ=nπL{displaystyle {sqrt {lambda }}=n{frac {pi }{L}}}{displaystyle {sqrt {lambda }}=n{frac {pi }{L}}}

Questo risolve l'equazione nel caso in cui la dipendenza di u{displaystyle u}u ha la forma u(x,t)=X(x)T(t){displaystyle u(x,t)=X(x)T(t)}{displaystyle u(x,t)=X(x)T(t)}. In generale, la somma di soluzioni all'equazione del calore che soddisfano le condizioni al contorno sono soluzioni che soddisfano anche questo caso particolare, e quindi una soluzione completa è data da:


u(x,t)=∑n=1∞Dnsin⁡xLexp⁡(−n2πtL2){displaystyle u(x,t)=sum _{n=1}^{infty }D_{n}sin {frac {npi x}{L}}exp left(-{frac {n^{2}pi ^{2}alpha t}{L^{2}}}right)}{displaystyle u(x,t)=sum _{n=1}^{infty }D_{n}sin {frac {npi x}{L}}exp left(-{frac {n^{2}pi ^{2}alpha t}{L^{2}}}right)}

dove Dn{displaystyle D_{n}}D_n sono coefficienti determinati dalla condizione iniziale.


Se la condizione iniziale è:


u|t=0=f(x){displaystyle u{big |}_{t=0}=f(x)}{displaystyle u{big |}_{t=0}=f(x)}

si ottiene:


f(x)=∑n=1∞Dnsin⁡xL{displaystyle f(x)=sum _{n=1}^{infty }D_{n}sin {frac {npi x}{L}}}{displaystyle f(x)=sum _{n=1}^{infty }D_{n}sin {frac {npi x}{L}}}

che è l'espansione in serie di seni di f(x){displaystyle f(x)}f(x). Moltiplicando ambo i membri per sin⁡(nπx/L){displaystyle sin(npi x/L)}{displaystyle sin(npi x/L)} e integrando nell'intervallo [0,L]{displaystyle [0,L]}[0,L] si ha:


Dn=2L∫0Lf(x)sin⁡xLdx{displaystyle D_{n}={frac {2}{L}}int _{0}^{L}f(x)sin {frac {npi x}{L}},dx}{displaystyle D_{n}={frac {2}{L}}int _{0}^{L}f(x)sin {frac {npi x}{L}},dx}

Questo metodo richiede che le autofunzioni di x{displaystyle x}x, che in tal caso sono:


{sin⁡xL}n=1∞{displaystyle left{sin {frac {npi x}{L}}right}_{n=1}^{infty }}{displaystyle left{sin {frac {npi x}{L}}right}_{n=1}^{infty }}

siano ortogonali e siano una base completa. Ciò è garantito in generale dalla teoria di Sturm-Liouville.



Caso non omogeneo |


Si consideri l'equazione non omogenea:


u∂t−α2u∂x2=h(x,t){displaystyle {frac {partial u}{partial t}}-alpha {frac {partial ^{2}u}{partial x^{2}}}=h(x,t)}{displaystyle {frac {partial u}{partial t}}-alpha {frac {partial ^{2}u}{partial x^{2}}}=h(x,t)}

con le medesime condizioni iniziali di quella omogenea. Le funzioni h(x,t){displaystyle h(x,t)}{displaystyle h(x,t)}, u(x,t){displaystyle u(x,t)}u(x,t) e f(x,t){displaystyle f(x,t)}f(x,t) possono essere espanse in serie di seni:


h(x,t)=∑n=1∞hn(t)sin⁡xL{displaystyle h(x,t)=sum _{n=1}^{infty }h_{n}(t)sin {frac {npi x}{L}}}{displaystyle h(x,t)=sum _{n=1}^{infty }h_{n}(t)sin {frac {npi x}{L}}}

u(x,t)=∑n=1∞un(t)sin⁡xL{displaystyle u(x,t)=sum _{n=1}^{infty }u_{n}(t)sin {frac {npi x}{L}}}{displaystyle u(x,t)=sum _{n=1}^{infty }u_{n}(t)sin {frac {npi x}{L}}}

f(x)=∑n=1∞bnsin⁡xL{displaystyle f(x)=sum _{n=1}^{infty }b_{n}sin {frac {npi x}{L}}}{displaystyle f(x)=sum _{n=1}^{infty }b_{n}sin {frac {npi x}{L}}}

dove hn(t){displaystyle h_{n}(t)}{displaystyle h_{n}(t)} e bn{displaystyle b_{n}}b_{n} possono essere calcolati per integrazione, mentre un(t){displaystyle u_{n}(t)}{displaystyle u_{n}(t)} deve essere determinato. Sostituendo le espansioni di hn(t){displaystyle h_{n}(t)}{displaystyle h_{n}(t)} e un(t){displaystyle u_{n}(t)}{displaystyle u_{n}(t)} nell'equazione non omogenea e considerando l'ortogonalità delle funzioni seno si ottiene:


un′(t)+αn2π2L2un(t)=hn(t){displaystyle u'_{n}(t)+alpha {frac {n^{2}pi ^{2}}{L^{2}}}u_{n}(t)=h_{n}(t)}{displaystyle u'_{n}(t)+alpha {frac {n^{2}pi ^{2}}{L^{2}}}u_{n}(t)=h_{n}(t)}

che è una successione di equazioni differenziali lineari che possono essere risolte facilmente con alcuni metodi quali il fattore di integrazione o la trasformata di Laplace. Alla fine si ottiene:


un(t)=e−αn2π2L2t(bn+∫0thn(s)eαn2π2L2sds){displaystyle u_{n}(t)=e^{-alpha {frac {n^{2}pi ^{2}}{L^{2}}}t}left(b_{n}+int _{0}^{t}h_{n}(s)e^{alpha {frac {n^{2}pi ^{2}}{L^{2}}}s},dsright)}{displaystyle u_{n}(t)=e^{-alpha {frac {n^{2}pi ^{2}}{L^{2}}}t}left(b_{n}+int _{0}^{t}h_{n}(s)e^{alpha {frac {n^{2}pi ^{2}}{L^{2}}}s},dsright)}

Il metodo può essere utilizzato anche per coordinate curvilinee ortogonali, anche se con alcune differenze rispetto alle coordinate cartesiane.



Bibliografia |



  • (EN) A. D. Polyanin, Handbook of Linear Partial Differential Equations for Engineers and Scientists, Chapman & Hall/CRC Press, Boca Raton, 2002. ISBN 1-58488-299-9.

  • (EN) Tyn Myint-U, Lokenath Debnath, Linear Partial Differential Equations for Scientists and Engineers, Boston, MA, 2007, ISBN 978-0-8176-4393-5. URL consultato il 29 marzo 2011.

  • (EN) Gerald Teschl, Ordinary Differential Equations and Dynamical Systems, Graduate Studies in Mathematics, vol. 140, Providence, RI, American Mathematical Society, 2012, ISBN 978-0-8218-8328-0.



Voci correlate |



  • Equazione differenziale alle derivate parziali

  • Equazione differenziale ordinaria

  • Equazione logistica

  • Metodi di soluzione analitica per equazioni differenziali ordinarie



Collegamenti esterni |



  • (EN) A.P. Soldatov, Fourier method, in Encyclopaedia of Mathematics, Springer e European Mathematical Society, 2002.

  • (EN) Eric W. Weisstein, Separation of variables, in MathWorld, Wolfram Research.

  • (EN) Methods of Generalized and Functional Separation of Variables at EqWorld: The World of Mathematical Equations

  • (EN) Examples of separating variables to solve PDEs

  • (EN) "A Short Justification of Separation of Variables" (PDF), su math-cs.gordon.edu.



MatematicaPortale Matematica: accedi alle voci di Wikipedia che trattano di matematica



Popular posts from this blog

Сан-Квентин

Алькесар

Josef Freinademetz