Stabilità condizionamento e convergenza

(Pywikibot v.2)
 
m (Pywikibot v.2)
 
(Una versione intermedia di un altro utente non mostrate)
Riga 1: Riga 1:
 
==Errore analitico==
 
==Errore analitico==
{{InizioTeorema|titolo=|number=5.4|anchor=Teorema5_4}}
+
{{InizioTeorema|title=|number=5.4|anchor=Teorema5_4}}
Sia <math>I_x</math> il più piccolo intervallo che contiene i nodi di interpolazione, e suppongo che contenga anche il punto <math>x</math> in cui voglio valutare l'errore.  Supponiamo che <math>F \in C_{n+1}(I_x)</math>. Allora esiste <math>\xi \in I_x</math> tale che
+
Sia <math>I_x</math> il più piccolo intervallo che contiene i nodi di interpolazione, e suppongo che contenga anche il punto <math>x</math> in cui voglio valutare l'errore.  Supponiamo che <math>F \in C_{n+1}(I_x)</math>. Allora esiste <math>\xi \in I_x</math> tale che<math display="block">E_x = |f(x)-p_n(x)| = \frac{f^{(n+1)}(\xi)}{(n+1)!}*w_{n+1}(x)</math>(analogia con la formula di Taylor, centrata però in tutti gli <math>x_i</math>)
<math display="block">E_x = |f(x)-p_n(x)| = \frac{f^{(n+1)}(\xi)}{(n+1)!}*w_{n+1}(x)</math>
 
(analogia con la formula di Taylor, centrata però in tutti gli <math>x_i</math>)
 
 
{{FineTeorema}}
 
{{FineTeorema}}
  
Riga 9: Riga 7:
 
Se <math>x</math> è un nodo di interpolazione, allora <math>E_0=0</math>.
 
Se <math>x</math> è un nodo di interpolazione, allora <math>E_0=0</math>.
  
 
+
Altrimenti, supponiamo di considerare <math>t \in I_x</math>, <math>t \neq x</math>. Introduco la funzione ausiliaria<math display="block">g(t) = E(t)-\frac{w_{n+1}(t)}{w_{n+1}(x)}*E(x)</math>di classe <math>C_{n+1}(I_x)</math>.
Altrimenti, supponiamo di considerare <math>t \in I_x</math>, <math>t \neq x</math>. Introduco la funzione ausiliaria
 
<math display="block">g(t) = E(t)-\frac{w_{n+1}(t)}{w_{n+1}(x)}*E(x)</math>
 
di classe <math>C_{n+1}(I_x)</math>.
 
 
 
  
 
Osservo che:
 
Osservo che:
  
 
#valutando <math>g</math> in uno dei nodi di interpolazione <math>x_i</math>, siccome <math>w_{n+1}(x_i)=0</math> e <math>E(x_i)=0</math> si ha:<math display="block">g(x_i) = E(x_i)-\frac{w_{n+1}(x_i)}{w_{n+1}(x)}*E(x) = 0</math>e <math>g(x_i)=0 \forall i=1,\dots,n</math>.
 
#valutando <math>g</math> in uno dei nodi di interpolazione <math>x_i</math>, siccome <math>w_{n+1}(x_i)=0</math> e <math>E(x_i)=0</math> si ha:<math display="block">g(x_i) = E(x_i)-\frac{w_{n+1}(x_i)}{w_{n+1}(x)}*E(x) = 0</math>e <math>g(x_i)=0 \forall i=1,\dots,n</math>.
#Valutando <math>g</math> nel nodo <math>x</math> si ha:<math display="block">g(x) = E(x)-\frac{w_{n+1}(x)}{w_{n+1}(x)}*E(x)=E(x)-E(x)= 0</math>
+
#Valutando <math>g</math> nel nodo <math>x</math> si ha:<math display="block">g(x) = E(x)-\frac{w_{n+1}(x)}{w_{n+1}(x)}*E(x)=E(x)-E(x)= 0</math>quindi la funzione si annulla in <math>n+2</math> nodi, gli <math>x_i</math> e <math>x</math>.
 
 
quindi la funzione si annulla in <math>n+2</math> nodi, gli <math>x_i</math> e <math>x</math>.
 
 
 
  
 
Per il teorema di Rolle: <math>g'(t)</math> si annulla in <math>n+1</math> punti, e <math>g^{(n+1)}(t)</math> si annulla in un punto <math>\xi \in I_x</math>.
 
Per il teorema di Rolle: <math>g'(t)</math> si annulla in <math>n+1</math> punti, e <math>g^{(n+1)}(t)</math> si annulla in un punto <math>\xi \in I_x</math>.
<math display="block">g^{(n+1)}(\xi) = E^{(n+1)}(\xi)-\frac{w_{n+1}^{(n+1)}(t)}{w_{n+1}(x)}*E(x)</math><math display="block">= f^{(n+1)}(\xi)-\frac{n!}{w_{n+1}(x)}*E(x)</math>
+
<math display="block">g^{(n+1)}(\xi) = E^{(n+1)}(\xi)-\frac{w_{n+1}^{(n+1)}(t)}{w_{n+1}(x)}*E(x)</math><math display="block">= f^{(n+1)}(\xi)-\frac{n!}{w_{n+1}(x)}*E(x)</math>e siccome <math>g^{(n+1)}(\xi) =0</math> per il teorema di Rolle, si ha<math display="block">E(x) = \frac{f^{(n+1)}(\xi)}{(n+1)!}*w_{n+1}(x)</math>
e siccome <math>g^{(n+1)}(\xi) =0</math> per il teorema di Rolle, si ha
 
<math display="block">E(x) = \frac{f^{(n+1)}(\xi)}{(n+1)!}*w_{n+1}(x)</math>
 
 
{{FineDimostrazione}}
 
{{FineDimostrazione}}
 
 
 
  
 
Rappresento <math>I_x</math> usando le differenze divise. Chiamo <math>E_n(f)(x)</math> l'errore
 
Rappresento <math>I_x</math> usando le differenze divise. Chiamo <math>E_n(f)(x)</math> l'errore
Riga 36: Riga 22:
 
Sia <math>P_n(t)</math> il polinomio interpolante. Sia <math>x \neq x_i</math>, considerato come nuovo nodo di interpolazione.
 
Sia <math>P_n(t)</math> il polinomio interpolante. Sia <math>x \neq x_i</math>, considerato come nuovo nodo di interpolazione.
  
 
+
Scrivo il polinomio interpolante nei nodi <math>x_i</math>, con <math>i=0,\dots,n+1</math>. Aumento di 1 il grado del polinomio interpolante<math display="block">p_{n+1}(t) = p_n(t)+f[x_0,\dots,x_n,x]*(t-x_0)*(t-x_1)*\dots*(t-x_n)</math>Siccome <math>f(x)=p_{n+1}(x)</math> per la formula di Newton, ricavo che<math display="block">E_n(f)(x) = f(x)-p_n(x) = f[x_0,\dots,x_n,x]*(x-x_0)*(x-x_1)*\dots*(x-x_n)</math>e se <math>f \in C_{n+1}(I_x)</math>, segue che <math>f[x_0,\dots,x_n,x] = \frac{f^{(n+1)}(\xi)}{(n+1)!}</math>.
Scrivo il polinomio interpolante nei nodi <math>x_i</math>, con <math>i=0,\dots,n+1</math>. Aumento di 1 il grado del polinomio
 
interpolante
 
<math display="block">p_{n+1}(t) = p_n(t)+f[x_0,\dots,x_n,x]*(t-x_0)*(t-x_1)*\dots*(t-x_n)</math>
 
 
 
Siccome <math>f(x)=p_{n+1}(x)</math> per la formula di Newton, ricavo che
 
<math display="block">E_n(f)(x) = f(x)-p_n(x) = f[x_0,\dots,x_n,x]*(x-x_0)*(x-x_1)*\dots*(x-x_n)</math>
 
e se <math>f \in C_{n+1}(I_x)</math>, segue che <math>f[x_0,\dots,x_n,x] = \frac{f^{(n+1)}(\xi)}{(n+1)!}</math>.
 
  
 
==Convergenza del polinomio interpolante==
 
==Convergenza del polinomio interpolante==
Sia <math>f \in C^0(a,b)</math>, allora possiamo definire la norma infinito di <math>f</math> come <math>\max_{[a,b]} |f(x)|</math>. Voglio studiare
+
Sia <math>f \in C^0(a,b)</math>, allora possiamo definire la norma infinito di <math>f</math> come <math>\max_{[a,b]} |f(x)|</math>. Voglio studiare l'errore di interpolazione <math>E_n</math> per <math>n \to \infty</math>.
l'errore di interpolazione <math>E_n</math> per <math>n \to \infty</math>.
 
 
 
 
 
Introduco una matrice di interpolazione sull'intervallo <math>[a,b]</math>, cioè definisco <math>X = (x_{ij})</math> di dimensione
 
infinita che contiene i nodi di interpolazione, è una matrice triangolare inferiore, che su ogni riga ha i nodi di
 
interpolazione del polinomio che ha come grado l'indice della riga.
 
  
 +
Introduco una matrice di interpolazione sull'intervallo <math>[a,b]</math>, cioè definisco <math>X = (x_{ij})</math> di dimensione infinita che contiene i nodi di interpolazione, è una matrice triangolare inferiore, che su ogni riga ha i nodi di interpolazione del polinomio che ha come grado l'indice della riga.
  
 
Fissati <math>f,X</math>, chiamo <math>E_n(f,X) = \vert f-p_n \vert</math>.
 
Fissati <math>f,X</math>, chiamo <math>E_n(f,X) = \vert f-p_n \vert</math>.
 
  
 
Confronto <math>E_n</math> con l'errore di migliore approssimazione <math>E_n^*(f)</math>, cioè
 
Confronto <math>E_n</math> con l'errore di migliore approssimazione <math>E_n^*(f)</math>, cioè
 
<math>E_n^*(f) = \vert f-P_n^* \vert</math> dove <math>P_n^*</math> è tale che <math>\vert f-P_n^* \vert \le \vert f-Q \vert</math> per ogni <math>Q</math> polinomio di grado n.
 
<math>E_n^*(f) = \vert f-P_n^* \vert</math> dove <math>P_n^*</math> è tale che <math>\vert f-P_n^* \vert \le \vert f-Q \vert</math> per ogni <math>Q</math> polinomio di grado n.
  
 
+
<math>P_n^*</math> non passa necessariamente dai nodi. Sappiamo per il teorema di Iston-Weierstrass che <math>E_n \to 0</math> per <math>n \to \infty</math>.
<math>P_n^*</math> non passa necessariamente dai nodi. Sappiamo per il teorema di Iston-Weierstrass che <math>E_n \to 0</math> per
 
<math>n \to \infty</math>.
 
 
 
 
 
  
 
Esiste una relazione tra errore di interpolazione e errore di miglior approssimazione.
 
Esiste una relazione tra errore di interpolazione e errore di miglior approssimazione.
Riga 72: Riga 41:
 
tale intervallo. Vale il seguente risultato:
 
tale intervallo. Vale il seguente risultato:
  
{{InizioTeorema|titolo=|number=5.5|anchor=Teorema5_5}}
+
{{InizioTeorema|title=|number=5.5|anchor=Teorema5_5}}
L'errore di interpolazione
+
L'errore di interpolazione<math display="block">E_n(f,X) \le E_n^*(f)*(1+\Lambda_{n,X})</math>dove<math display="block">\Lambda = \vert \sum_{j=0}^n |L_{j,n}| \vert</math>dove <math>L_{j,n}</math> è il j-esimo polinomio di Lagrange di grado n.
<math display="block">E_n(f,X) \le E_n^*(f)*(1+\Lambda_{n,X})</math>
 
dove
 
<math display="block">\Lambda = \vert \sum_{j=0}^n |L_{j,n}| \vert</math>
 
dove <math>L_{j,n}</math> è il j-esimo polinomio di Lagrange di grado n.
 
 
(<math>\Lambda</math> viene chiamata costante di Lebesgue)
 
(<math>\Lambda</math> viene chiamata costante di Lebesgue)
 
{{FineTeorema}}
 
{{FineTeorema}}
  
 
{{InizioDimostrazione}}
 
{{InizioDimostrazione}}
Pongo <math>P_n = P_n(X,f)</math>, per ogni <math>y \in [a,b]</math>, considero
+
Pongo <math>P_n = P_n(X,f)</math>, per ogni <math>y \in [a,b]</math>, considero<math display="block">|E_y| = |f(y)-P_n(y)| = |f(y)-P_n(y)+P_n^*(y)-P_n^*(y)|</math><math display="block">\le |f(y)-P_n^*(y)|+|P_n^*(y)-P_n(y)|</math>La differenza tra il polinomio di miglior approssimazione e la funzione può essere maggiorata con <math>E_n^*</math>, quindi<math display="block">\le E_n^*(f)+|P_n^*(y)-P_n(y)|</math>''Argomento di proiezione'': <math>P_n^*(f)(y)= P_n(P_n^*(f))(y)</math>, (infatti il polinomio interpolante di un polinomio è il polinomio stesso), e sostituendo:<math display="block">\le E_n^*(f)+|P_n(P_n^*(y))-P_n(y)|</math>''Argomento di linearità'': la differenza tra polinomi interpolanti di <math>H_1</math> e <math>H_2</math> è il polinomio interpolante della differenza <math>H_1-H_2</math>, quindi<math display="block">\le E_n^*(f)+|P_n(P_n^*-f)(y)|</math>e scrivendo il polinomio interpolante in forma di Lagrange:<math display="block">= E_n^*(f)+|\sum_{j=0}^n (f-P_n^*)(x_j^n) L_{j,n}(y)|</math>con la disuguaglianza triangolare<math display="block">\le E_n^*(f)+\sum{j=0}^n |f-p_n^*(f)|(x_j^n)*|L_{j,n}|(y)</math>e maggiorando <math>(P_n^*-f)(x_j^n)</math> con <math>E_n^*(f)</math> che è il massimo sull'intervallo:<math display="block">\le E_n^*(f)+\sum{j=0}^n E_n^*(f) *|L_{j,n}|(y)</math>e portando <math>E_n</math> fuori dalla sommatoria<math display="block">\le E_n^*(f)*(1+\sum{j=0}^n |L_{j,n}|(y))</math><math display="block">\le E_n*(1+\lambda_n)</math>dove <math>\Lambda</math> è come definito sopra.
<math display="block">|E_y| = |f(y)-P_n(y)| = |f(y)-P_n(y)+P_n^*(y)-P_n^*(y)|</math><math display="block">\le |f(y)-P_n^*(y)|+|P_n^*(y)-P_n(y)|</math>
 
La differenza tra il polinomio di miglior approssimazione e la funzione può essere maggiorata con <math>E_n^*</math>, quindi
 
<math display="block">\le E_n^*(f)+|P_n^*(y)-P_n(y)|</math>
 
 
 
''Argomento di proiezione'': <math>P_n^*(f)(y)= P_n(P_n^*(f))(y)</math>, (infatti il polinomio interpolante di un polinomio è il polinomio stesso), e sostituendo:
 
<math display="block">\le E_n^*(f)+|P_n(P_n^*(y))-P_n(y)|</math>
 
 
 
''Argomento di linearità'': la differenza tra polinomi interpolanti di <math>H_1</math> e <math>H_2</math> è il polinomio interpolante della differenza <math>H_1-H_2</math>, quindi
 
<math display="block">\le E_n^*(f)+|P_n(P_n^*-f)(y)|</math>
 
e scrivendo il polinomio interpolante in forma di Lagrange:
 
<math display="block">= E_n^*(f)+|\sum_{j=0}^n (f-P_n^*)(x_j^n) L_{j,n}(y)|</math>
 
con la disuguaglianza triangolare
 
<math display="block">\le E_n^*(f)+\sum{j=0}^n |f-p_n^*(f)|(x_j^n)*|L_{j,n}|(y)</math>
 
e maggiorando <math>(P_n^*-f)(x_j^n)</math> con <math>E_n^*(f)</math> che è il massimo sull'intervallo:
 
<math display="block">\le E_n^*(f)+\sum{j=0}^n E_n^*(f) *|L_{j,n}|(y)</math>
 
e portando <math>E_n</math> fuori dalla sommatoria
 
<math display="block">\le E_n^*(f)*(1+\sum{j=0}^n |L_{j,n}|(y))</math><math display="block">\le E_n*(1+\lambda_n)</math>
 
dove <math>\Lambda</math> è come definito sopra.
 
 
{{FineDimostrazione}}
 
{{FineDimostrazione}}
  
 
==Nodi di Chebyshev==
 
==Nodi di Chebyshev==
 
Esiste una matrice <math>X^*</math> che minimizza la costante di Lebesgue <math>\Lambda_n(x)</math>, ma non ne ho la forma esplicita. Si
 
Esiste una matrice <math>X^*</math> che minimizza la costante di Lebesgue <math>\Lambda_n(x)</math>, ma non ne ho la forma esplicita. Si
considerano i nodi del polinomio di Chebyshev, che danno la migliore approssimazione di <math>X^*</math> a meno di termini di ordine inferiore.
+
considerano i nodi del polinomio di Chebyshev, che danno la migliore approssimazione di <math>X^*</math> a meno di termini di ordine inferiore.{{InizioDefinizione|title=|number=5.3|anchor=Definizione5_3}}
 
 
 
 
{{InizioDefinizione|titolo=|number=5.3|anchor=Definizione5_3}}
 
 
Chiamiamo ''polinomio di Chebyshev'' di grado <math>m</math>, <math>P_m(x)</math> il polinomio definito come
 
Chiamiamo ''polinomio di Chebyshev'' di grado <math>m</math>, <math>P_m(x)</math> il polinomio definito come
 
<math>\cos (m*\arccos x)</math>.
 
<math>\cos (m*\arccos x)</math>.
 
{{FineDefinizione}}
 
{{FineDefinizione}}
  
Pongo <math>\theta = \arccos x</math>, allora <math>P_m(\theta) = \cos (m \theta)</math>, e devo risolvere <math>\cos (m\theta)=0</math>, e questo è vero se
+
Pongo <math>\theta = \arccos x</math>, allora <math>P_m(\theta) = \cos (m \theta)</math>, e devo risolvere <math>\cos (m\theta)=0</math>, e questo è vero se<math display="block">m\theta = \pi/2+k \pi, k \in \mathbb Z</math>quindi gli zeri sono<math display="block">\theta_k = \frac{\pi}{2m}+\frac{k \pi}{m}</math>Definisco<math display="block">x_k = \cos \theta_k, \, k=1,\dots,m-1</math><math>x_k \in [-1,1]</math>, sono tutti interni all'intervallo, e hanno la proprietà che si infittiscono verso gli estremi e sono più radi al centro.
<math display="block">m\theta = \pi/2+k \pi, k \in \mathbb Z</math>
 
quindi gli zeri sono
 
<math display="block">\theta_k = \frac{\pi}{2m}+\frac{k \pi}{m}</math>
 
Definisco
 
<math display="block">x_k = \cos \theta_k, \, k=1,\dots,m-1</math><math>x_k \in [-1,1]</math>, sono tutti interni all'intervallo, e hanno la proprietà che si infittiscono verso gli estremi e sono più radi al centro.
 
 
 
 
 
  
 
<math>x \in [-1,1]</math>, considero <math>z = \alpha x+\beta</math>, impongo <math>a=-\alpha+\beta</math>, <math>b=\alpha+\beta</math>, e ricavo che <math>\alpha = (b-a)/2</math> e <math>\beta=(b+a)/2</math>,  quindi i nodi mappati su <math>(a,b)</math> sono <math>(b+a)/2+x_k (b-a)/2</math>.
 
<math>x \in [-1,1]</math>, considero <math>z = \alpha x+\beta</math>, impongo <math>a=-\alpha+\beta</math>, <math>b=\alpha+\beta</math>, e ricavo che <math>\alpha = (b-a)/2</math> e <math>\beta=(b+a)/2</math>,  quindi i nodi mappati su <math>(a,b)</math> sono <math>(b+a)/2+x_k (b-a)/2</math>.
 
 
 
In generale, per ogni scelta dei nodi di interpolazione, esiste una costante <math>c>0</math> tale che
 
In generale, per ogni scelta dei nodi di interpolazione, esiste una costante <math>c>0</math> tale che
<math>\Lambda_n(x) > 2/\pi \log (+1)-c</math>, e quindi <math>\lambda_n(x) \to \infty</math> per <math>n \to \infty</math>.
+
<math>\Lambda_n(x) > 2/\pi \log (+1)-c</math>, e quindi <math>\lambda_n(x) \to \infty</math> per <math>n \to \infty</math>.{{InizioTeorema|title=teorema di Faber|number=5.6|anchor=Teorema5_6}}
 
 
 
 
{{InizioTeorema|titolo= teorema di Faber|number=5.6|anchor=Teorema5_6}}
 
 
Data <math>X</math> matrice di interpolazione sull'intervallo <math>[a,b]</math>, esiste almeno una funzione <math>f</math> continua su <math>[a,b]</math> tale che
 
Data <math>X</math> matrice di interpolazione sull'intervallo <math>[a,b]</math>, esiste almeno una funzione <math>f</math> continua su <math>[a,b]</math> tale che
 
<math>P_n(X,f)</math> non converge uniformemente ad <math>f</math> per <math>n \to \infty</math>.
 
<math>P_n(X,f)</math> non converge uniformemente ad <math>f</math> per <math>n \to \infty</math>.
 
{{FineTeorema}}
 
{{FineTeorema}}
 
  
 
Questo significa che una matrice di interpolazione non va bene per tutte le funzioni.
 
Questo significa che una matrice di interpolazione non va bene per tutte le funzioni.
  
 
==Funzione di Runge==
 
==Funzione di Runge==
Considero la funzione di Runge:
+
Considero la funzione di Runge:<math display="block">f(x) = \frac{1}{1+x^2}</math>L'interpolazione polinomiale di questa funzione con nodi equispaziati non dà buoni risultati.
<math display="block">f(x) = \frac{1}{1+x^2}</math>
 
L'interpolazione polinomiale di questa funzione con nodi equispaziati non dà buoni risultati.
 
 
Invece con i nodi di Chebyshev si ottiene un risultato migliore.
 
Invece con i nodi di Chebyshev si ottiene un risultato migliore.
  
Riga 146: Riga 75:
 
Supponiamo che <math>\bar f(x_i)</math> siano le perturbazioni di <math>f(x_i)</math>, chiamo <math>\bar p_n(x)</math> il polinomio interpolante rispetto ai valori perturbati.
 
Supponiamo che <math>\bar f(x_i)</math> siano le perturbazioni di <math>f(x_i)</math>, chiamo <math>\bar p_n(x)</math> il polinomio interpolante rispetto ai valori perturbati.
 
Vale che
 
Vale che
<math display="block">\vert p_n(x)-\bar p_n(x) \vert = \max_{x \in [a,b]} |\sum_{i=0}^n (f(x_i)-\bar f(x_i))*L_i(x)|</math>
+
<math display="block">\vert p_n(x)-\bar p_n(x) \vert = \max_{x \in [a,b]} |\sum_{i=0}^n (f(x_i)-\bar f(x_i))*L_i(x)|</math>e per la disuguagl-ianza triangolare<math display="block">= \max \sum_i |f(x_i)-\bar f(x_i)|*|L_i(x)|</math><math display="block">\le \sum_{i=0}^n |f(x_i)-\bar f(x_i)|*\max_{x \in [a,b]} \sum_{i=0}^n |L_i(x)|</math><math display="block">= \sum_{i=0}^n |f(x_i)-\bar f(x_i)|*\Lambda(X)</math>quindi la costante di Lebesgue può essere interpretata come numero di condizionamento e amplifica la perturbazione sui dati.
e per la disuguagl-ianza triangolare
 
<math display="block">= \max \sum_i |f(x_i)-\bar f(x_i)|*|L_i(x)|</math><math display="block">\le \sum_{i=0}^n |f(x_i)-\bar f(x_i)|*\max_{x \in [a,b]} \sum_{i=0}^n |L_i(x)|</math><math display="block">= \sum_{i=0}^n |f(x_i)-\bar f(x_i)|*\Lambda(X)</math>
 
quindi la costante di Lebesgue può essere interpretata come numero di condizionamento e amplifica la perturbazione sui dati.
 
  
 
<math>\Lambda_n(x)</math> cresce all'aumentare di n, e vale il seguente risultato: se considero nodi equispaziati,
 
<math>\Lambda_n(x)</math> cresce all'aumentare di n, e vale il seguente risultato: se considero nodi equispaziati,
 
<math>\Lambda_n=\frac{2^{n+1}}{E_n \log n}</math> e si ha una crescita esponenziale.
 
<math>\Lambda_n=\frac{2^{n+1}}{E_n \log n}</math> e si ha una crescita esponenziale.
 
Invece, considerando i nodi di Cevicev, la crescita è solo logaritmica.
 
Invece, considerando i nodi di Cevicev, la crescita è solo logaritmica.

Versione attuale delle 14:48, 21 mag 2018

Errore analitico[modifica | modifica wikitesto]

Teorema 5.4

Sia il più piccolo intervallo che contiene i nodi di interpolazione, e suppongo che contenga anche il punto in cui voglio valutare l'errore. Supponiamo che . Allora esiste tale che

(analogia con la formula di Taylor, centrata però in tutti gli )

 
Dimostrazione

Se è un nodo di interpolazione, allora .

Altrimenti, supponiamo di considerare , . Introduco la funzione ausiliaria

di classe .

Osservo che:

  1. valutando in uno dei nodi di interpolazione , siccome e si ha:
    e .
  2. Valutando nel nodo si ha:
    quindi la funzione si annulla in nodi, gli e .

Per il teorema di Rolle: si annulla in punti, e si annulla in un punto .

e siccome per il teorema di Rolle, si ha

 

Rappresento usando le differenze divise. Chiamo l'errore dell'approssimazione di con . Sia il polinomio interpolante. Sia , considerato come nuovo nodo di interpolazione.

Scrivo il polinomio interpolante nei nodi , con . Aumento di 1 il grado del polinomio interpolante

Siccome per la formula di Newton, ricavo che
e se , segue che .

Convergenza del polinomio interpolante[modifica | modifica wikitesto]

Sia , allora possiamo definire la norma infinito di come . Voglio studiare l'errore di interpolazione per .

Introduco una matrice di interpolazione sull'intervallo , cioè definisco di dimensione infinita che contiene i nodi di interpolazione, è una matrice triangolare inferiore, che su ogni riga ha i nodi di interpolazione del polinomio che ha come grado l'indice della riga.

Fissati , chiamo .

Confronto con l'errore di migliore approssimazione , cioè dove è tale che per ogni polinomio di grado n.

non passa necessariamente dai nodi. Sappiamo per il teorema di Iston-Weierstrass che per .

Esiste una relazione tra errore di interpolazione e errore di miglior approssimazione.

Supponiamo di avere una funzione continua su , e una matrice di interpolazione su tale intervallo. Vale il seguente risultato:

Teorema 5.5

L'errore di interpolazione

dove
dove è il j-esimo polinomio di Lagrange di grado n. ( viene chiamata costante di Lebesgue)

 
Dimostrazione

Pongo , per ogni , considero

La differenza tra il polinomio di miglior approssimazione e la funzione può essere maggiorata con , quindi
Argomento di proiezione: , (infatti il polinomio interpolante di un polinomio è il polinomio stesso), e sostituendo:
Argomento di linearità: la differenza tra polinomi interpolanti di e è il polinomio interpolante della differenza , quindi
e scrivendo il polinomio interpolante in forma di Lagrange:
con la disuguaglianza triangolare
e maggiorando con che è il massimo sull'intervallo:
e portando fuori dalla sommatoria
dove è come definito sopra.

 

Nodi di Chebyshev[modifica | modifica wikitesto]

Esiste una matrice che minimizza la costante di Lebesgue , ma non ne ho la forma esplicita. Si

considerano i nodi del polinomio di Chebyshev, che danno la migliore approssimazione di a meno di termini di ordine inferiore.
Definizione 5.3

Chiamiamo polinomio di Chebyshev di grado , il polinomio definito come .

 

Pongo , allora , e devo risolvere , e questo è vero se

quindi gli zeri sono
Definisco
, sono tutti interni all'intervallo, e hanno la proprietà che si infittiscono verso gli estremi e sono più radi al centro.

, considero , impongo , , e ricavo che e , quindi i nodi mappati su sono . In generale, per ogni scelta dei nodi di interpolazione, esiste una costante tale che

, e quindi per .
Teorema 5.6 (teorema di Faber)

Data matrice di interpolazione sull'intervallo , esiste almeno una funzione continua su tale che non converge uniformemente ad per .

 

Questo significa che una matrice di interpolazione non va bene per tutte le funzioni.

Funzione di Runge[modifica | modifica wikitesto]

Considero la funzione di Runge:

L'interpolazione polinomiale di questa funzione con nodi equispaziati non dà buoni risultati. Invece con i nodi di Chebyshev si ottiene un risultato migliore.

Condizionamento[modifica | modifica wikitesto]

Supponiamo che siano le perturbazioni di , chiamo il polinomio interpolante rispetto ai valori perturbati. Vale che

e per la disuguagl-ianza triangolare
quindi la costante di Lebesgue può essere interpretata come numero di condizionamento e amplifica la perturbazione sui dati.

cresce all'aumentare di n, e vale il seguente risultato: se considero nodi equispaziati, e si ha una crescita esponenziale. Invece, considerando i nodi di Cevicev, la crescita è solo logaritmica.

 PrecedenteSuccessivo