Spazi di Hilbert

 
Riga 1: Riga 1:
{{Definizione|<math>X</math> spazio vettoriale su <math>\mathbb {R}</math> (risp. su <math>\mathbb {C}</math>) si dice '''spazio euclideo''' se esiste un prodotto interno <math>\langle . \rangle :X\times X\rightarrow \mathbb {R}</math> simmetrico (risp. hermitiano) che induce una norma <math>\| x\| =\sqrt{\langle x,x\rangle }</math> <math>\forall x \in X</math>.  
+
{{InizioDefinizione|title=}}
}}
+
<math>X</math> spazio vettoriale su <math>\mathbb {R}</math> (risp. su <math>\mathbb {C}</math>) si dice '''spazio euclideo''' se esiste un prodotto interno <math>\langle . \rangle :X\times X\rightarrow \mathbb {R}</math> simmetrico (risp. hermitiano) che induce una norma <math>\| x\| =\sqrt{\langle x,x\rangle }</math> <math>\forall x \in X</math>.  
 +
{{FineDefinizione}}
  
{{Esempio|
+
{{InizioEsempio|title=}}
 
*<math>\ell ^2(\mathbb {Z})</math>, con <math>\langle x,y\rangle = \sum _{i=1}^\infty {x_ iy_ i}</math>
 
*<math>\ell ^2(\mathbb {Z})</math>, con <math>\langle x,y\rangle = \sum _{i=1}^\infty {x_ iy_ i}</math>
 
*<math>C^0([a,b];\mathbb {R})</math>, con <math>\langle f,g\rangle =\int _ a^ b{fgdx}</math>;  
 
*<math>C^0([a,b];\mathbb {R})</math>, con <math>\langle f,g\rangle =\int _ a^ b{fgdx}</math>;  
 
*<math>C^0([a,b];\mathbb {C})</math>, con <math>\langle f,g\rangle =\int _ a^ b{f\overline{g}dx}</math>
 
*<math>C^0([a,b];\mathbb {C})</math>, con <math>\langle f,g\rangle =\int _ a^ b{f\overline{g}dx}</math>
}}
+
{{FineEsempio}}
  
{{Proposizione|titolo=Disuguaglianza di Cauchy-Schwarz|<dmath>\forall x,y\in X, |\langle x,y\rangle | \le \| x\| \| y\| </dmath>
+
{{InizioProposizione|title=Disuguaglianza di Cauchy-Schwarz}}
}}
+
<dmath>\forall x,y\in X, |\langle x,y\rangle | \le \| x\| \| y\| </dmath>
 +
{{FineProposizione}}
  
{{Dimostrazione|Se <math>X</math> é uno spazio vettoriale complesso, si usa il trucco solito applicato a <math>0\le \langle x+\lambda y,x+\lambda y\rangle </math>, con <math>\lambda =\rho e^{i\theta }</math>. }}
+
{{InizioDimostrazione}}
 +
Se <math>X</math> é uno spazio vettoriale complesso, si usa il trucco solito applicato a <math>0\le \langle x+\lambda y,x+\lambda y\rangle </math>, con <math>\lambda =\rho e^{i\theta }</math>.  
 +
{{FineDimostrazione}}
  
  
{{Proposizione|titolo=Identità del parallelogramma|
+
{{InizioProposizione|title=Identità del parallelogramma}}
 
<math>\forall x,y\in X</math>, <math>\left\|  \frac{x+y}{2} \right\| ^2 + \left\|  \frac{x-y}{2} \right\| ^2=\frac{1}{2}(\| x\| ^2+\| y\| ^2).</math>  
 
<math>\forall x,y\in X</math>, <math>\left\|  \frac{x+y}{2} \right\| ^2 + \left\|  \frac{x-y}{2} \right\| ^2=\frac{1}{2}(\| x\| ^2+\| y\| ^2).</math>  
 +
{{FineProposizione}}
  
}}
+
{{InizioOsservazione}}
 
 
{{Osservazione|
 
 
<math>\ell ^ p(\mathbb {Z})</math> é euclideo <math>\iff p=2</math>, infatti, se <math>p\ne 2</math> i vettori della base canonica non soddisfano l'identitá del parallelogramma.  
 
<math>\ell ^ p(\mathbb {Z})</math> é euclideo <math>\iff p=2</math>, infatti, se <math>p\ne 2</math> i vettori della base canonica non soddisfano l'identitá del parallelogramma.  
}}
+
{{FineOsservazione}}
  
{{Definizione|Uno spazio euclideo si dice '''spazio di Hilbert''' se è completo.}}
+
{{InizioDefinizione}}
 +
Uno spazio euclideo si dice '''spazio di Hilbert''' se è completo.
 +
{{FineDefinizione}}
  
{{Proposizione|<math>\ell ^2(\mathbb {Z})</math> é uno spazio di Hilbert.}}
+
{{InizioProposizione}}
 +
<math>\ell ^2(\mathbb {Z})</math> é uno spazio di Hilbert.
 +
{{FineProposizione}}
  
{{Dimostrazione|
+
{{InizioDimostrazione}}
 
Sia <math>\{ c^ n\} _{n\in \mathbb {N}}\in \ell ^2(\mathbb {Z})</math> una successione di Cauchy, cioé tale che <math>\| c^ n-c^ m\| _{\ell ^2}<\varepsilon </math> quando <math>n,m>N</math> (cioé <math>\sum _{k\in \mathbb {Z}}{|c_ k^ n-c_ k^ m|^2}<\varepsilon ^2</math>).
 
Sia <math>\{ c^ n\} _{n\in \mathbb {N}}\in \ell ^2(\mathbb {Z})</math> una successione di Cauchy, cioé tale che <math>\| c^ n-c^ m\| _{\ell ^2}<\varepsilon </math> quando <math>n,m>N</math> (cioé <math>\sum _{k\in \mathbb {Z}}{|c_ k^ n-c_ k^ m|^2}<\varepsilon ^2</math>).
 
Ora, fissato <math>k\in \mathbb {Z}</math>, la successione <math>\{ c_ k^ n\} _{n\in \mathbb {N}}\in \mathbb {R}</math> é di Cauchy, quindi ha limite <math>c_ k\in \mathbb {R}</math> <math>\forall k\in \mathbb {Z}</math>.
 
Ora, fissato <math>k\in \mathbb {Z}</math>, la successione <math>\{ c_ k^ n\} _{n\in \mathbb {N}}\in \mathbb {R}</math> é di Cauchy, quindi ha limite <math>c_ k\in \mathbb {R}</math> <math>\forall k\in \mathbb {Z}</math>.
 
<math>\forall M\in \mathbb {N}</math>, si ha <math>\sum _{|k|\le M}{|c_ k^ n-c_ k^ m|^2}<\varepsilon ^2</math>, quindi prendendo il limite per <math>m\rightarrow \infty </math> otteniamo: <dmath> \lim _{m\rightarrow \infty }{\sum _{|k|\le M}{|c_ k^ n-c_ k^ m|^2}}=\sum _{|k|\le M}{|c_ k^ n-c_ k|^2}\le \varepsilon ^2 </dmath> <math>\forall M\in \mathbb {N}</math>, dunque: <dmath> \limsup _{M\rightarrow \infty }{\sum _{|k|\le M}{|c_ k^ n-c_ k|^2}}=\sum _{k\in \mathbb {Z}}{|c_ k^ n-c_ k|^2}\le \varepsilon ^2. </dmath> Ci resta da vedere che <math>\{ c_ k\} \in \ell ^2(\mathbb {Z})</math>; ma per quanto visto: <dmath> \sum _{|k|\le M}{|c_ k|^2}\le \underbrace{\sum _{|k|\le M}{|c_ k-c_ k^ n|^2}}_{\le \varepsilon ^2}+\underbrace{\sum _{|k|\le M}{|c_ k^ n|^2}}_{<C}<C+\varepsilon ^2, </dmath> da cui la tesi.
 
<math>\forall M\in \mathbb {N}</math>, si ha <math>\sum _{|k|\le M}{|c_ k^ n-c_ k^ m|^2}<\varepsilon ^2</math>, quindi prendendo il limite per <math>m\rightarrow \infty </math> otteniamo: <dmath> \lim _{m\rightarrow \infty }{\sum _{|k|\le M}{|c_ k^ n-c_ k^ m|^2}}=\sum _{|k|\le M}{|c_ k^ n-c_ k|^2}\le \varepsilon ^2 </dmath> <math>\forall M\in \mathbb {N}</math>, dunque: <dmath> \limsup _{M\rightarrow \infty }{\sum _{|k|\le M}{|c_ k^ n-c_ k|^2}}=\sum _{k\in \mathbb {Z}}{|c_ k^ n-c_ k|^2}\le \varepsilon ^2. </dmath> Ci resta da vedere che <math>\{ c_ k\} \in \ell ^2(\mathbb {Z})</math>; ma per quanto visto: <dmath> \sum _{|k|\le M}{|c_ k|^2}\le \underbrace{\sum _{|k|\le M}{|c_ k-c_ k^ n|^2}}_{\le \varepsilon ^2}+\underbrace{\sum _{|k|\le M}{|c_ k^ n|^2}}_{<C}<C+\varepsilon ^2, </dmath> da cui la tesi.
}}
+
{{FineDimostrazione}}
  
  
{{Definizione|
+
{{InizioDefinizione}}
 
Definiamo '''cubo di Hilbert''' <math>Q=\left\{ \{ c_ k\} \in \ell ^2(\mathbb {Z}) \mid |c_ k|\le \frac{1}{k}\right\} </math>.  
 
Definiamo '''cubo di Hilbert''' <math>Q=\left\{ \{ c_ k\} \in \ell ^2(\mathbb {Z}) \mid |c_ k|\le \frac{1}{k}\right\} </math>.  
}}
+
{{FineDefinizione}}
  
{{Proposizione|
+
{{InizioProposizione}}
Data una successione <math>\{ c^ n\} _{n\in \mathbb {N}}\in Q</math>, esiste una sottosuccessione <math>\{ c^{n_ m}\} \subseteq \{ c^ n\} </math> che converge a un <math>c\in \ell ^2(\mathbb {Z})</math>.}}
+
Data una successione <math>\{ c^ n\} _{n\in \mathbb {N}}\in Q</math>, esiste una sottosuccessione <math>\{ c^{n_ m}\} \subseteq \{ c^ n\} </math> che converge a un <math>c\in \ell ^2(\mathbb {Z})</math>.
 +
{{FineProposizione}}
  
{{Dimostrazione|
+
{{InizioDimostrazione}}
 
Si procede con un argomento diagonale: visto che <math>|c_1^ n|<1</math>, allora <math>\exists \{ c^{n_1}\} \rightarrow c_1\in \mathbb {R}</math> per Bolzano-Weierstrass; ma <math>|c_2^ n|<\frac{1}{2}</math>, dunque <math>\exists \{ c^{n_1}\} \supseteq \{ c^{n_2}\} \rightarrow c_2\in \mathbb {R}</math> e cosí via.
 
Si procede con un argomento diagonale: visto che <math>|c_1^ n|<1</math>, allora <math>\exists \{ c^{n_1}\} \rightarrow c_1\in \mathbb {R}</math> per Bolzano-Weierstrass; ma <math>|c_2^ n|<\frac{1}{2}</math>, dunque <math>\exists \{ c^{n_1}\} \supseteq \{ c^{n_2}\} \rightarrow c_2\in \mathbb {R}</math> e cosí via.
 
Sia <math>\{ n^*\} </math> la successione tale che <math>n^*(k)=n_ k(k)</math>, dove <math>n_ k</math> é la successione estratta al passaggio <math>k</math>-esimo; allora <math>c^{n^*}\rightarrow c=\{ c_ k\} </math>.
 
Sia <math>\{ n^*\} </math> la successione tale che <math>n^*(k)=n_ k(k)</math>, dove <math>n_ k</math> é la successione estratta al passaggio <math>k</math>-esimo; allora <math>c^{n^*}\rightarrow c=\{ c_ k\} </math>.
Se vediamo che <math>c\in \ell ^2(\mathbb {Z})</math>, avremmo la tesi. <dmath> \sum _{h=1}^\infty {|c_ h^{n^*(k)}-c_ h|^2} = \underbrace{\sum _{h=1}^ M{|c_ h^{n^*(k)}-c_ h|^2}}_{<\varepsilon \text { per } k \text { grande}} + \underbrace{\sum _{h=M+1}^\infty {|c_ h^{n^*(k)}-c_ h|^2}}_{\le \sum _{M+1}^\infty {\frac{4}{h^2}}<\varepsilon }, </dmath> cioé la tesi.}}
+
Se vediamo che <math>c\in \ell ^2(\mathbb {Z})</math>, avremmo la tesi. <dmath> \sum _{h=1}^\infty {|c_ h^{n^*(k)}-c_ h|^2} = \underbrace{\sum _{h=1}^ M{|c_ h^{n^*(k)}-c_ h|^2}}_{<\varepsilon \text { per } k \text { grande}} + \underbrace{\sum _{h=M+1}^\infty {|c_ h^{n^*(k)}-c_ h|^2}}_{\le \sum _{M+1}^\infty {\frac{4}{h^2}}<\varepsilon }, </dmath> cioé la tesi.
 +
{{FineDimostrazione}}
  
  
 
Allo stesso modo si dimostra:
 
Allo stesso modo si dimostra:
  
{{Teorema|titolo=di compattezza relativa|
+
{{InizioTeorema|title=di compattezza relativa}}
 
Sia <math>\{ c^ j\} \in \ell ^2(\mathbb {Z})</math> tale che <math>c^ j_ n \le a_ n</math> <math>\forall j</math>, con <math>\| a\| _{\mathcal{L}^2}<+\infty </math>. Allora <math>\exists \{ c^{j^*}\} \subseteq \{ c^ j\} </math> che converge a un elemento <math>c\in \ell ^2(\mathbb {Z})</math>.  
 
Sia <math>\{ c^ j\} \in \ell ^2(\mathbb {Z})</math> tale che <math>c^ j_ n \le a_ n</math> <math>\forall j</math>, con <math>\| a\| _{\mathcal{L}^2}<+\infty </math>. Allora <math>\exists \{ c^{j^*}\} \subseteq \{ c^ j\} </math> che converge a un elemento <math>c\in \ell ^2(\mathbb {Z})</math>.  
}}
+
{{FineTeorema}}
  
{{Definizione|
+
{{InizioDefinizione}}
 
Una successione <math>\{ e_ n\} </math> di vettori indipendenti di uno spazio di Hilbert <math>H</math> si dice '''base hilbertiana''' se <math>\forall x\in H</math> <math>\exists \varepsilon >0</math> e <math>\exists \sum _{n=1}^ N{c_ ne_ n}</math> tale che: <dmath> \left\|  \sum _{n=1}^ N{c_ ne_ n}-x \right\| <\varepsilon . </dmath>  
 
Una successione <math>\{ e_ n\} </math> di vettori indipendenti di uno spazio di Hilbert <math>H</math> si dice '''base hilbertiana''' se <math>\forall x\in H</math> <math>\exists \varepsilon >0</math> e <math>\exists \sum _{n=1}^ N{c_ ne_ n}</math> tale che: <dmath> \left\|  \sum _{n=1}^ N{c_ ne_ n}-x \right\| <\varepsilon . </dmath>  
 +
{{FineDefinizione}}
  
}}
+
{{InizioOsservazione}}
 
+
<math>\{ e_ n=(0,\ldots ,0,1,0,\ldots )\} \in \ell ^2(\mathbb {Z})</math> é una base hilbertiana, detta base canonica.
{{Osservazione|
+
{{FineOsservazione}}
 
 
<math>\{ e_ n=(0,\ldots ,0,1,0,\ldots )\} \in \ell ^2(\mathbb {Z})</math> é una base hilbertiana, detta base canonica.}}
 
  
 
Nel seguito sia <math>X</math> un generico spazio euclideo.
 
Nel seguito sia <math>X</math> un generico spazio euclideo.
  
{{Definizione|
+
{{InizioDefinizione}}
<math>B=\{ x_\alpha \} </math> si dice '''sistema completo''' per <math>X</math> se la chiusura delle combinazioni lineari di elementi di <math>B</math> é tutto <math>X</math>.}}
+
<math>B=\{ x_\alpha \} </math> si dice '''sistema completo''' per <math>X</math> se la chiusura delle combinazioni lineari di elementi di <math>B</math> é tutto <math>X</math>.
 +
{{FineDefinizione}}
  
{{Esempio|Se <math>X=\{ f:(-\pi ,\pi )\rightarrow \mathbb {R}\  \text {continue}\} </math>, l'insieme <math>\{ 1,\sin (nx),\cos (mx)\} _{n,m\in \mathbb {Z}}</math> é un sistema completo per il teorema di approssimazione di Weierstrass.}}
+
{{InizioEsempio}}
 +
Se <math>X=\{ f:(-\pi ,\pi )\rightarrow \mathbb {R}\  \text {continue}\} </math>, l'insieme <math>\{ 1,\sin (nx),\cos (mx)\} _{n,m\in \mathbb {Z}}</math> é un sistema completo per il teorema di approssimazione di Weierstrass.
 +
{{FineEsempio}}
  
{{Definizione|
+
{{InizioDefinizione}}
 
<math>\{ x_\alpha \} </math> sistema completo, <math>\langle x_\alpha ,x_\beta \rangle =0</math> <math>\forall \alpha \ne \beta </math>. Allora <math>\{ x_\alpha \} </math> si dice '''base ortogonale'''.
 
<math>\{ x_\alpha \} </math> sistema completo, <math>\langle x_\alpha ,x_\beta \rangle =0</math> <math>\forall \alpha \ne \beta </math>. Allora <math>\{ x_\alpha \} </math> si dice '''base ortogonale'''.
 
Se vale anche che <math>\langle x_\alpha ,x_\beta \rangle = \delta _{\alpha \beta }</math>, allora il sistema si dice '''base ortonormale'''.  
 
Se vale anche che <math>\langle x_\alpha ,x_\beta \rangle = \delta _{\alpha \beta }</math>, allora il sistema si dice '''base ortonormale'''.  
}}
+
{{FineDefinizione}}
  
{{Definizione|
+
{{InizioDefinizione}}
 
<math>X</math> si dice '''separabile''' se esiste un sottoinsieme denso al piú numerabile.  
 
<math>X</math> si dice '''separabile''' se esiste un sottoinsieme denso al piú numerabile.  
}}
+
{{FineDefinizione}}
  
{{Esempio|
+
{{InizioEsempio}}
 
<math>\ell ^2(\mathbb {Z})</math> é separabile, in quanto il sottoinsieme costituito dalle successioni finite di razionali é denso e numerabile.  
 
<math>\ell ^2(\mathbb {Z})</math> é separabile, in quanto il sottoinsieme costituito dalle successioni finite di razionali é denso e numerabile.  
}}
+
{{FineEsempio}}
  
{{Teorema|
+
{{InizioTeorema}}
 
<math>X</math> separabile, <math>\{ x_\alpha \} </math> ortonormale. Allora <math>\{ x_\alpha \} </math> é al piú numerabile.  
 
<math>X</math> separabile, <math>\{ x_\alpha \} </math> ortonormale. Allora <math>\{ x_\alpha \} </math> é al piú numerabile.  
}}
+
{{FineTeorema}}
  
{{Dimostrazione|
+
{{InizioDimostrazione}}
Si ha che <math>\| x_\alpha -x_\beta \| =\sqrt{\langle x_\alpha -x_\beta ,x_\alpha -x_\beta \rangle }=\sqrt{2}</math> <math>\forall \alpha \ne \beta </math>, dunque <math>B\left(x_\alpha ,\frac{1}{2}\right)\cap B\left(x_\beta ,\frac{1}{2}\right)=\emptyset </math> <math>\forall \alpha \ne \beta </math>. Sia <math>\{ y_ k\} _{k\in \mathbb {N}}</math> il sottoinsieme denso numerabile; in ogni palla c'é un elemento <math>y_ k</math> per densitá, dunque le palle distinte sono in numero al piú numerabile. Segue che anche gli <math>x_\alpha </math> sono al piú numerabili.}}
+
Si ha che <math>\| x_\alpha -x_\beta \| =\sqrt{\langle x_\alpha -x_\beta ,x_\alpha -x_\beta \rangle }=\sqrt{2}</math> <math>\forall \alpha \ne \beta </math>, dunque <math>B\left(x_\alpha ,\frac{1}{2}\right)\cap B\left(x_\beta ,\frac{1}{2}\right)=\emptyset </math> <math>\forall \alpha \ne \beta </math>. Sia <math>\{ y_ k\} _{k\in \mathbb {N}}</math> il sottoinsieme denso numerabile; in ogni palla c'é un elemento <math>y_ k</math> per densitá, dunque le palle distinte sono in numero al piú numerabile. Segue che anche gli <math>x_\alpha </math> sono al piú numerabili.
 +
{{FineDimostrazione}}
  
{{Teorema|titolo=Ortonormalizzazione di Gram-Schmidt|
+
{{InizioTeorema|title=Ortonormalizzazione di Gram-Schmidt}}
 
<math>\{ f_ j\} _{j\in \mathbb {N}}\subseteq X</math> linearmente indipendenti. Allora <math>\exists \{ \varphi _ j\} _{j\in \mathbb {N}}</math> ortonormale con <math>\mbox{Span}(\varphi _1,\ldots ,\varphi _ n)=\mbox{Span}(f_1,\ldots ,f_ n)</math> <math>\forall n \in \mathbb {N}</math>.
 
<math>\{ f_ j\} _{j\in \mathbb {N}}\subseteq X</math> linearmente indipendenti. Allora <math>\exists \{ \varphi _ j\} _{j\in \mathbb {N}}</math> ortonormale con <math>\mbox{Span}(\varphi _1,\ldots ,\varphi _ n)=\mbox{Span}(f_1,\ldots ,f_ n)</math> <math>\forall n \in \mathbb {N}</math>.
}}
+
{{FineTeorema}}
  
{{Corollario|
+
{{InizioCorollario}}
 
<math>X</math> separabile <math>\Rightarrow \exists </math> una base ortonormale numerabile.  
 
<math>X</math> separabile <math>\Rightarrow \exists </math> una base ortonormale numerabile.  
}}
+
{{FineCorollario}}
  
 
Nel seguito <math>X</math> sará sempre separabile.
 
Nel seguito <math>X</math> sará sempre separabile.
  
{{Teorema|
+
{{InizioTeorema}}
 
<math>\{ \varphi _ n\} _{n\in \mathbb {N}}\subseteq X</math> ortonormale (non necessariamente base), <math>f\in X</math>. Allora: #<math>\min _{\alpha \in \mathbb {R}^ n}{\left\|  f-\sum _{j=1}^ n{\alpha _ j \varphi _ j} \right\| }=\left\|  f-\sum _{j=1}^ n{c_ j\varphi _ j} \right\| </math>, dove <math>c_ j=\langle f,\varphi _ j\rangle </math> sono i '''coefficienti di Fourier'''.
 
<math>\{ \varphi _ n\} _{n\in \mathbb {N}}\subseteq X</math> ortonormale (non necessariamente base), <math>f\in X</math>. Allora: #<math>\min _{\alpha \in \mathbb {R}^ n}{\left\|  f-\sum _{j=1}^ n{\alpha _ j \varphi _ j} \right\| }=\left\|  f-\sum _{j=1}^ n{c_ j\varphi _ j} \right\| </math>, dove <math>c_ j=\langle f,\varphi _ j\rangle </math> sono i '''coefficienti di Fourier'''.
 
#<math>\min _{\alpha \in \mathbb {R}^ n}{\left\|  f-\sum _{j=1}^ n{\alpha _ j \varphi _ j} \right\| ^2}=\| f\| ^2-\sum _{j=1}^ n{c_ j^2}</math>.
 
#<math>\min _{\alpha \in \mathbb {R}^ n}{\left\|  f-\sum _{j=1}^ n{\alpha _ j \varphi _ j} \right\| ^2}=\| f\| ^2-\sum _{j=1}^ n{c_ j^2}</math>.
}}
+
{{FineTeorema}}
  
{{Dimostrazione|
+
{{InizioDimostrazione}}
Si calcola: <dmath> \begin{align}  \left\|  f-\sum _{j=1}^ n{\alpha _ j \varphi _ j} \right\| ^2 & =\langle f-\sum _{j=1}^ n{\alpha _ j \varphi _ j},f-\sum _{j=1}^ n{\alpha _ j \varphi _ j}\rangle =\langle f,f\rangle - 2\sum _{j=1}^ n{\alpha _ j \langle f,\varphi _ j \rangle }+\sum _{j,k=1}^ n{\alpha _ j\alpha _ k\langle \varphi _ j,\varphi _ k \rangle }=\\ & =\| f\| ^2-2\sum _{j=1}^ n{\alpha _ j c_ j}+\sum _{j=1}^ n{\alpha _ j^2}=\| f\| ^2 -\sum _{j=1}^ n{c_ j^2}+\sum _{j=1}^ n{c_ j^2} -2\sum _{j=1}^ n{\alpha _ j c_ j}+\sum _{j=1}^ n{\alpha _ j^2}=\\ & =\| f\| ^2-\sum _{j=1}^ n{c_ j^2}+\sum _{j=1}^ n{(c_ j-\alpha _ j)^2} \end{align}</dmath> ed evidentemente il minimo si raggiunge con <math>\alpha _ j=c_ j</math> e il minimo é quello voluto. }}
+
Si calcola: <dmath> \begin{align}  \left\|  f-\sum _{j=1}^ n{\alpha _ j \varphi _ j} \right\| ^2 & =\langle f-\sum _{j=1}^ n{\alpha _ j \varphi _ j},f-\sum _{j=1}^ n{\alpha _ j \varphi _ j}\rangle =\langle f,f\rangle - 2\sum _{j=1}^ n{\alpha _ j \langle f,\varphi _ j \rangle }+\sum _{j,k=1}^ n{\alpha _ j\alpha _ k\langle \varphi _ j,\varphi _ k \rangle }=\\ & =\| f\| ^2-2\sum _{j=1}^ n{\alpha _ j c_ j}+\sum _{j=1}^ n{\alpha _ j^2}=\| f\| ^2 -\sum _{j=1}^ n{c_ j^2}+\sum _{j=1}^ n{c_ j^2} -2\sum _{j=1}^ n{\alpha _ j c_ j}+\sum _{j=1}^ n{\alpha _ j^2}=\\ & =\| f\| ^2-\sum _{j=1}^ n{c_ j^2}+\sum _{j=1}^ n{(c_ j-\alpha _ j)^2} \end{align}</dmath> ed evidentemente il minimo si raggiunge con <math>\alpha _ j=c_ j</math> e il minimo é quello voluto.
 +
{{FineDimostrazione}}
  
  
{{Osservazione|
+
{{InizioOsservazione}}
 
Dunque, passando il limite, si ottiene: <dmath> \lim _{n\rightarrow \infty }{\sum _{j=1}^ n{c_ j^2}}\le \| f\| ^2, \quad \text {ovvero} \quad \sum _{j=1}^\infty {c_ j^2}\le \| f\| ^2, </dmath> che non é altro che la disuguaglianza di Bessel. Ci chiediamo se vale anche l'uguaglianza, cioé l'identità di Parseval.
 
Dunque, passando il limite, si ottiene: <dmath> \lim _{n\rightarrow \infty }{\sum _{j=1}^ n{c_ j^2}}\le \| f\| ^2, \quad \text {ovvero} \quad \sum _{j=1}^\infty {c_ j^2}\le \| f\| ^2, </dmath> che non é altro che la disuguaglianza di Bessel. Ci chiediamo se vale anche l'uguaglianza, cioé l'identità di Parseval.
}}
+
{{FineOsservazione}}
  
{{Definizione|
+
{{InizioDefinizione}}
 
Un sistema ortonormale <math>\{ \varphi _ n\} </math> si dice '''chiuso''' se <math>\forall f\in X</math> vale l'identitá di Parseval, cioé: <dmath> \sum _{j=1}^\infty {c_ j^2}= \| f\| ^2. </dmath>  
 
Un sistema ortonormale <math>\{ \varphi _ n\} </math> si dice '''chiuso''' se <math>\forall f\in X</math> vale l'identitá di Parseval, cioé: <dmath> \sum _{j=1}^\infty {c_ j^2}= \| f\| ^2. </dmath>  
}}
+
{{FineDefinizione}}
  
{{Teorema|
+
{{InizioTeorema}}
 
<math>\{ \varphi _ n\} </math> é chiuso <math>\iff </math> ogni <math>f\in X</math> puó essere scritto tramite la sua serie di Fourier, cioé: <dmath> f=\sum _{j=1}^\infty {c_ j \varphi _ j}. </dmath>  
 
<math>\{ \varphi _ n\} </math> é chiuso <math>\iff </math> ogni <math>f\in X</math> puó essere scritto tramite la sua serie di Fourier, cioé: <dmath> f=\sum _{j=1}^\infty {c_ j \varphi _ j}. </dmath>  
}}
+
{{FineTeorema}}
  
{{Dimostrazione|
+
{{InizioDimostrazione}}
Deriva dalla relazione <math>\| f-S_ n(f)\| ^2=\| f\| ^2-\sum _{j=1}^ n{c_ j^2}</math>, dove <math>S_ n(f)</math> é la serie di Fourier troncata. }}
+
Deriva dalla relazione <math>\| f-S_ n(f)\| ^2=\| f\| ^2-\sum _{j=1}^ n{c_ j^2}</math>, dove <math>S_ n(f)</math> é la serie di Fourier troncata.
 +
{{FineDimostrazione}}
  
  
{{Osservazione|
+
{{InizioOsservazione}}
 
In uno spazio euclideo, scrivere <math>f=\sum _{j=1}^\infty {f_ j}</math> deve essere inteso come: <dmath> \left\|  f-\sum _{j=1}^ n{f_ j} \right\| _ X \rightarrow 0 </dmath> quando <math>n \rightarrow \infty </math>.  
 
In uno spazio euclideo, scrivere <math>f=\sum _{j=1}^\infty {f_ j}</math> deve essere inteso come: <dmath> \left\|  f-\sum _{j=1}^ n{f_ j} \right\| _ X \rightarrow 0 </dmath> quando <math>n \rightarrow \infty </math>.  
 +
{{FineOsservazione}}
  
}}
+
{{InizioEsempio}}
 
 
{{Esempio|
 
 
Se vediamo che <math>\{ e^{ikx}\} _{k\in \mathbb {Z}}</math> é chiuso, allora avremmo che: <dmath> \frac{1}{2\pi }\int _{-\pi }^\pi {|f|^2}=\sum _{k\in \mathbb {Z}}{c_ k^2}, </dmath> o equivalentemente: <dmath> \frac{1}{2\pi }\int _{-\pi }^\pi {|f|^2}=\frac{a_0^2}{4}+\frac{1}{2}\sum _{k=1}^\infty {(a_ k^2+b_ k^2)}. </dmath>
 
Se vediamo che <math>\{ e^{ikx}\} _{k\in \mathbb {Z}}</math> é chiuso, allora avremmo che: <dmath> \frac{1}{2\pi }\int _{-\pi }^\pi {|f|^2}=\sum _{k\in \mathbb {Z}}{c_ k^2}, </dmath> o equivalentemente: <dmath> \frac{1}{2\pi }\int _{-\pi }^\pi {|f|^2}=\frac{a_0^2}{4}+\frac{1}{2}\sum _{k=1}^\infty {(a_ k^2+b_ k^2)}. </dmath>
 +
{{FineEsempio}}
  
}}
+
{{InizioOsservazione}}
 
 
{{Osservazione|
 
 
Supponiamo di aver dimostrato che il sistema <math>\{ 1,\sin (nx),\cos (mx)\} </math> é chiuso; sia <math>f(x)=x</math> periodicizzata. Con un semplice conto otteniamo che la serie di Fourier di <math>f(x)</math> é: <dmath> x=\sum _{n=1}^\infty {\frac{2}{n}(-1)^{n+1}\sin (nx)}, </dmath> quindi applicando la chiusura del sistema otteniamo: <dmath> \frac{1}{2}\sum _{n=1}^\infty {\frac{4}{n^2}}=\frac{1}{2\pi }\int _{-\pi }^\pi {x^2 dx}, </dmath> cioé: <dmath> \sum _{n=1}^\infty {\frac{1}{n^2}}=\frac{\pi ^2}{6}. </dmath>
 
Supponiamo di aver dimostrato che il sistema <math>\{ 1,\sin (nx),\cos (mx)\} </math> é chiuso; sia <math>f(x)=x</math> periodicizzata. Con un semplice conto otteniamo che la serie di Fourier di <math>f(x)</math> é: <dmath> x=\sum _{n=1}^\infty {\frac{2}{n}(-1)^{n+1}\sin (nx)}, </dmath> quindi applicando la chiusura del sistema otteniamo: <dmath> \frac{1}{2}\sum _{n=1}^\infty {\frac{4}{n^2}}=\frac{1}{2\pi }\int _{-\pi }^\pi {x^2 dx}, </dmath> cioé: <dmath> \sum _{n=1}^\infty {\frac{1}{n^2}}=\frac{\pi ^2}{6}. </dmath>
 +
{{FineOsservazione}}
  
}}
+
{{InizioOsservazione}}
 
 
{{Osservazione|
 
 
Tramite la formula di polarizzazione, si puó riscrivere l'identitá di Parseval: <dmath> \langle f,g\rangle = \sum _{k=1}^\infty {\langle f,\varphi _ k\rangle \langle g,\varphi _ k \rangle }. </dmath>  
 
Tramite la formula di polarizzazione, si puó riscrivere l'identitá di Parseval: <dmath> \langle f,g\rangle = \sum _{k=1}^\infty {\langle f,\varphi _ k\rangle \langle g,\varphi _ k \rangle }. </dmath>  
 +
{{FineOsservazione}}
  
}}
+
{{InizioTeorema}}
 
 
{{Teorema|
 
 
<math>X</math> é di Hilbert <math>\iff </math> ogni sistema ortonormale é chiuso.  
 
<math>X</math> é di Hilbert <math>\iff </math> ogni sistema ortonormale é chiuso.  
 
+
{{FineTeorema}}
}}
 
  
 
Consideriamo il sottospazio proprio di <math>\ell ^2</math>:
 
Consideriamo il sottospazio proprio di <math>\ell ^2</math>:
Riga 169: Riga 178:
 
In generale:
 
In generale:
  
{{Definizione|
+
{{InizioDefinizione}}
 
Definiamo: <dmath> h^ n=\left\{  \{ c_ k\} \in \ell ^2 \  \biggl | \  \sum _{k=1}^\infty {k^{2n}c_ k^2}<+\infty \right\}  </dmath> con la norma: <dmath> \| c\| _{h^ n}=\left( \sum _{k=1}^\infty {(c_ k^2+k^2c_ k^2+\ldots + k^{2n}c_ k^2)} \right)^{\frac{1}{2}}. </dmath> Inoltre si definisce: <dmath> \mathcal{H}^ n(-\pi ,\pi )=\{ f\in \mathcal{L}^2(-\pi ,\pi ) \mid \{ c_ k\} \in h^ n\} . </dmath>
 
Definiamo: <dmath> h^ n=\left\{  \{ c_ k\} \in \ell ^2 \  \biggl | \  \sum _{k=1}^\infty {k^{2n}c_ k^2}<+\infty \right\}  </dmath> con la norma: <dmath> \| c\| _{h^ n}=\left( \sum _{k=1}^\infty {(c_ k^2+k^2c_ k^2+\ldots + k^{2n}c_ k^2)} \right)^{\frac{1}{2}}. </dmath> Inoltre si definisce: <dmath> \mathcal{H}^ n(-\pi ,\pi )=\{ f\in \mathcal{L}^2(-\pi ,\pi ) \mid \{ c_ k\} \in h^ n\} . </dmath>
 
+
{{FineDefinizione}}
}}
 
  
 
Quindi, se ad esempio <math>f\in \mathcal{H}^2(-\pi ,\pi )</math>, si ha che esistono <math>g,h\in \mathcal{L}^1(-\pi ,\pi )</math> tali che <math>f_ n \rightarrow f</math>, <math>f_ n' \rightarrow g</math>, <math>f_ n'' \rightarrow h</math> in norma <math>\mathcal{L}^2</math> quando <math>n\rightarrow \infty </math>.
 
Quindi, se ad esempio <math>f\in \mathcal{H}^2(-\pi ,\pi )</math>, si ha che esistono <math>g,h\in \mathcal{L}^1(-\pi ,\pi )</math> tali che <math>f_ n \rightarrow f</math>, <math>f_ n' \rightarrow g</math>, <math>f_ n'' \rightarrow h</math> in norma <math>\mathcal{L}^2</math> quando <math>n\rightarrow \infty </math>.
 
Deduciamo quindi che <math>h^{n+1}</math> é relativamente compatto in <math>h^ n</math>.
 
Deduciamo quindi che <math>h^{n+1}</math> é relativamente compatto in <math>h^ n</math>.
  
{{Osservazione|
+
{{InizioOsservazione}}
 
In generale, si puó definire lo spazio: <dmath> \mathcal{H}^ s(-\pi ,\pi )=\left\{  f\in \mathcal{L}^2(-\pi ,\pi ) \  \biggl | \  \sum _{k=1}^\infty {k^{2s}c_ k^2}<+\infty \right\}  </dmath> per ogni <math>s\in \mathbb {R}</math> e, presa <math>f\in \mathcal{H}^ s(-\pi ,\pi )</math> con serie di Fourier <math>f(x)=\sum _{k=1}^\infty {c_ k e^{ikx}}</math>, associargli la sua derivata debole <math>s</math>-esima definita come: <dmath> \frac{d^ s}{dx^ s}f(x)=\sum _{k=1}^\infty {k^ sc_ k e^{ikx}}, </dmath> che risulta convergente in <math>\mathcal{L}^2</math> per definizione di <math>\mathcal{H}^ s</math>.
 
In generale, si puó definire lo spazio: <dmath> \mathcal{H}^ s(-\pi ,\pi )=\left\{  f\in \mathcal{L}^2(-\pi ,\pi ) \  \biggl | \  \sum _{k=1}^\infty {k^{2s}c_ k^2}<+\infty \right\}  </dmath> per ogni <math>s\in \mathbb {R}</math> e, presa <math>f\in \mathcal{H}^ s(-\pi ,\pi )</math> con serie di Fourier <math>f(x)=\sum _{k=1}^\infty {c_ k e^{ikx}}</math>, associargli la sua derivata debole <math>s</math>-esima definita come: <dmath> \frac{d^ s}{dx^ s}f(x)=\sum _{k=1}^\infty {k^ sc_ k e^{ikx}}, </dmath> che risulta convergente in <math>\mathcal{L}^2</math> per definizione di <math>\mathcal{H}^ s</math>.
 
+
{{FineOsservazione}}
}}
 
  
 
Richiamiamo adesso il teorema di rappresentazione di Riesz: in <math>\mathbb {R}^ d</math>, esso assicura che, data <math>A\in \mathcal{M}(d,\mathbb {R})</math>, esiste un unico vettore <math>y\in \mathbb {R}^ d</math> tale che <math>Ax=\langle x,y\rangle </math> <math>\forall x\in \mathbb {R}^ d</math>. Vediamo che in <math>\ell ^ p</math> (e piú precisamente in <math>\ell ^2</math>) vale la stessa cosa.
 
Richiamiamo adesso il teorema di rappresentazione di Riesz: in <math>\mathbb {R}^ d</math>, esso assicura che, data <math>A\in \mathcal{M}(d,\mathbb {R})</math>, esiste un unico vettore <math>y\in \mathbb {R}^ d</math> tale che <math>Ax=\langle x,y\rangle </math> <math>\forall x\in \mathbb {R}^ d</math>. Vediamo che in <math>\ell ^ p</math> (e piú precisamente in <math>\ell ^2</math>) vale la stessa cosa.
  
{{Proposizione|
+
{{InizioProposizione}}
 
<math>F\in \mathcal {L}(\ell ^ p,\mathbb {R})</math> lineare e continua, <math>1<p<\infty </math>. Allora esiste <math>y\in (\ell ^ p)^*=\ell ^ q</math>, con <math>\frac{1}{p}+\frac{1}{q}=1</math>, tale che <math>F(x)=\sum _{i=1}^\infty {x_ i y_ i}</math> <math>\forall x\in \ell ^ p</math> (e dunque <math>F(x)=\langle x,y\rangle </math> se <math>p=2</math>).  
 
<math>F\in \mathcal {L}(\ell ^ p,\mathbb {R})</math> lineare e continua, <math>1<p<\infty </math>. Allora esiste <math>y\in (\ell ^ p)^*=\ell ^ q</math>, con <math>\frac{1}{p}+\frac{1}{q}=1</math>, tale che <math>F(x)=\sum _{i=1}^\infty {x_ i y_ i}</math> <math>\forall x\in \ell ^ p</math> (e dunque <math>F(x)=\langle x,y\rangle </math> se <math>p=2</math>).  
 +
{{FineProposizione}}
  
}}
+
{{InizioDimostrazione}}
 
+
Se <math>x=\sum _{i=1}^\infty {x_ ie_ i}</math>, allora <math>F(x)=\sum _{i=1}^\infty {x_ i F(e_ i)}</math>; denotando <math>x^ N=\sum _{i=1}^ N{x_ i e_ i}</math> e <math>y_ i=F(e_ i)</math>, si ha: <dmath> F(x^ N)=\sum _{i=1}^ N{x_ i y_ i}, </dmath> quindi ci rimane solo da passare al limite per <math>N\rightarrow \infty </math> (cioé vedere che <math>y\in \ell ^ q</math>, poiché per Holder in questo caso si avrebbe <math>\sum _{i=1}^\infty {x_ i y_ i}<+\infty </math>).
{{Dimostrazione|Se <math>x=\sum _{i=1}^\infty {x_ ie_ i}</math>, allora <math>F(x)=\sum _{i=1}^\infty {x_ i F(e_ i)}</math>; denotando <math>x^ N=\sum _{i=1}^ N{x_ i e_ i}</math> e <math>y_ i=F(e_ i)</math>, si ha: <dmath> F(x^ N)=\sum _{i=1}^ N{x_ i y_ i}, </dmath> quindi ci rimane solo da passare al limite per <math>N\rightarrow \infty </math> (cioé vedere che <math>y\in \ell ^ q</math>, poiché per Holder in questo caso si avrebbe <math>\sum _{i=1}^\infty {x_ i y_ i}<+\infty </math>).
 
 
Poniamo: <dmath> z_ i=\begin{cases}  0 & \text {se } y_ i=0\\ |y_ i|^{q-2} y_ i & \text {se } y_ i\ne 0 \end{cases} </dmath> osserviamo anche che <math>|z_ i|^ p=\left| |y_ i|^{q-2} y_ i \right|^ p=|y_ i|^{(q-1)p}=|y_ i|^ q</math> e <math>|z_ i|^{p-1}=|y_ i|</math>.
 
Poniamo: <dmath> z_ i=\begin{cases}  0 & \text {se } y_ i=0\\ |y_ i|^{q-2} y_ i & \text {se } y_ i\ne 0 \end{cases} </dmath> osserviamo anche che <math>|z_ i|^ p=\left| |y_ i|^{q-2} y_ i \right|^ p=|y_ i|^{(q-1)p}=|y_ i|^ q</math> e <math>|z_ i|^{p-1}=|y_ i|</math>.
 
Visto che <math>F</math> é continua, allora <math>\| F\| =\sup _{x\ne 0}{\frac{|F(x)|}{\| x\| _{\ell ^ p}}}<+\infty </math>; inoltre si ha: <dmath> \left| F\left( \sum _{i=1}^ N{z_ i e_ i} \right) \right|\le \| F\|  \| z^ N\| , </dmath> dove <math>z^ N=\sum _{i=1}^ N{z_ i e_ i}</math>. Per linearitá: <dmath> \left| F\left( \sum _{i=1}^ N{z_ i e_ i} \right) \right| = \left| \sum _{i=1}^ N{z_ i y_ i} \right|=\sum _{i=1}^ N{|y_ i|^ q}=\sum _{i=1}^ N{|z_ i|^ p}=\| z^ N\| _{\ell ^ p}^ p \le \| F\|  \| z^ N\| _{\ell ^ p}, </dmath> quindi <math>\| z^ N\| _{\ell ^ p}^{p-1}\le \| F\| </math> e passando al limite <math>\| y\| _{\ell ^ q}=\| z\| _{\ell ^ p}^{p-1} \le \| F\| </math>.
 
Visto che <math>F</math> é continua, allora <math>\| F\| =\sup _{x\ne 0}{\frac{|F(x)|}{\| x\| _{\ell ^ p}}}<+\infty </math>; inoltre si ha: <dmath> \left| F\left( \sum _{i=1}^ N{z_ i e_ i} \right) \right|\le \| F\|  \| z^ N\| , </dmath> dove <math>z^ N=\sum _{i=1}^ N{z_ i e_ i}</math>. Per linearitá: <dmath> \left| F\left( \sum _{i=1}^ N{z_ i e_ i} \right) \right| = \left| \sum _{i=1}^ N{z_ i y_ i} \right|=\sum _{i=1}^ N{|y_ i|^ q}=\sum _{i=1}^ N{|z_ i|^ p}=\| z^ N\| _{\ell ^ p}^ p \le \| F\|  \| z^ N\| _{\ell ^ p}, </dmath> quindi <math>\| z^ N\| _{\ell ^ p}^{p-1}\le \| F\| </math> e passando al limite <math>\| y\| _{\ell ^ q}=\| z\| _{\ell ^ p}^{p-1} \le \| F\| </math>.
Visto che la disuguaglianza <math>\| F\|  \le \| y\| _{\ell ^ q}</math> é ovvia (in quanto <math>\frac{|F(y)|}{\| y\| _{\ell ^ q}}=\| y\| _{\ell ^ q}</math>), si conclude che <math>\| y\| _{\ell ^ q}=\| F\| </math>, da cui la tesi.}}
+
Visto che la disuguaglianza <math>\| F\|  \le \| y\| _{\ell ^ q}</math> é ovvia (in quanto <math>\frac{|F(y)|}{\| y\| _{\ell ^ q}}=\| y\| _{\ell ^ q}</math>), si conclude che <math>\| y\| _{\ell ^ q}=\| F\| </math>, da cui la tesi.
 +
{{FineDimostrazione}}
  
  
 
In maniera simile, si puó mostrare:
 
In maniera simile, si puó mostrare:
  
{{Proposizione|
+
{{InizioProposizione}}
 
<math>F\in \mathcal {L}(\mathcal{L}^ p(\Omega ),\mathbb {R})</math>, <math>1<p<\infty </math>. Allora esiste <math>g\in \mathcal{L}^ q(\Omega )</math>, con <math>\frac{1}{p}+\frac{1}{q}=1</math>, tale che <math>F(f)=\int _{\Omega }{f(x)g(x)dx}</math> <math>\forall f\in \mathcal{L}^ p(\Omega )</math>.  
 
<math>F\in \mathcal {L}(\mathcal{L}^ p(\Omega ),\mathbb {R})</math>, <math>1<p<\infty </math>. Allora esiste <math>g\in \mathcal{L}^ q(\Omega )</math>, con <math>\frac{1}{p}+\frac{1}{q}=1</math>, tale che <math>F(f)=\int _{\Omega }{f(x)g(x)dx}</math> <math>\forall f\in \mathcal{L}^ p(\Omega )</math>.  
 +
{{FineProposizione}}
  
}}
+
{{InizioProposizione}}
 
 
{{Proposizione|
 
 
<math>X</math> spazio di Hilbert, <math>F\in \mathcal {L}(X,\mathbb {R})</math> limitato e continuo non nullo. Allora <math>\mbox{codim}(\mbox{Ker}(F))=1</math>.  
 
<math>X</math> spazio di Hilbert, <math>F\in \mathcal {L}(X,\mathbb {R})</math> limitato e continuo non nullo. Allora <math>\mbox{codim}(\mbox{Ker}(F))=1</math>.  
 +
{{FineProposizione}}
  
}}
+
{{InizioDimostrazione}}
 
+
Sia <math>y\in X</math> tale che <math>F(y)\ne 0</math>. Se <math>\lambda =\frac{1}{F(y)}</math>, allora <math>F(\lambda y)=1</math>; sia <math>y_0=\lambda y</math>.
{{Dimostrazione|Sia <math>y\in X</math> tale che <math>F(y)\ne 0</math>. Se <math>\lambda =\frac{1}{F(y)}</math>, allora <math>F(\lambda y)=1</math>; sia <math>y_0=\lambda y</math>.
+
Dato <math>x\in X</math>, si ha <math>x=x-F(x)y_0+F(x)y_0</math>, con <math>x-F(x)y_0\in \mbox{Ker}(F)</math>, e tale decomposizione é unica, in quanto se <math>x=x'+\alpha y_0=x''+\beta y_0</math> con <math>x',x''\in \mbox{Ker}(f)</math>, <math>F(x)=\alpha =\beta </math> e dunque <math>x'=x''</math>. Concludiamo che <math>X=\mbox{Ker}(F)\oplus \mbox{Span}(y_0)</math>, cioé la tesi.
Dato <math>x\in X</math>, si ha <math>x=x-F(x)y_0+F(x)y_0</math>, con <math>x-F(x)y_0\in \mbox{Ker}(F)</math>, e tale decomposizione é unica, in quanto se <math>x=x'+\alpha y_0=x''+\beta y_0</math> con <math>x',x''\in \mbox{Ker}(f)</math>, <math>F(x)=\alpha =\beta </math> e dunque <math>x'=x''</math>. Concludiamo che <math>X=\mbox{Ker}(F)\oplus \mbox{Span}(y_0)</math>, cioé la tesi. }}
+
{{FineDimostrazione}}
  
  
{{Teorema|
+
{{InizioTeorema}}
 
<math>X</math> spazio di Hilbert, <math>K\subseteq X</math> convesso chiuso. Allora <math>\forall x\in X</math> <math>\exists ! P(x)\in K</math> tale che <math>\| x-P(x)\| =\min _{y\in K}{\| x-y\| }</math>.  
 
<math>X</math> spazio di Hilbert, <math>K\subseteq X</math> convesso chiuso. Allora <math>\forall x\in X</math> <math>\exists ! P(x)\in K</math> tale che <math>\| x-P(x)\| =\min _{y\in K}{\| x-y\| }</math>.  
 +
{{FineTeorema}}
  
}}
+
{{InizioDimostrazione}}
 
+
<math>\| x-y\| \ge 0</math>, dunque <math>\exists y_ n\in K</math> tale che <math>\| x-y_ n\| =d_ n\rightarrow d=\inf _{K}{\| x-y\| }</math>. Se vedo che <math>y_ n</math> é di Cauchy, <math>y_ n</math> avrebbe limite per completezza di <math>X</math>.
{{Dimostrazione|<math>\| x-y\| \ge 0</math>, dunque <math>\exists y_ n\in K</math> tale che <math>\| x-y_ n\| =d_ n\rightarrow d=\inf _{K}{\| x-y\| }</math>. Se vedo che <math>y_ n</math> é di Cauchy, <math>y_ n</math> avrebbe limite per completezza di <math>X</math>.
 
 
Per l'identitá del parallelogramma, se <math>n,m>N</math>: <dmath> \left\| \frac{(x-y_ n)+(x-y_ m)}{2}\right\| ^2 + \left\| \frac{(x-y_ n)-(x-y_ m)}{2}\right\| ^2 = \frac{1}{2}\left( \| x-y_ n\| ^2+\| x-y_ m\| ^2 \right), </dmath> cioé: <dmath> \biggl \|  x-\underbrace{\frac{y_ n+y_ m}{2}}_{\in K} \biggr \| ^2+\left\|  \frac{y_ n-y_ m}{2} \right\| ^2=\frac{1}{2}(d_ n^2+d_ m^2), </dmath> ma <math>\left\|  x-\frac{y_ n+y_ m}{2}\right\|  \ge d^2</math> per definizione di estremo inferiore, dunque: <dmath> \left\|  \frac{y_ n-y_ m}{2} \right\|  \le \frac{1}{2}(d_ n^2+d_ m^2)-d^2<\varepsilon , </dmath> in quanto <math>d_ n^2-d^2<\varepsilon </math> e <math>d_ m^2-d^2<\varepsilon </math>.
 
Per l'identitá del parallelogramma, se <math>n,m>N</math>: <dmath> \left\| \frac{(x-y_ n)+(x-y_ m)}{2}\right\| ^2 + \left\| \frac{(x-y_ n)-(x-y_ m)}{2}\right\| ^2 = \frac{1}{2}\left( \| x-y_ n\| ^2+\| x-y_ m\| ^2 \right), </dmath> cioé: <dmath> \biggl \|  x-\underbrace{\frac{y_ n+y_ m}{2}}_{\in K} \biggr \| ^2+\left\|  \frac{y_ n-y_ m}{2} \right\| ^2=\frac{1}{2}(d_ n^2+d_ m^2), </dmath> ma <math>\left\|  x-\frac{y_ n+y_ m}{2}\right\|  \ge d^2</math> per definizione di estremo inferiore, dunque: <dmath> \left\|  \frac{y_ n-y_ m}{2} \right\|  \le \frac{1}{2}(d_ n^2+d_ m^2)-d^2<\varepsilon , </dmath> in quanto <math>d_ n^2-d^2<\varepsilon </math> e <math>d_ m^2-d^2<\varepsilon </math>.
 
Quindi, a meno di estrarre una sottosuccessione, <math>y_ n\rightarrow y\in K</math>, poiché <math>K</math> é chiuso.
 
Quindi, a meno di estrarre una sottosuccessione, <math>y_ n\rightarrow y\in K</math>, poiché <math>K</math> é chiuso.
Se per assurdo esistono due punti che realizzano il minimo, siano essi <math>P_1(x)</math> e <math>P_2(x)</math>, sempre per l'identitá del parallelogramma si ha: <dmath> \biggl \|  x-\underbrace{\frac{P_1(x)+P_2(x)}{2}}_{\in K} \biggr \| ^2+\left\|  \frac{P_1(x)-P_2(x)}{2} \right\| ^2=\frac{1}{2}\left( \| x-P_1(x)\| ^2+\| x-P_2(x)\| ^2 \right) =d^2 , </dmath> dunque <math>\left\|  \frac{P_1(x)-P_2(x)}{2} \right\| ^2 \le d^2-d^2=0</math>, cioé <math>P_1(x)=P_2(x)</math>.}}
+
Se per assurdo esistono due punti che realizzano il minimo, siano essi <math>P_1(x)</math> e <math>P_2(x)</math>, sempre per l'identitá del parallelogramma si ha: <dmath> \biggl \|  x-\underbrace{\frac{P_1(x)+P_2(x)}{2}}_{\in K} \biggr \| ^2+\left\|  \frac{P_1(x)-P_2(x)}{2} \right\| ^2=\frac{1}{2}\left( \| x-P_1(x)\| ^2+\| x-P_2(x)\| ^2 \right) =d^2 , </dmath> dunque <math>\left\|  \frac{P_1(x)-P_2(x)}{2} \right\| ^2 \le d^2-d^2=0</math>, cioé <math>P_1(x)=P_2(x)</math>.
 +
{{FineDimostrazione}}
  
  
{{Corollario|
+
{{InizioCorollario}}
 
<math>M\subseteq X</math> sottospazio chiuso. <math>\forall x\in X</math> <math>\exists !P(x)\in M</math> tale che <math>\| x-P(x)\| =\min _{y\in M}{\| x-y\| }</math>  
 
<math>M\subseteq X</math> sottospazio chiuso. <math>\forall x\in X</math> <math>\exists !P(x)\in M</math> tale che <math>\| x-P(x)\| =\min _{y\in M}{\| x-y\| }</math>  
 +
{{FineCorollario}}
  
}}
+
{{InizioDefinizione}}
 
 
{{Definizione|
 
 
La mappa <math>P:X\rightarrow K</math> tale che <math>P(x)</math> é il punto definito nel teorema si chiama '''proiezione'''.  
 
La mappa <math>P:X\rightarrow K</math> tale che <math>P(x)</math> é il punto definito nel teorema si chiama '''proiezione'''.  
 +
{{FineDefinizione}}
  
}}
+
{{InizioOsservazione}}
 
 
{{Osservazione|
 
 
Se <math>f:[a,b]\rightarrow \mathbb {R}</math> é derivabile e in <math>a</math> c'é un minimo, allora <math>f'(a)\ge 0</math>.
 
Se <math>f:[a,b]\rightarrow \mathbb {R}</math> é derivabile e in <math>a</math> c'é un minimo, allora <math>f'(a)\ge 0</math>.
 
Dunque, se <math>f:\mathbb {R}^ d\supseteq K \rightarrow \mathbb {R}</math> é <math>C^1</math>, e <math>\phi (t)=f(x_0+t(x-x_0))</math>, per <math>t\in [0,1]</math>, allora <math>\phi '(0)=\langle \nabla f(x_0),x-x_0 \rangle \ge 0</math>.  
 
Dunque, se <math>f:\mathbb {R}^ d\supseteq K \rightarrow \mathbb {R}</math> é <math>C^1</math>, e <math>\phi (t)=f(x_0+t(x-x_0))</math>, per <math>t\in [0,1]</math>, allora <math>\phi '(0)=\langle \nabla f(x_0),x-x_0 \rangle \ge 0</math>.  
 +
{{FineOsservazione}}
  
}}
+
{{InizioProposizione}}
 
 
{{Proposizione|
 
 
<math>\forall w\in K</math>, <math>K</math> convesso chiuso, <math>\langle x-P(x),w-P(x)\rangle \le 0</math>.  
 
<math>\forall w\in K</math>, <math>K</math> convesso chiuso, <math>\langle x-P(x),w-P(x)\rangle \le 0</math>.  
 +
{{FineProposizione}}
  
}}
+
{{InizioDimostrazione}}
 +
Se <math>\phi (t)=\| x-((1-t)P(x)+tw)\| ^2</math>, per l'osservazione precedente <math>\phi '(0) \ge 0</math> <math>\forall w\in K</math>. Ma: <dmath> \phi (t)=\| x-P(x)+t(P(x)-w)\| ^2=\| x-P(x)\| ^2+2t\langle x-P(x),P(x)-w\rangle +t^2\| P(x)-w\| ^2, </dmath> dunque <math>\phi '(0)=2\langle x-P(x),P(x)-w\rangle \ge 0</math> <math> \forall w\in K</math>.
 +
{{FineDimostrazione}}
  
{{Dimostrazione|Se <math>\phi (t)=\| x-((1-t)P(x)+tw)\| ^2</math>, per l'osservazione precedente <math>\phi '(0) \ge 0</math> <math>\forall w\in K</math>. Ma: <dmath> \phi (t)=\| x-P(x)+t(P(x)-w)\| ^2=\| x-P(x)\| ^2+2t\langle x-P(x),P(x)-w\rangle +t^2\| P(x)-w\| ^2, </dmath> dunque <math>\phi '(0)=2\langle x-P(x),P(x)-w\rangle \ge 0</math> <math> \forall w\in K</math>. }}
 
  
 
+
{{InizioOsservazione}}
{{Osservazione|
 
 
Si puó vedere che in realtá vale anche il viceversa, cioé se il punto <math>P(x)</math> ha quella proprietá, allora é il punto di <math>K</math> che minimizza la distanza con <math>x</math>.  
 
Si puó vedere che in realtá vale anche il viceversa, cioé se il punto <math>P(x)</math> ha quella proprietá, allora é il punto di <math>K</math> che minimizza la distanza con <math>x</math>.  
 +
{{FineOsservazione}}
  
}}
+
{{InizioOsservazione}}
 
 
{{Osservazione|
 
 
Se <math>K=M</math> é un sottospazio chiuso, sostituendo nella disuguaglianza precedente <math>w=0</math> e <math>w=2P(x)</math>, si ottiene che <math>\langle x-P(x),P(x)\rangle =0</math>. Ma allora, visto che la stessa disuguaglianza vale per <math>w</math> e per <math>-w</math>, segue che <math>\langle x-P(x),w \rangle =0</math> per ogni <math>w\in M</math>.  
 
Se <math>K=M</math> é un sottospazio chiuso, sostituendo nella disuguaglianza precedente <math>w=0</math> e <math>w=2P(x)</math>, si ottiene che <math>\langle x-P(x),P(x)\rangle =0</math>. Ma allora, visto che la stessa disuguaglianza vale per <math>w</math> e per <math>-w</math>, segue che <math>\langle x-P(x),w \rangle =0</math> per ogni <math>w\in M</math>.  
 +
{{FineOsservazione}}
  
}}
+
{{InizioCorollario}}
 
 
{{Corollario|
 
 
Se <math>X</math> é di Hilbert e <math>M\subseteq X</math> é un sottospazio chiuso, allora <math>X=M\oplus M^\bot </math>.  
 
Se <math>X</math> é di Hilbert e <math>M\subseteq X</math> é un sottospazio chiuso, allora <math>X=M\oplus M^\bot </math>.  
 +
{{FineCorollario}}
  
}}
+
{{InizioDimostrazione}}
 +
Dato <math>x\in X</math>, se <math>P</math> é la proiezione su <math>M</math> allora <math>x=x-P(x)+P(x)</math>; basta notare che <math>P(x)\in M</math> e <math>x-P(x)\in M^\bot </math>.
 +
{{FineDimostrazione}}
  
{{Dimostrazione|Dato <math>x\in X</math>, se <math>P</math> é la proiezione su <math>M</math> allora <math>x=x-P(x)+P(x)</math>; basta notare che <math>P(x)\in M</math> e <math>x-P(x)\in M^\bot </math>. }}
 
  
 
+
{{InizioProposizione}}
{{Proposizione|
 
 
La proiezione <math>P</math> su un sottospazio chiuso <math>M</math> é lineare e <math>\| P\| =1</math>.  
 
La proiezione <math>P</math> su un sottospazio chiuso <math>M</math> é lineare e <math>\| P\| =1</math>.  
 +
{{FineProposizione}}
  
}}
+
{{InizioDimostrazione}}
 
+
Per vedere che é lineare, osserviamo: <dmath> \begin{cases}  \langle \alpha x+\beta y-P(\alpha x+\beta y),w\rangle =0 & \forall w\in M\\ \langle \alpha x+\beta y-\alpha P(x)-\beta P(y),w\rangle =0 & \forall w\in M\\ \end{cases} </dmath> dunque <math>\langle P(\alpha x+\beta y)-\alpha P(x)-\beta P(y),w\rangle =0</math> <math>\forall w\in M</math>, ma <math>P(\alpha x+\beta y)-\alpha P(x)-\beta P(y)\in M</math>, quindi <math>\| P(\alpha x+\beta y)-\alpha P(x)-\beta P(y)\| =0</math>, cioé <math>P(\alpha x+\beta y)=\alpha P(x)+\beta P(y)</math>.
{{Dimostrazione|Per vedere che é lineare, osserviamo: <dmath> \begin{cases}  \langle \alpha x+\beta y-P(\alpha x+\beta y),w\rangle =0 & \forall w\in M\\ \langle \alpha x+\beta y-\alpha P(x)-\beta P(y),w\rangle =0 & \forall w\in M\\ \end{cases} </dmath> dunque <math>\langle P(\alpha x+\beta y)-\alpha P(x)-\beta P(y),w\rangle =0</math> <math>\forall w\in M</math>, ma <math>P(\alpha x+\beta y)-\alpha P(x)-\beta P(y)\in M</math>, quindi <math>\| P(\alpha x+\beta y)-\alpha P(x)-\beta P(y)\| =0</math>, cioé <math>P(\alpha x+\beta y)=\alpha P(x)+\beta P(y)</math>.
+
Inoltre <math>\| x\| \| P(x)\|  \ge \langle x,P(x)\rangle = \langle P(x),P(x) \rangle =\| P(x)\| ^2</math>, dunque <math>\| P\| \le 1</math>; ma <math>P(m)=m</math> <math>\forall m\in M</math>, quindi <math>\| P\| \ge 1</math>.
Inoltre <math>\| x\| \| P(x)\|  \ge \langle x,P(x)\rangle = \langle P(x),P(x) \rangle =\| P(x)\| ^2</math>, dunque <math>\| P\| \le 1</math>; ma <math>P(m)=m</math> <math>\forall m\in M</math>, quindi <math>\| P\| \ge 1</math>. }}
+
{{FineDimostrazione}}
  
  
Riga 279: Riga 286:
 
<math>\forall x\in X</math>.
 
<math>\forall x\in X</math>.
  
{{Teorema|
+
{{InizioTeorema}}
 
<math>\mathcal{L}^2(a,b)</math> é uno spazio di Hilbert.  
 
<math>\mathcal{L}^2(a,b)</math> é uno spazio di Hilbert.  
 +
{{FineTeorema}}
  
}}
+
{{InizioDimostrazione}}
 
+
Sia <math>\{ f_ n\} </math> una successione di Cauchy; a meno di estrarre una sottosuccessione, posso supporre <math>\| f_{n+1}-f_ n\| _{\mathcal{L}^2}\le \frac{1}{2^ n}</math>.
{{Dimostrazione|Sia <math>\{ f_ n\} </math> una successione di Cauchy; a meno di estrarre una sottosuccessione, posso supporre <math>\| f_{n+1}-f_ n\| _{\mathcal{L}^2}\le \frac{1}{2^ n}</math>.
 
 
Sia <math>g_ n(x)=\sum _{k=1}^ n{|f_{k+1}(x)-f_ k(x)|}</math>; sicuramente <math>0\le g_ n \le g_{n+1}</math> quasi ovunque <math>\forall n</math>. Visto che: <dmath> \| g_ n\| _{\mathcal{L}^2} \le \sum _{k=1}^ n{\| f_{k+1}-f_ k\| } \le \sum _{k=1}^ n{\frac{1}{2^ k}}\le 1, </dmath> allora per Beppo-Levi <math>g_ n\rightarrow g</math> in norma quadra, <math>\| g\| _{\mathcal{L}^2}<+\infty </math>.
 
Sia <math>g_ n(x)=\sum _{k=1}^ n{|f_{k+1}(x)-f_ k(x)|}</math>; sicuramente <math>0\le g_ n \le g_{n+1}</math> quasi ovunque <math>\forall n</math>. Visto che: <dmath> \| g_ n\| _{\mathcal{L}^2} \le \sum _{k=1}^ n{\| f_{k+1}-f_ k\| } \le \sum _{k=1}^ n{\frac{1}{2^ k}}\le 1, </dmath> allora per Beppo-Levi <math>g_ n\rightarrow g</math> in norma quadra, <math>\| g\| _{\mathcal{L}^2}<+\infty </math>.
 
Vediamo che la successione <math>\{ f_ n\} </math> é di Cauchy nella norma <math>|.|</math>; se <math>n,m>N</math>: <dmath> |f_ m(x)-f_ n(x)| \le \sum _{k=n}^{m-1}{|f_{k+1}-f_ k|} < \varepsilon , </dmath> in quanto é la coda di una serie convergente. Ma allora <math>f_ n(x) \rightarrow f(x)</math> e <math>|f(x)|\le |f(x)-f_ n(x)|+|f_ n(x)| \le |g(x)|+|f_ n(x)|</math>, quindi <math>f\in \mathcal{L}^2</math>.
 
Vediamo che la successione <math>\{ f_ n\} </math> é di Cauchy nella norma <math>|.|</math>; se <math>n,m>N</math>: <dmath> |f_ m(x)-f_ n(x)| \le \sum _{k=n}^{m-1}{|f_{k+1}-f_ k|} < \varepsilon , </dmath> in quanto é la coda di una serie convergente. Ma allora <math>f_ n(x) \rightarrow f(x)</math> e <math>|f(x)|\le |f(x)-f_ n(x)|+|f_ n(x)| \le |g(x)|+|f_ n(x)|</math>, quindi <math>f\in \mathcal{L}^2</math>.
Visto che <math>|f(x)-f_ n(x)|^2 \le g(x)^2</math>, per il teorema di convergenza dominata <math>f_ n \rightarrow f</math> anche in <math>\mathcal{L}^2</math>.}}
+
Visto che <math>|f(x)-f_ n(x)|^2 \le g(x)^2</math>, per il teorema di convergenza dominata <math>f_ n \rightarrow f</math> anche in <math>\mathcal{L}^2</math>.
 +
{{FineDimostrazione}}
  
  
{{Environment|name=Teorema 18|title=Riesz-Fisher|content=
+
{{InizioTeorema|title=Riesz-Fisher}}
 
<math>f\in \mathcal {L}(X,\mathbb {R})</math> continuo e limitato, <math>X</math> spazio di Hilbert. Allora <math>\exists ! y\in X</math> tale che <math>f(x)=\langle x,y\rangle </math> <math>\forall x\in X</math>.  
 
<math>f\in \mathcal {L}(X,\mathbb {R})</math> continuo e limitato, <math>X</math> spazio di Hilbert. Allora <math>\exists ! y\in X</math> tale che <math>f(x)=\langle x,y\rangle </math> <math>\forall x\in X</math>.  
 +
{{FineTeorema}}
  
}}
+
{{InizioDimostrazione}}
 
+
Se <math>f\equiv 0</math> l'enunciato é banale; quindi supponiamo <math>f\not\equiv 0</math>.
{{Dimostrazione|Se <math>f\equiv 0</math> l'enunciato é banale; quindi supponiamo <math>f\not\equiv 0</math>.
 
 
Sia <math>M=\mbox{Ker}(f)</math>; <math>M\subseteq X</math> é un sottospazio chiuso di codimensione <math>1</math>, e sia <math>P</math> la proiezione su <math>M</math>. Visto che <math>X=M\oplus M^\bot </math> e <math>M^\bot =\mbox{Span}(y_0)</math>, con <math>f(y_0)=1</math>, allora dato <math>x\in X</math> si puó scomporre <math>x=\lambda y_0 + z</math>, dove <math>z\in \mbox{Ker}(f)</math>.
 
Sia <math>M=\mbox{Ker}(f)</math>; <math>M\subseteq X</math> é un sottospazio chiuso di codimensione <math>1</math>, e sia <math>P</math> la proiezione su <math>M</math>. Visto che <math>X=M\oplus M^\bot </math> e <math>M^\bot =\mbox{Span}(y_0)</math>, con <math>f(y_0)=1</math>, allora dato <math>x\in X</math> si puó scomporre <math>x=\lambda y_0 + z</math>, dove <math>z\in \mbox{Ker}(f)</math>.
 
<math>f(x)=\lambda f(y_0)=\lambda </math> e <math>\langle x,y_0 \rangle =\lambda \langle y_0,y_0 \rangle =\lambda \| y_0\| ^2</math>, dunque <math>y=\frac{y_0}{\| y_0\| ^2}</math> dá l'esistenza.
 
<math>f(x)=\lambda f(y_0)=\lambda </math> e <math>\langle x,y_0 \rangle =\lambda \langle y_0,y_0 \rangle =\lambda \| y_0\| ^2</math>, dunque <math>y=\frac{y_0}{\| y_0\| ^2}</math> dá l'esistenza.
Se poi esistessero due elementi <math>y,w</math> che rappresentano <math>f</math>, allora <math>\langle x,y-w \rangle =0</math> <math>\forall x\in X</math>, dunque in particolare <math>\| y-w\| ^2=0</math>. }}
+
Se poi esistessero due elementi <math>y,w</math> che rappresentano <math>f</math>, allora <math>\langle x,y-w \rangle =0</math> <math>\forall x\in X</math>, dunque in particolare <math>\| y-w\| ^2=0</math>.  
 +
{{FineDimostrazione}}
  
  
{{Corollario|
+
{{InizioCorollario}}
 
Se <math>f_ n\rightarrow f</math> in <math>\mathcal{L}^2(a,b)</math>, allora <math>\exists \{ n_ k\} </math> tale che <math>f_{n_ k}\rightarrow f(x)</math> quasi ovunque.  
 
Se <math>f_ n\rightarrow f</math> in <math>\mathcal{L}^2(a,b)</math>, allora <math>\exists \{ n_ k\} </math> tale che <math>f_{n_ k}\rightarrow f(x)</math> quasi ovunque.  
 
+
{{FineCorollario}}
}}
 
  
 
Discende dal teorema di Riesz-Fisher:
 
Discende dal teorema di Riesz-Fisher:
  
{{Environment|name=Teorema 19|title=di isomorfismo|content=
+
{{InizioTeorema|title=di isomorfismo}}
 
<math>X,Y</math> spazi di Hilbert. Allora <math>X\cong Y \cong \ell ^2</math>.  
 
<math>X,Y</math> spazi di Hilbert. Allora <math>X\cong Y \cong \ell ^2</math>.  
 +
{{FineTeorema}}
  
}}
+
{{InizioDimostrazione}}
 
+
Per il teorema di Riesz-Fisher, la funzione che manda un elemento di <math>X</math> (o di <math>Y</math>) nella successione dei propri coefficienti di Fourier é un isomorfismo.
{{Dimostrazione|Per il teorema di Riesz-Fisher, la funzione che manda un elemento di <math>X</math> (o di <math>Y</math>) nella successione dei propri coefficienti di Fourier é un isomorfismo. }}
+
{{FineDimostrazione}}
  
  
 
Quindi possiamo considerare <math>\ell ^2</math> come lo spazio di Hilbert universale.
 
Quindi possiamo considerare <math>\ell ^2</math> come lo spazio di Hilbert universale.
 
<references/>
 
<references/>

Versione attuale delle 20:52, 24 set 2018

Definizione

spazio vettoriale su (risp. su ) si dice spazio euclideo se esiste un prodotto interno simmetrico (risp. hermitiano) che induce una norma .

 
Esempio
  • , con
  • , con ;
  • , con
 
Proposizione (Disuguaglianza di Cauchy-Schwarz)

<dmath>\forall x,y\in X, |\langle x,y\rangle | \le \| x\| \| y\| </dmath>

 
Dimostrazione

Se é uno spazio vettoriale complesso, si usa il trucco solito applicato a , con .

 


Proposizione (Identità del parallelogramma)

,

 
Osservazione

é euclideo , infatti, se i vettori della base canonica non soddisfano l'identitá del parallelogramma.

 
Definizione

Uno spazio euclideo si dice spazio di Hilbert se è completo.

 
Proposizione

é uno spazio di Hilbert.

 
Dimostrazione

Sia una successione di Cauchy, cioé tale che quando (cioé ). Ora, fissato , la successione é di Cauchy, quindi ha limite . , si ha , quindi prendendo il limite per otteniamo: <dmath> \lim _{m\rightarrow \infty }{\sum _{|k|\le M}{|c_ k^ n-c_ k^ m|^2}}=\sum _{|k|\le M}{|c_ k^ n-c_ k|^2}\le \varepsilon ^2 </dmath> , dunque: <dmath> \limsup _{M\rightarrow \infty }{\sum _{|k|\le M}{|c_ k^ n-c_ k|^2}}=\sum _{k\in \mathbb {Z}}{|c_ k^ n-c_ k|^2}\le \varepsilon ^2. </dmath> Ci resta da vedere che ; ma per quanto visto: <dmath> \sum _{|k|\le M}{|c_ k|^2}\le \underbrace{\sum _{|k|\le M}{|c_ k-c_ k^ n|^2}}_{\le \varepsilon ^2}+\underbrace{\sum _{|k|\le M}{|c_ k^ n|^2}}_{<C}<C+\varepsilon ^2, </dmath> da cui la tesi.

 


Definizione

Definiamo cubo di Hilbert .

 
Proposizione

Data una successione , esiste una sottosuccessione che converge a un .

 
Dimostrazione

Si procede con un argomento diagonale: visto che , allora per Bolzano-Weierstrass; ma , dunque e cosí via. Sia la successione tale che , dove é la successione estratta al passaggio -esimo; allora . Se vediamo che , avremmo la tesi. <dmath> \sum _{h=1}^\infty {|c_ h^{n^*(k)}-c_ h|^2} = \underbrace{\sum _{h=1}^ M{|c_ h^{n^*(k)}-c_ h|^2}}_{<\varepsilon \text { per } k \text { grande}} + \underbrace{\sum _{h=M+1}^\infty {|c_ h^{n^*(k)}-c_ h|^2}}_{\le \sum _{M+1}^\infty {\frac{4}{h^2}}<\varepsilon }, </dmath> cioé la tesi.

 


Allo stesso modo si dimostra:

Teorema (di compattezza relativa)

Sia tale che , con . Allora che converge a un elemento .

 
Definizione

Una successione di vettori indipendenti di uno spazio di Hilbert si dice base hilbertiana se e tale che: <dmath> \left\| \sum _{n=1}^ N{c_ ne_ n}-x \right\| <\varepsilon . </dmath>

 
Osservazione

é una base hilbertiana, detta base canonica.

 

Nel seguito sia un generico spazio euclideo.

Definizione

si dice sistema completo per se la chiusura delle combinazioni lineari di elementi di é tutto .

 
Esempio

Se , l'insieme é un sistema completo per il teorema di approssimazione di Weierstrass.

 
Definizione

sistema completo, . Allora si dice base ortogonale. Se vale anche che , allora il sistema si dice base ortonormale.

 
Definizione

si dice separabile se esiste un sottoinsieme denso al piú numerabile.

 
Esempio

é separabile, in quanto il sottoinsieme costituito dalle successioni finite di razionali é denso e numerabile.

 
Teorema

separabile, ortonormale. Allora é al piú numerabile.

 
Dimostrazione

Si ha che , dunque . Sia il sottoinsieme denso numerabile; in ogni palla c'é un elemento per densitá, dunque le palle distinte sono in numero al piú numerabile. Segue che anche gli sono al piú numerabili.

 
Teorema (Ortonormalizzazione di Gram-Schmidt)

linearmente indipendenti. Allora ortonormale con .

 
Corollario

separabile una base ortonormale numerabile.

 

Nel seguito sará sempre separabile.

Teorema

ortonormale (non necessariamente base), . Allora: #, dove sono i coefficienti di Fourier.

  1. .
 
Dimostrazione

Si calcola: <dmath> \begin{align} \left\| f-\sum _{j=1}^ n{\alpha _ j \varphi _ j} \right\| ^2 & =\langle f-\sum _{j=1}^ n{\alpha _ j \varphi _ j},f-\sum _{j=1}^ n{\alpha _ j \varphi _ j}\rangle =\langle f,f\rangle - 2\sum _{j=1}^ n{\alpha _ j \langle f,\varphi _ j \rangle }+\sum _{j,k=1}^ n{\alpha _ j\alpha _ k\langle \varphi _ j,\varphi _ k \rangle }=\\ & =\| f\| ^2-2\sum _{j=1}^ n{\alpha _ j c_ j}+\sum _{j=1}^ n{\alpha _ j^2}=\| f\| ^2 -\sum _{j=1}^ n{c_ j^2}+\sum _{j=1}^ n{c_ j^2} -2\sum _{j=1}^ n{\alpha _ j c_ j}+\sum _{j=1}^ n{\alpha _ j^2}=\\ & =\| f\| ^2-\sum _{j=1}^ n{c_ j^2}+\sum _{j=1}^ n{(c_ j-\alpha _ j)^2} \end{align}</dmath> ed evidentemente il minimo si raggiunge con e il minimo é quello voluto.

 


Osservazione

Dunque, passando il limite, si ottiene: <dmath> \lim _{n\rightarrow \infty }{\sum _{j=1}^ n{c_ j^2}}\le \| f\| ^2, \quad \text {ovvero} \quad \sum _{j=1}^\infty {c_ j^2}\le \| f\| ^2, </dmath> che non é altro che la disuguaglianza di Bessel. Ci chiediamo se vale anche l'uguaglianza, cioé l'identità di Parseval.

 
Definizione

Un sistema ortonormale si dice chiuso se vale l'identitá di Parseval, cioé: <dmath> \sum _{j=1}^\infty {c_ j^2}= \| f\| ^2. </dmath>

 
Teorema

é chiuso ogni puó essere scritto tramite la sua serie di Fourier, cioé: <dmath> f=\sum _{j=1}^\infty {c_ j \varphi _ j}. </dmath>

 
Dimostrazione

Deriva dalla relazione , dove é la serie di Fourier troncata.

 


Osservazione

In uno spazio euclideo, scrivere deve essere inteso come: <dmath> \left\| f-\sum _{j=1}^ n{f_ j} \right\| _ X \rightarrow 0 </dmath> quando .

 
Esempio

Se vediamo che é chiuso, allora avremmo che: <dmath> \frac{1}{2\pi }\int _{-\pi }^\pi {|f|^2}=\sum _{k\in \mathbb {Z}}{c_ k^2}, </dmath> o equivalentemente: <dmath> \frac{1}{2\pi }\int _{-\pi }^\pi {|f|^2}=\frac{a_0^2}{4}+\frac{1}{2}\sum _{k=1}^\infty {(a_ k^2+b_ k^2)}. </dmath>

 
Osservazione

Supponiamo di aver dimostrato che il sistema é chiuso; sia periodicizzata. Con un semplice conto otteniamo che la serie di Fourier di é: <dmath> x=\sum _{n=1}^\infty {\frac{2}{n}(-1)^{n+1}\sin (nx)}, </dmath> quindi applicando la chiusura del sistema otteniamo: <dmath> \frac{1}{2}\sum _{n=1}^\infty {\frac{4}{n^2}}=\frac{1}{2\pi }\int _{-\pi }^\pi {x^2 dx}, </dmath> cioé: <dmath> \sum _{n=1}^\infty {\frac{1}{n^2}}=\frac{\pi ^2}{6}. </dmath>

 
Osservazione

Tramite la formula di polarizzazione, si puó riscrivere l'identitá di Parseval: <dmath> \langle f,g\rangle = \sum _{k=1}^\infty {\langle f,\varphi _ k\rangle \langle g,\varphi _ k \rangle }. </dmath>

 
Teorema

é di Hilbert ogni sistema ortonormale é chiuso.

 

Consideriamo il sottospazio proprio di :

<dmath> h^1=\left\{ \{ c_ k\} \in \ell ^2 \ \biggl | \ \sum _{k=1}^\infty {k^2c_ k^2}<+\infty \right\} </dmath>

con la norma:

<dmath> \| c\| _{h^1}=\left( \sum _{k=1}^\infty {(c_ k^2+k^2c_ k^2)} \right)^{\frac{1}{2}}. </dmath>

La palla é relativamente compatta in , in quanto se , allora e dunque per una certa costante . Sia ora e denotiamo con la sua serie di Fourier troncata:

<dmath> f_ n(x)=\frac{a_0}{2}+\sum _{k=1}^{n}{(a_ k \cos (kx)+b_ k\sin (kx))}, </dmath>

con . Sappiamo che in norma per ; scriviamo inoltre:

<dmath> f_ n'(x)=\sum _{k=1}^{n}{(-ka_ k \sin (kx)+kb_ k\cos (kx))}. </dmath>

Ora, se , cioé , allora tale che in norma quando ; chiamiamo tale derivata in senso debole di e notiamo che se , non é altro che . Definiamo anche . In generale:

Definizione

Definiamo: <dmath> h^ n=\left\{ \{ c_ k\} \in \ell ^2 \ \biggl | \ \sum _{k=1}^\infty {k^{2n}c_ k^2}<+\infty \right\} </dmath> con la norma: <dmath> \| c\| _{h^ n}=\left( \sum _{k=1}^\infty {(c_ k^2+k^2c_ k^2+\ldots + k^{2n}c_ k^2)} \right)^{\frac{1}{2}}. </dmath> Inoltre si definisce: <dmath> \mathcal{H}^ n(-\pi ,\pi )=\{ f\in \mathcal{L}^2(-\pi ,\pi ) \mid \{ c_ k\} \in h^ n\} . </dmath>

 

Quindi, se ad esempio , si ha che esistono tali che , , in norma quando . Deduciamo quindi che é relativamente compatto in .

Osservazione

In generale, si puó definire lo spazio: <dmath> \mathcal{H}^ s(-\pi ,\pi )=\left\{ f\in \mathcal{L}^2(-\pi ,\pi ) \ \biggl | \ \sum _{k=1}^\infty {k^{2s}c_ k^2}<+\infty \right\} </dmath> per ogni e, presa con serie di Fourier , associargli la sua derivata debole -esima definita come: <dmath> \frac{d^ s}{dx^ s}f(x)=\sum _{k=1}^\infty {k^ sc_ k e^{ikx}}, </dmath> che risulta convergente in per definizione di .

 

Richiamiamo adesso il teorema di rappresentazione di Riesz: in , esso assicura che, data , esiste un unico vettore tale che . Vediamo che in (e piú precisamente in ) vale la stessa cosa.

Proposizione

lineare e continua, . Allora esiste , con , tale che (e dunque se ).

 
Dimostrazione

Se , allora ; denotando e , si ha: <dmath> F(x^ N)=\sum _{i=1}^ N{x_ i y_ i}, </dmath> quindi ci rimane solo da passare al limite per (cioé vedere che , poiché per Holder in questo caso si avrebbe ). Poniamo: <dmath> z_ i=\begin{cases} 0 & \text {se } y_ i=0\\ |y_ i|^{q-2} y_ i & \text {se } y_ i\ne 0 \end{cases} </dmath> osserviamo anche che e . Visto che é continua, allora ; inoltre si ha: <dmath> \left| F\left( \sum _{i=1}^ N{z_ i e_ i} \right) \right|\le \| F\| \| z^ N\| , </dmath> dove . Per linearitá: <dmath> \left| F\left( \sum _{i=1}^ N{z_ i e_ i} \right) \right| = \left| \sum _{i=1}^ N{z_ i y_ i} \right|=\sum _{i=1}^ N{|y_ i|^ q}=\sum _{i=1}^ N{|z_ i|^ p}=\| z^ N\| _{\ell ^ p}^ p \le \| F\| \| z^ N\| _{\ell ^ p}, </dmath> quindi e passando al limite . Visto che la disuguaglianza é ovvia (in quanto ), si conclude che , da cui la tesi.

 


In maniera simile, si puó mostrare:

Proposizione

, . Allora esiste , con , tale che .

 
Proposizione

spazio di Hilbert, limitato e continuo non nullo. Allora .

 
Dimostrazione

Sia tale che . Se , allora ; sia . Dato , si ha , con , e tale decomposizione é unica, in quanto se con , e dunque . Concludiamo che , cioé la tesi.

 


Teorema

spazio di Hilbert, convesso chiuso. Allora tale che .

 
Dimostrazione

, dunque tale che . Se vedo che é di Cauchy, avrebbe limite per completezza di . Per l'identitá del parallelogramma, se : <dmath> \left\| \frac{(x-y_ n)+(x-y_ m)}{2}\right\| ^2 + \left\| \frac{(x-y_ n)-(x-y_ m)}{2}\right\| ^2 = \frac{1}{2}\left( \| x-y_ n\| ^2+\| x-y_ m\| ^2 \right), </dmath> cioé: <dmath> \biggl \| x-\underbrace{\frac{y_ n+y_ m}{2}}_{\in K} \biggr \| ^2+\left\| \frac{y_ n-y_ m}{2} \right\| ^2=\frac{1}{2}(d_ n^2+d_ m^2), </dmath> ma per definizione di estremo inferiore, dunque: <dmath> \left\| \frac{y_ n-y_ m}{2} \right\| \le \frac{1}{2}(d_ n^2+d_ m^2)-d^2<\varepsilon , </dmath> in quanto e . Quindi, a meno di estrarre una sottosuccessione, , poiché é chiuso. Se per assurdo esistono due punti che realizzano il minimo, siano essi e , sempre per l'identitá del parallelogramma si ha: <dmath> \biggl \| x-\underbrace{\frac{P_1(x)+P_2(x)}{2}}_{\in K} \biggr \| ^2+\left\| \frac{P_1(x)-P_2(x)}{2} \right\| ^2=\frac{1}{2}\left( \| x-P_1(x)\| ^2+\| x-P_2(x)\| ^2 \right) =d^2 , </dmath> dunque , cioé .

 


Corollario

sottospazio chiuso. tale che

 
Definizione

La mappa tale che é il punto definito nel teorema si chiama proiezione.

 
Osservazione

Se é derivabile e in c'é un minimo, allora . Dunque, se é , e , per , allora .

 
Proposizione

, convesso chiuso, .

 
Dimostrazione

Se , per l'osservazione precedente . Ma: <dmath> \phi (t)=\| x-P(x)+t(P(x)-w)\| ^2=\| x-P(x)\| ^2+2t\langle x-P(x),P(x)-w\rangle +t^2\| P(x)-w\| ^2, </dmath> dunque .

 


Osservazione

Si puó vedere che in realtá vale anche il viceversa, cioé se il punto ha quella proprietá, allora é il punto di che minimizza la distanza con .

 
Osservazione

Se é un sottospazio chiuso, sostituendo nella disuguaglianza precedente e , si ottiene che . Ma allora, visto che la stessa disuguaglianza vale per e per , segue che per ogni .

 
Corollario

Se é di Hilbert e é un sottospazio chiuso, allora .

 
Dimostrazione

Dato , se é la proiezione su allora ; basta notare che e .

 


Proposizione

La proiezione su un sottospazio chiuso é lineare e .

 
Dimostrazione

Per vedere che é lineare, osserviamo: <dmath> \begin{cases} \langle \alpha x+\beta y-P(\alpha x+\beta y),w\rangle =0 & \forall w\in M\\ \langle \alpha x+\beta y-\alpha P(x)-\beta P(y),w\rangle =0 & \forall w\in M\\ \end{cases} </dmath> dunque , ma , quindi , cioé . Inoltre , dunque ; ma , quindi .

 


Quindi, definendo , si ha:

<dmath> x=P(x)+Q(x), \quad \langle P(x),Q(x)\rangle =0, \quad \| x\| ^2=\| P(x)\| ^2+\| Q(x)\| ^2, </dmath>

.

Teorema

é uno spazio di Hilbert.

 
Dimostrazione

Sia una successione di Cauchy; a meno di estrarre una sottosuccessione, posso supporre . Sia ; sicuramente quasi ovunque . Visto che: <dmath> \| g_ n\| _{\mathcal{L}^2} \le \sum _{k=1}^ n{\| f_{k+1}-f_ k\| } \le \sum _{k=1}^ n{\frac{1}{2^ k}}\le 1, </dmath> allora per Beppo-Levi in norma quadra, . Vediamo che la successione é di Cauchy nella norma ; se : <dmath> |f_ m(x)-f_ n(x)| \le \sum _{k=n}^{m-1}{|f_{k+1}-f_ k|} < \varepsilon , </dmath> in quanto é la coda di una serie convergente. Ma allora e , quindi . Visto che , per il teorema di convergenza dominata anche in .

 


Teorema (Riesz-Fisher)

continuo e limitato, spazio di Hilbert. Allora tale che .

 
Dimostrazione

Se l'enunciato é banale; quindi supponiamo . Sia ; é un sottospazio chiuso di codimensione , e sia la proiezione su . Visto che e , con , allora dato si puó scomporre , dove . e , dunque dá l'esistenza. Se poi esistessero due elementi che rappresentano , allora , dunque in particolare .

 


Corollario

Se in , allora tale che quasi ovunque.

 

Discende dal teorema di Riesz-Fisher:

Teorema (di isomorfismo)

spazi di Hilbert. Allora .

 
Dimostrazione

Per il teorema di Riesz-Fisher, la funzione che manda un elemento di (o di ) nella successione dei propri coefficienti di Fourier é un isomorfismo.

 


Quindi possiamo considerare come lo spazio di Hilbert universale.

 PrecedenteSuccessivo