Sia
una variabile aleatoria discreta su
a valori in uno spazio numerabile
.
Siano
e
.
Allora, fissato
, possiamo definire la probabilità


si chiama
disintegrazione di
secondo i possibili valori di 
.
Sia ora
un'altra variabile aleatoria, numerica, su
:
![{\displaystyle {\begin{aligned}E[Z]=\int ZdP&=\sum _{x\in E}\int _{X=x}ZdP\\&=\sum _{x\in E_{0}}\int _{X=x}ZdP\\&=\sum _{x\in E_{0}}P\{X=x\}\int ZdP\\&=\sum _{x\in E_{0}}\mu \{x\}E_{x}[Z]\end{aligned}}}](//restbase.wikitolearn.org/it.wikitolearn.org/v1/media/math/render/svg/c0a2fc51d1b31c90e1a332826b51a867de2018f9)
![{\displaystyle E[Z]}](//restbase.wikitolearn.org/it.wikitolearn.org/v1/media/math/render/svg/8512949577b343891c6c80aeca078568d5d68465)
in generale può essere difficile da calcolare; vederla come una media ponderata può tornare utile.
Inoltre, dato
,

ovvero

risulta espressa come
combinazione (o
mistura)
convessa ponderata delle

.
Se
assume solo 2 valori, la funzione di disintegrazione si dice dell'alternativa.
Esempio 7.2
Siano
un processo di Bernoulli di parametro
e
l'istante del primo successo di
; già sappiamo che
ha legge geometrica di parametro e quindi
, ma questo stesso risultato si può ora dimostrare in un altro modo sfruttando la disintegrazione rispetto a
:
Per la formula dell'alternativa, quindi,
![{\displaystyle E[N]=pE_{1}[N]+qE_{0}[N]}](//restbase.wikitolearn.org/it.wikitolearn.org/v1/media/math/render/svg/8b33e3c262cd810a3dc7592a44b83e15a2ef15ca)
Ora, secondo

, la variabile

è equivalente (e quindi isonoma) alla costante 1, quindi
![{\displaystyle E_{1}[N]=1}](//restbase.wikitolearn.org/it.wikitolearn.org/v1/media/math/render/svg/84d1ecbad1fd4527f31368344c2d87716dd0bb86)
.
Siccome poi la legge di
secondo
è identica alla legge di
(dato che
), si ha che
![{\displaystyle E_{0}[N]=E_{0}[1+(N-1)]=E_{0}[1]+E_{0}[N-1]=1+E_{0}[N-1]=1+E[N]}](//restbase.wikitolearn.org/it.wikitolearn.org/v1/media/math/render/svg/82ec3a36fff9cc5346fcf9052e58d5eab53b57a1)
Riunendo le informazioni che abbiamo otteniamo:
![{\displaystyle {\begin{aligned}&E[N]=p+q(1+E[N])=p+q+qE[N]=1+qE[N]\\&{\stackrel {1}{\Rightarrow }}E[N](1-q)=1\\&\Rightarrow E[N]p=1\\&\Rightarrow E[N]={\frac {1}{p}}\end{aligned}}}](//restbase.wikitolearn.org/it.wikitolearn.org/v1/media/math/render/svg/a9adf88902088468c6de4afb0d742e278d9f4e52)
In

abbiamo però supposto che
![{\displaystyle E[N]<\infty }](//restbase.wikitolearn.org/it.wikitolearn.org/v1/media/math/render/svg/b2e5dbe02ba4a28bdc1cbf7adf4b5e4c98d7b703)
. Ridimostriamo anche questo.
Dato uno spazio
, sia
una successione di variabili aleatorie numeriche positive aventi tutte identica speranza. Sia inoltre
una variabile aleatoria discreta a valori in
.
Per ogni
, consideriamo

Possiamo definire per rincollamento

che per ogni

naturale coincida con

su

.
Se poi
è indipendente[1] da
, allora
![{\displaystyle E[S_{N}]=E[N]E[X_{1}]}](//restbase.wikitolearn.org/it.wikitolearn.org/v1/media/math/render/svg/f3c8d5c03c3a79cc8f259f72dbb70b31d1630a49)
Dimostrazione

Quindi
![{\displaystyle E[S_{N}]=\sum _{k\geq 0}E[X_{k+1}I_{k<N}]}](//restbase.wikitolearn.org/it.wikitolearn.org/v1/media/math/render/svg/ab012f48ebbab77c105f4722e1922b93aec432b9)
e per l'ipotesi di indipendenza questo equivale a
![{\displaystyle \sum _{k\geq 0}E[X_{k+1}]E[I_{k<N}]=E[X_{1}]\cdot \sum _{k\geq 0}P\{N>k\}=E[X_{1}]E[N]}](//restbase.wikitolearn.org/it.wikitolearn.org/v1/media/math/render/svg/3ee76a90c8cc0c79fb33f24cbf3fca7b4c556cee)
Tornando al nostro processo di Bernoulli:

Sappiamo che

è indipendente da

e di conseguenza da

.
La formula di disintegrazione di
:

ci dà quindi:
![{\displaystyle p\cdot E[N]=E[S_{N}]=E\left[I_{\{N<\infty \}}\right]=P\{N<\infty \}\Rightarrow E[N]<\infty }](//restbase.wikitolearn.org/it.wikitolearn.org/v1/media/math/render/svg/1d85df1f15d1ee9e6b91cba2e4f1322f0bdbfe51)
Possiamo finalmente concludere che
![{\displaystyle E[N]={\frac {1}{p}}}](//restbase.wikitolearn.org/it.wikitolearn.org/v1/media/math/render/svg/927f3dac4430a931a0124d6b2986c4099ca2f26e)
.
Densità rispetto alla misura di Borel-Lebesgue su R[modifica | modifica wikitesto]
Siano
e
.
L'unica legge su
che sia concentrata su
e la cui densità sia ivi costante è

ovvero la
ripartizione uniforme sull'insieme

, che

vale

- ↑ In realtà è sufficiente supporre che
,
sia indipendente da
.