@@ -221,10 +221,10 @@ export default function Statistica() {
Un
esempio: {r`E \in \mathcal{F} \implies \mathcal{F} = \{ \emptyset, E, \bar{E}, \Omega \}`}
-
+
-
+
"la partizione e composta da e uno, e due, e tre..."
@@ -246,26 +246,26 @@ export default function Statistica() {
Se lo spazio campionario fosse una torta, una sua partizione sarebbe l'insieme delle
fette di uno dei modi in cui si potrebbe tagliare.
-
+
-
+
La probabilità di un evento è un numero tra 0 e 1.
{r`\forall E \in \mathcal{F}, 0 \leq P(E) \leq 1`}
-
-
+
+
La probabilità dello spazio campionario è sempre 1.
{r`P(\Omega) = 1`}
-
-
+
+
La probabilità dell'unione di eventi indipendenti è uguale alla somma delle loro
probabilità.
@@ -273,10 +273,10 @@ export default function Statistica() {
La probabilità di un evento negato è uguale a 1 meno la probabilità dell'evento non
negato.
@@ -284,8 +284,8 @@ export default function Statistica() {
{r`P(\bar{E}) = 1 - P({E})`}
-
-
+
+
La probabilità di un evento incluso in un altro è sempre minore o uguale alla
probabilità dell'evento in cui è incluso.
@@ -293,8 +293,8 @@ export default function Statistica() {
{r`F \subseteq E \implies P(F) \leq P(E)`}
-
-
+
+
La probabilità di un evento unito a un altro è uguale alla somma delle probabilità dei
due eventi meno la probabilità della loro intersezione.
@@ -306,10 +306,10 @@ export default function Statistica() {
Sommando le probabilità dei due eventi, l'intersezione viene contata due volte, e va
quindi rimossa!
-
+
-
+
Spazi campionari in cui ci sono un numero finito di esiti e ogni esito ha la stessa
probabilità di verificarsi.
@@ -317,16 +317,16 @@ export default function Statistica() {
{r`P(E) = \frac{len(E)}{len(\Omega)}`}
-
-
+
+
Gli spazi campionari possono avere un numero infinito di esiti: sono equiprobabili
geometrici se nessun esito è privilegiato rispetto agli altri.
-
+
-
+
Estraggo un numero, da un sacchetto con n numeri, mi segno che numero ho
estratto e lo tengo fuori dal sacchetto. Ripeto per k volte.
@@ -337,8 +337,8 @@ export default function Statistica() {
{r`\boldsymbol{D}_{n, k} = \frac{n!}{(n - k)!}`}
-
-
+
+
Estraggo un numero, da un sacchetto con n numeri, mi segno che numero ho
estratto e lo rimetto nel sacchetto. Ripeto per k volte.
@@ -349,8 +349,8 @@ export default function Statistica() {
{r`\boldsymbol{D}^{r}_{n, k} = n^k`}
-
-
+
+
Estraggo un numero, da un sacchetto con n numeri, mi segno che numero ho
estratto e lo tengo fuori dal sacchetto. Ripeto per k volte.
@@ -361,8 +361,8 @@ export default function Statistica() {
Estraggo un numero, da un sacchetto con n numeri, mi segno che numero ho
estratto e lo rimetto nel sacchetto. Ripeto per k volte.
@@ -373,18 +373,18 @@ export default function Statistica() {
{r`\boldsymbol{C}^{r}_{n, k} = \binom{n + k - 1}{k} = \frac{(n + k - 1)!}{(k)! \cdot (n - 1)!}`}
-
-
+
+
Estraggo n numeri e guardo in quanti ordini diversi li posso mettere.
{r`\boldsymbol{P}_n = n!`}
-
+
-
+
"E dato F"
@@ -398,8 +398,8 @@ export default function Statistica() {
Ricorda vagamente le pipe di bash, però al contrario...
-
-
+
+
Se due eventi sono mutualmente esclusivi, entrambe le loro probabilità condizionate
saranno uguali a 0.
@@ -407,10 +407,10 @@ export default function Statistica() {
Si può sfruttare la formula inversa della probabilità condizionata per calcolare catene
di intersezioni:
@@ -418,10 +418,10 @@ export default function Statistica() {
La probabilità che si verifichi un evento è pari alla somma delle probabilità
dell'evento stesso dati tutti gli eventi di una partizione.
@@ -429,8 +429,8 @@ export default function Statistica() {
{r`P(F) = \sum_{i} P(F|E_i) \cdot P(E_i)`}
-
-
+
+
La legge delle alternative funziona anche quando ad essere partizionato è
un evento:
@@ -438,8 +438,8 @@ export default function Statistica() {
Tramite la formula di Bayes possiamo risalire alla probabilità di un evento
condizionato a un altro partendo dalla probabilità di quest'ultimo condizionato al
@@ -451,10 +451,10 @@ export default function Statistica() {
In pratica, invertiamo gli eventi.
-
+
-
+
"eventi indipendenti a due a due"
@@ -465,8 +465,8 @@ export default function Statistica() {
"eventi indipendenti a tre a tre, a quattro a quattro, a cinque a cinque..."
@@ -480,8 +480,8 @@ export default function Statistica() {
Eventi indipendenti a due a due non sono per forza indipendenti a tre a tre, e
viceversa.
-
-
+
+
Un insieme di n eventi è una famiglia di eventi indipendenti se,
preso un qualsiasi numero di eventi da essa, essi risulteranno indipendenti.
@@ -490,16 +490,16 @@ export default function Statistica() {
Tutti gli eventi provenienti da essa saranno indipendenti sia a due a due, sia a tre a
tre, sia a quattro a quattro, e così via!
-
+
-
+
Una funzione che fa corrispondere un numero reale a ogni possibile esito dello spazio
campionario. {r`X(\omega) : \Omega \to \mathbb{R}`}.
-
- Insieme di ripartizione}>
+
+ Insieme di ripartizione}>
Ad ogni variabile aleatoria sono associati gli
eventi {r`A_t = \{ \omega | X(\omega) \leq t \}`}, che contengono tutti
@@ -515,8 +515,8 @@ export default function Statistica() {
All'aumentare di t, l'insieme conterrà sempre più elementi.
-
-
+
+
"supporto di X"
@@ -527,10 +527,10 @@ export default function Statistica() {
Per indicare che un valore x_0 appartiene al supporto di X,
si usa la notazione X \mapsto x_0.
-
+
-
+
La funzione probabilità{r`p_X : X \to [0, 1]`} di una variabile
aleatoria discretaX è la funzione che associa ad ogni esito la
@@ -544,8 +544,8 @@ export default function Statistica() {
\end{cases}
`}
-
-
+
+
La funzione densità{r`f_X : X \to [0, 1]`} di una variabile
aleatoria continuaX è l'equivalente continuo della funzione
@@ -561,10 +561,10 @@ export default function Statistica() {
Rappresenta "quanta" probabilità c'è in un'unità di x!
-
+
-
+
Ogni variabile aleatoria ha una funzione di ripartizione{r`F_X : \mathbb{R} \to [0, 1]`} associata, che rappresenta la
@@ -583,8 +583,8 @@ export default function Statistica() {
\end{cases}
`}
Possiamo usare la funzione di ripartizione per calcolare la probabilità di un certo
valore reale:
@@ -603,33 +603,33 @@ export default function Statistica() {
Trasformare variabili aleatorie è molto utile nell'informatica per creare distribuzioni
partendo da una funzione random() che
restituisce numeri da 0 a 1 con una distribuzione lineare.
-
+
-
+
Ogni variabile aleatoria che ha una funzione di ripartizione e un supporto
finito ha anche una media (o valore medio o atteso):
@@ -649,15 +649,15 @@ export default function Statistica() {
{r`E(X) = \int_{-\infty}^{+\infty} f_X (x) \cdot x \cdot dx`}
-
+
-
+
Valore per cui la funzione probabilità o funzione densità è massima.
-
-
+
+
Il quantile{r`x_{\alpha}`} di
ordine {r`0 \leq \alpha \leq 1`} della variabile
@@ -680,8 +680,8 @@ export default function Statistica() {
I quantili di ordine {r`\frac{n}{100}`} sono detti n-esima
percentile.
-
-
+
+
È un valore che indica quanto la variabile aleatoria si discosta generalmente dalla
media:
@@ -689,10 +689,10 @@ export default function Statistica() {
@@ -729,10 +729,10 @@ export default function Statistica() {
Serve per semplificare i calcoli quando la funzione di ripartizione è difficile da
calcolare!
-
+
-
+
Il momentok-esimo di una variabile aleatoria è:
@@ -748,8 +748,8 @@ export default function Statistica() {
La media di una variabile aleatoria è anche il suo primo momento.
-
-
+
+
La funzione generatrice dei momenti è:
@@ -763,8 +763,8 @@ export default function Statistica() {
E' la trasformata di Laplace della variabile aleatoria di X.
-
-
+
+
La funzione caratteristica è:
@@ -778,32 +778,32 @@ export default function Statistica() {
E' la trasformata di Fourier della variabile aleatoria di X.
-
+
-
+
Per dire che una variabile ha una certa distribuzione, si usa la notazione:
{r`X \sim Distribuzione()`}
-
-
+
+
Una prova con solo due possibili
esiti: successo e insuccesso.
-
-
+
+
Una sequenza di prove di Bernoulli per le quali le probabilità di successo e fallimento
rimangono invariate.
-
+
-
+
Una variabile aleatoria che rappresenta una prova di Bernoulli:
@@ -814,8 +814,8 @@ export default function Statistica() {
Una variabile aleatoria che conta il numero di successi di n prove di uno
schema di Bernoulli.
@@ -839,16 +839,16 @@ export default function Statistica() {
La funzione generatrice dei momenti della binomiale è:
@@ -867,10 +867,10 @@ export default function Statistica() {
{r`Var(X) = n \cdot p \cdot q`}
-
+
-
+
Una variabile aleatoria che conta il numero di prove in uno schema di Bernoulli fino
alla comparsa del primo successo.
@@ -878,16 +878,16 @@ export default function Statistica() {
Il suo simbolo è Geo(p).
-
-
+
+
La geometrica ha come densità:
{r`f_X (k) : \mathbb{N} = q^{k - 1} p`}
-
-
+
+
La funzione generatrice dei momenti della geometrica è:
@@ -906,8 +906,8 @@ export default function Statistica() {
{r`Var(X) = \frac{q}{p^2}`}
-
-
+
+
La geometrica non tiene conto degli eventi avvenuti in passato: ha la proprietà
dell'assenza di memoria:
@@ -919,10 +919,10 @@ export default function Statistica() {
Ovvero, riscalando opportunamente l'asse Y posso prendere come 0 qualsiasi punto
dell'asse X.
-
+
-
+
Una variabile aleatoria che conta il numero di prove in uno schema di Bernoulli
necessarie perchè si verifichi l'n-esimo successo.
@@ -930,16 +930,16 @@ export default function Statistica() {
La funzione generatrice dei momenti della binomiale negativa è:
@@ -960,10 +960,10 @@ export default function Statistica() {
{r`Var(X) = \frac{n \cdot q}{p^2}`}
-
+
-
+
Una variabile aleatoria che conta il numero k di insuccessi consecutivi
in uno schema di Bernoulli:
@@ -971,16 +971,16 @@ export default function Statistica() {
Il suo simbolo rimane {r`Geo(p)`}.
-
-
+
+
La geometrica traslata ha come densità:
{r`f_X (k) : \mathbb{N} = p \cdot q^k `}
-
-
+
+
La funzione generatrice dei momenti della geometrica traslata è:
@@ -999,8 +999,8 @@ export default function Statistica() {
{r`Var(X) = \frac{q}{p^2}`}
-
-
+
+
La geometrica traslata non tiene conto degli eventi avvenuti in passato: ha la proprietà
dell'assenza di memoria:
@@ -1012,10 +1012,10 @@ export default function Statistica() {
Ovvero, riscalando opportunamente l'asse Y posso prendere come 0 qualsiasi punto
dell'asse X.
-
+
-
+
Una variabile aleatoria che conta il numero di insuccessi in uno schema di Bernoulli
prima che si verifichi l'n-esimo successo.
@@ -1023,16 +1023,16 @@ export default function Statistica() {
La funzione generatrice dei momenti della binomiale negativa traslata è:
@@ -1053,10 +1053,10 @@ export default function Statistica() {
{r`Var(X) = \frac{n \cdot q}{p^2}`}
-
+
-
+
Una variabile aleatoria che, sapendo il numero di successi K e di
insuccessi N-K, conta quanti successi si otterrebbero se se ne
@@ -1065,16 +1065,16 @@ export default function Statistica() {
La funzione generatrice dei momenti della ipergeometrica è trascurabile.
@@ -1092,10 +1092,10 @@ export default function Statistica() {
{r`Var(X) = n \cdot \frac{K}{N} \cdot \frac{N - K}{N} \cdot \frac{N - n}{N - 1}`}
-
+
-
+
Una variabile aleatoria che soddisfa tutte le seguenti caratteristiche:
@@ -1108,16 +1108,16 @@ export default function Statistica() {
La funzione generatrice dei momenti della poissoniana è:
@@ -1144,10 +1144,10 @@ export default function Statistica() {
{r`E(X^2) = \mu^2 + \mu`}
-
+
-
+
Una successione di arrivi avvenuti in un certo arco temporale che:
@@ -1156,8 +1156,8 @@ export default function Statistica() {
hanno intensità {r`\lambda`} costante.
avvengono indipendentemente gli uni dagli altri.
-
-
+
+
Una variabile aleatoria N_t che conta il numero di arrivi di uno schema
di Poisson di intensità {r`\lambda`} in un intervallo di tempo di
@@ -1171,10 +1171,10 @@ export default function Statistica() {
E' paragonabile a una bernoulliana: ogni successo corrisponde a un arrivo, mentre il
tempo è il numero di prove effettuate (ma nel continuo).
-
+
-
+
Una variabile aleatoria che conta il tempo diwidehattesa prima del primo arrivo di un
processo di Poisson di intensità {r`\lambda`}.
@@ -1182,8 +1182,8 @@ export default function Statistica() {
La funzione generatrice dei momenti dell'esponenziale è:
@@ -1226,8 +1226,8 @@ export default function Statistica() {
{r`Var(X) = \frac{1}{\lambda^2}`}
-
-
+
+
L'esponenziale non tiene conto degli eventi avvenuti in passato: ha la proprietà
dell'assenza di memoria:
@@ -1239,10 +1239,10 @@ export default function Statistica() {
Ovvero, riscalando opportunamente l'asse Y posso prendere come 0 qualsiasi punto
dell'asse X.
-
+
-
+
Una variabile aleatoria che conta il tempo diwidehattesa prima dell'n-esimo
arrivo di un processo di Poisson di intensità {r`\lambda`}.
@@ -1250,8 +1250,8 @@ export default function Statistica() {
La funzione generatrice dei momenti della legge gamma è:
@@ -1285,10 +1285,10 @@ export default function Statistica() {
{r`Var(X) = \frac{\alpha}{\lambda^2}`}
-
+
-
+
Una variabile aleatoria che può assumere qualsiasi valore in un
intervallo {r`[a, b]`} in modo equiprobabile.
@@ -1302,8 +1302,8 @@ export default function Statistica() {
La funzione generatrice dei momenti della distribuzione uniforme è:
@@ -1349,10 +1349,10 @@ export default function Statistica() {
{r`Var(X) = \frac{(b - a)^2}{12}`}
-
+
-
+
Una variabile aleatoria con una specifica distribuzione.
@@ -1363,16 +1363,16 @@ export default function Statistica() {
\mu e \sigma^2 sono rispettivamente la media e la varianza
della distribuzione!
-
-
+
+
La funzione generatrice dei momenti della distribuzione normale è:
@@ -1393,18 +1393,18 @@ export default function Statistica() {
{r`Var(X) = \sigma^2`}
-
+
-
+
Qualsiasi normale può essere trasformata in qualsiasi altra normale:
{r`X \sim Nor(m, v^2) \implies \alpha X + \beta \sim Nor(\alpha m + \beta, (\alpha v)^2)`}
-
-
+
+
La distribuzione normale standard Z è:
@@ -1417,8 +1417,8 @@ export default function Statistica() {
Da un quantile {r`z_\alpha`} della normale standard è possibile risalire
allo stesso quantile di qualsiasi altra normale:
@@ -1426,18 +1426,18 @@ export default function Statistica() {
La binomiale è come una ipergeometrica ma con ripetizioni, quindi per valori molto
grandi di N rispetto a n, si può dire che:
@@ -1472,8 +1472,8 @@ export default function Statistica() {
{r`Ipe(N, K, n) \approx Bin(n, \frac{K}{N})`}
-
-
+
+
La binomiale non è altro che una poissoniana a tempo discreto, quindi,
se n è grande e n \cdot p è nell'ordine di grandezza delle
@@ -1482,8 +1482,8 @@ export default function Statistica() {
{r`Bin(n, p) \approx Poi(n \cdot p)`}
-
-
+
+
Per il Teorema di De Moivre-Laplace, se una binomiale ha una n grande
e p non vicina a 0 o 1, si può approssimare con:
@@ -1491,8 +1491,8 @@ export default function Statistica() {
{r`Bin(n, p) \approx Nor(n \cdot p, n \cdot p \cdot q)`}
-
-
+
+
Passando da una variabile discreta X a una continua Y, per
ogni valore discreto k la probabilità viene "spalmata" su tutto
@@ -1504,10 +1504,10 @@ export default function Statistica() {
{r`P(X \geq k) \simeq P(Y \geq k - \frac{1}{2})`}
{r`P(X > k) \simeq P(Y \geq k + \frac{1}{2})`}
-
+
-
+
Un vettore composto da variabili aleatorie.
@@ -1515,8 +1515,8 @@ export default function Statistica() {
Il suo simbolo generalmente
è {r`\boldsymbol{X}`} oppure {r`X, Y`}.
-
-
+
+
I vettori aleatori hanno più funzioni di ripartizione che si differenziano in base al
numero di parametri.
@@ -1535,8 +1535,8 @@ export default function Statistica() {
I vettori aleatori discreti hanno più densità che si differenziano in base al
numero di parametri.
@@ -1555,10 +1555,10 @@ export default function Statistica() {
{r`p_X (x) = \sum_j p_{X, Y} (x_i, y_j)`}
-
+
-
+
Più variabili aleatorie sono indipendenti se, per qualsiasi scelta di
intervalli A_i:
@@ -1566,8 +1566,8 @@ export default function Statistica() {
E' possibile calcolare la media di qualsiasi funzione g(X, Y) avente
elementi del vettore come variabili:
@@ -1584,10 +1584,10 @@ export default function Statistica() {
{r`E(X + Y) = E(X) + E(Y)`}
-
+
-
+
Un operatore che misura la correlazione di due variabili aleatorie.
@@ -1609,8 +1609,8 @@ export default function Statistica() {
E' distributiva: {r`Cov(X + Y, V + W) = Cov(X, Y) + Cov(X, W) + Cov(Y, V) + Cov(Y, W)`}
-
-
+
+
Due variabili sono variabili incorrelate se:
@@ -1620,8 +1620,8 @@ export default function Statistica() {
Variabili indipendenti sono sempre incorrelate.
-
-
+
+
Una matrice {r`\boldsymbol{C_X}`} che contiene la covarianza tra tutte le
variabili di un vettore aleatorio {r`\boldsymbol{X}`}:
@@ -1640,8 +1640,8 @@ export default function Statistica() {
E' sempre simmetrica e semidefinita positiva (tutti gli autovalori sono \geq
0.
-
-
+
+
Un valore che misura come due variabili aleatorie sono correlate:
@@ -1660,8 +1660,8 @@ export default function Statistica() {
{r`Y = a X + b \Longleftrightarrow | \rho_{X, Y} | = 1`}
-
-
+
+
La varianza di due variabili aleatorie sommate è:
@@ -1679,10 +1679,10 @@ export default function Statistica() {
Una n-pla di variabili aleatorie con la stessa distribuzione della variabile
aleatoria X ("popolazione") ma indipendenti tra loro.
@@ -1691,8 +1691,8 @@ export default function Statistica() {
Le variabili aleatorie sono come un lazy-load in programmazione; quando ci sarà bisogno
del loro valore numerico, esse si realizzeranno nel loro valore.
-
-
+
+
Il valore dato dalla media aritmetica degli n elementi del campione
elevati alla potenza k:
@@ -1704,8 +1704,8 @@ export default function Statistica() {
Il momento campionario di primo ordine è la media campionaria{r`\overline{X}_n`}.
-
-
+
+
La media aritmetica dello scarto quadratico medio degli elementi del campione.
@@ -1721,10 +1721,10 @@ export default function Statistica() {
Se calcoliamo la media della media campionaria, risulterà vero che:
@@ -1734,8 +1734,8 @@ export default function Statistica() {
Quindi, è possibile usare i campioni per trovare la media di una variabile aleatoria!
-
-
+
+
Se calcoliamo la varianza della media campionaria, risulterà vero che:
@@ -1745,8 +1745,8 @@ export default function Statistica() {
Quindi, possiamo stimare l'errore della media calcolata tramite campioni!
-
-
+
+
Se calcoliamo la media della varianza campionaria, risulterà vero che:
@@ -1756,24 +1756,24 @@ export default function Statistica() {
Quindi, possiamo stimare l'errore della media calcolata tramite campioni!
-
+
-
+
Se la popolazione X ha una distribuzione normale
({r`X \sim Nor(\mu, \sigma^2)`})...
-
-
+
+
...allora sappiamo anche la distribuzione della media campionaria!
{r`\overline{X}_n \sim Nor \left( \mu, \frac{\sigma^2}{n} \right)`}
-
-
+
+
...e anche della varianza campionaria!
@@ -1783,15 +1783,15 @@ export default function Statistica() {
...e che media campionaria e varianza campionaria sono indipendenti tra loro!
-
+
-
+
Se la successione di variabili aleatorie X_n all'infinito ha la stessa
funzione di ripartizione della popolazione X, allora essa converge
@@ -1800,8 +1800,8 @@ export default function Statistica() {
Se la successione di variabili aleatorie X_n all'infinito ha la stessa
probabilità della popolazione X, allora essa converge in
@@ -1810,8 +1810,8 @@ export default function Statistica() {
Se la successione di variabili aleatorie X_n all'infinito ha la stessa
probabilità a della popolazione X, allora essa converge quasi
@@ -1820,8 +1820,8 @@ export default function Statistica() {
Se la successione di variabili aleatorie X_n all'infinito ha la media
del quadrato della distanza tra la successione e la popolazione Xuguale
@@ -1830,8 +1830,8 @@ export default function Statistica() {
{`X_n \\xrightarrow{p} x \\Longleftrightarrow X_n \\xrightarrow{d} x`}
-
+
-
+
La successione delle medie campionarie {r`\overline{X}_n`}converge in
probabilità alla media della popolazione {r`E(X)`}, se essa esiste.
@@ -1866,8 +1866,8 @@ export default function Statistica() {
La successione delle medie campionarie {r`\overline{X}_n`}converge
quasi certamente alla media della popolazione {r`E(X)`}, se essa
@@ -1885,10 +1885,10 @@ export default function Statistica() {
Dimostra che l'interpretazione frequentista della probabilità è valida!
-
+
-
+
La successione delle medie campionarie {r`\overline{X}_n`}converge in
distribuzione a {r`Nor(0, 1) = \Phi()`}.
@@ -1902,57 +1902,57 @@ export default function Statistica() {
{r`\forall x \in \mathbb{R}, \lim_{n \to +\infty} P \left( \frac{\overline{X}_n - E(X)}{\sqrt{\frac{Var(X)}{n}}} \leq x \right) = \Phi(x)`}
-
+
-
+
E' una somma di bernoulliane, e quindi si approssima a una normale:
{r`Bin(n, p) \approx Nor(n \cdot p, n \cdot p \cdot q)`}
-
-
+
+
E' una somma di geometriche, e quindi si approssima a una normale:
E' una somma di altre poissoniane, e quindi si approssima a una normale:
{r`Poi(\lambda) \approx Nor(\lambda, \lambda)`}
-
-
+
+
E' una somma di esponenziali, e quindi si approssima a una normale:
{r`\Gamma (\alpha, \lambda) \approx Nor \left( \frac{\alpha}{\lambda}, \frac{\alpha}{\lambda^2} \right)`}
-
-
+
+
Se n è grande, allora:
{r`Y = \sum_{i=1}^{n} X_i`}
-
+
-
+
Per indicare parametri sconosciuti di una legge si usa \theta.
-
-
+
+
Una variabile aleatoria funzione di un campione:
@@ -1963,16 +1963,16 @@ export default function Statistica() {
Ad esempio, sono statistiche media e varianza campionaria, così come il campione
stesso {r`T(\boldsymbol{X}) = \boldsymbol{X}`}.
-
+
-
+
Una statistica T_n ottenuta da n osservazioni, che stimi i
parametri di una legge e sia indipendente da essi.
-
-
+
+
Uno stimatore è corretto se il suo valore atteso coincide con quello dei
parametri che stima:
@@ -1980,8 +1980,8 @@ export default function Statistica() {
{r`E(T_n) = \theta`}
-
-
+
+
Uno stimatore è asintoticamente corretto se, per infinite osservazioni, il suo
valore atteso coincide con quello dei parametri che stima:
@@ -1989,34 +1989,34 @@ export default function Statistica() {
{r`\lim_{n \to +\infty} E(T_n) = \theta`}
-
-
+
+
Uno stimatore è consistente in media quadratica se:
Si può usare il metodo dei momenti per ottenere uno stimatore di una
popolazione X.
@@ -2044,10 +2044,10 @@ export default function Statistica() {
si possono usare i momenti
successivi {r`M_n^2`}, {r`M_n^3`}, {r`M_n^3`}...
-
+
-
+
Si può usare il metodo della massima verosomiglianza per ottenere uno stimatore
di una popolazione X.
@@ -2068,8 +2068,8 @@ export default function Statistica() {
Gli stimatori di massima verosomiglianza sono asintoticamente corretti, consistenti
in probabilità e asintoticamente normali.
-
-
+
+
Gli stimatori di massima verosomiglianza godono delle seguenti proprietà:
@@ -2080,34 +2080,34 @@ export default function Statistica() {
Sono invarianti: {r`\widehat{g(\theta)}_L = g(\widehat{\theta}_L)`}
-
+
-
+
Per il metodo dei momenti oppure per il metodo della massima verosomiglianza:
@@ -2139,10 +2139,10 @@ export default function Statistica() {
Può anche essere unilatero nel caso limiti la stima in una sola direzione,
positiva o negativa.
-
+
-
+
Se conosciamo la varianza di una normale, allora possiamo ricavare velocemente gli
intervalli di confidenza all'\alpha% con queste formule:
@@ -2158,8 +2158,8 @@ export default function Statistica() {
destra: {r`\mu \in \left[ \overline{x}_n - z_{1 - \frac{\alpha}{2}} \cdot \sqrt{\frac{\sigma^2}{n}}, +\infty \right)`}
-
-
+
+
Se non conosciamo la varianza di una normale, allora possiamo ricavare velocemente gli
intervalli di confidenza all'\alpha% con queste formule:
@@ -2179,10 +2179,10 @@ export default function Statistica() {
{r`t_{\alpha, v}`} è un quantile della distribuzione di Student di
parametro v.
-
+
-
+
L'intervallo di confidenza per la proprorzione di una bernoulliana qualsiasi si ottiene
da questa formula:
@@ -2190,10 +2190,10 @@ export default function Statistica() {
L'intervallo di confidenza per la media di una qualsiasi popolazione si ottiene da
questa formula:
@@ -2201,7 +2201,7 @@ export default function Statistica() {