From 22c4a2b594c9a5256ae8ee16114000841b8dc72f Mon Sep 17 00:00:00 2001 From: Stefano Pigozzi Date: Thu, 23 Jan 2020 17:23:27 +0100 Subject: [PATCH] zzz --- src/pages/statistica.js | 174 +++++++++++++++++++++++++++++++++++++++- 1 file changed, 170 insertions(+), 4 deletions(-) diff --git a/src/pages/statistica.js b/src/pages/statistica.js index d784634..c206d77 100644 --- a/src/pages/statistica.js +++ b/src/pages/statistica.js @@ -1389,11 +1389,17 @@ export default class Statistica extends Component { chi-quadro a un grado di libertà

- Esiste una distribuzione Gamma particolare, "molto importante nella Statistica": + Esiste una distribuzione Gamma particolare:

{r`\Gamma (\frac{1}{2}, \frac{1}{2}) = \chi^2 (v = 1)`}

+

+ Più chi-quadro possono essere sommate per aumentare i loro gradi di libertà: +

+

+ {r`\chi^2 (n) + \chi^2 (m) = \chi^2 (n + m)`} +

@@ -1496,8 +1502,14 @@ export default class Statistica extends Component {

- TODO: cos'è la funzione g(X, Y)? + E' possibile calcolare la media di qualsiasi funzione g(X, Y) avente elementi del vettore come variabili:

+

+ {r`E(g(X, Y)) = \sum_{i, j} g(x_i, y_i) \cdot p_{X, Y} (x_i, y_i)`} +

+ + Solitamente si calcola la media di x \cdot y. +

Le medie di più variabili aleatorie si possono sommare:

@@ -1509,7 +1521,10 @@ export default class Statistica extends Component {

- Un operatore che calcola TODO: cosa?: + Un operatore che misura la correlazione di due variabili aleatorie. +

+

+ Si calcola con il valore atteso dei prodotti delle distanze dalla media:

{r`Cov(X, Y) = E((X - E(X) \cdot (Y - E(Y)) = E(XY) - E(X) \cdot E(Y)`} @@ -1551,7 +1566,7 @@ export default class Statistica extends Component { `}

- E' sempre simmetrica e TODO: semidefinita positiva. + E' sempre simmetrica e semidefinita positiva (tutti gli autovalori sono \geq 0.

@@ -1592,6 +1607,157 @@ export default class Statistica extends Component {

+ + +

+ Una n-pla di variabili aleatorie con la stessa distribuzione della variabile aleatoria X ("popolazione") ma indipendenti tra loro. +

+ + Le variabili aleatorie sono come un lazy-load in programmazione; quando ci sarà bisogno del loro valore numerico, esse si realizzeranno nel loro valore. + +
+ +

+ Il valore dato dalla media aritmetica degli n elementi del campione elevati alla potenza k: +

+

+ {r`M^{(k)}_n = \frac{1}{n} \cdot \sum_{i = 1}^n X_i^k `} +

+

+ Il momento campionario di primo ordine è la media campionaria {r`\overline{X}_n`}. +

+
+ +

+ La media aritmetica dello scarto quadratico medio degli elementi del campione. +

+

+ Se è noto il valore medio {r`m = E(X)`} di X: +

+

+ {r`S_0^2 = \frac{1}{n} \cdot \sum_{i = 1}^n (X_i - m)^2 = M_n^(2) - 2 \cdot m \cdot \overline{X}_n + m^2`} +

+

+ Altrimenti: +

+

+ {r`S_n^2 = \frac{1}{n - 1} \cdot \sum_{i = 1}^n (X_i - \overline{X}_n)^2 = \frac{1}{n - 1} \cdot ( n \cdot M_2^{(2)} - n \cdot \overline{X}_n^2)`} +

+
+
+ + +

+ Se calcoliamo la media della media campionaria, risulterà vero che: +

+

+ {r`E(\overline{X}_n) = E(X)`} +

+ + Quindi, è possibile usare i campioni per trovare la media di una variabile aleatoria! + +
+ +

+ Se calcoliamo la varianza della media campionaria, risulterà vero che: +

+

+ {r`Var(\overline{X}_n) = \frac{Var(X)}{n}`} +

+ + Quindi, possiamo stimare l'errore della media calcolata tramite campioni! + +
+ +

+ Se calcoliamo la media della varianza campionaria, risulterà vero che: +

+

+ {r`E(S_0^2) = E(S_n^2) = Var(X)`} +

+ + Quindi, possiamo stimare l'errore della media calcolata tramite campioni! + +
+
+ + +

+ Se la popolazione X ha una distribuzione normale ({r`X \sim Nor(\mu, \sigma^2)`})... +

+

+ TODO: non è nel mio stile +

+
+ +

+ ...allora sappiamo anche la distribuzione della media campionaria! +

+

+ {r`\overline{X}_n \sim Nor \left( \mu, \frac{\sigma^2}{n} \right)`} +

+
+ +

+ ...e anche della varianza campionaria! +

+

+ {r`S_0^2 \sim \frac{\sigma^2}{n} \cdot \chi^2 (n)`} +

+

+ {r`S_n^2 \sim \frac{\sigma^2}{n - 1} \cdot \chi^2 (n-1)`} +

+
+ +

+ ...e che media campionaria e varianza campionaria sono indipendenti tra loro! +

+
+
+ + +

+ TODO: una spiegazione decente +

+

+ {`\\lim_{n \\to +\\infty} F_{X_n} (x) = F_X (x) \\implies X_n \\xrightarrow{d} X`} +

+
+ +

+ TODO: una spiegazione decente +

+

+ {`\\forall \\epsilon > 0, \\lim_{n \\to +\\infty} P( | X_n - X | < \\epsilon) = 1 \\implies X_n \\xrightarrow{p} X`} +

+
+ +

+ TODO: una spiegazione decente +

+

+ {`\\forall \\epsilon > 0, P \left( \\lim_{n \\to +\\infty} | X_n - X | < \\epsilon) \right) = 1 \\implies X_n \\xrightarrow{qc} X`} +

+
+ +

+ TODO: una spiegazione decente +

+

+ {`\\lim_{n \\to +\\infty} E( | X_n - X |^2 = 0 \\implies X_n \\xrightarrow{mq} X`} +

+
+ +

+ {` + \\begin{matrix} + X_n \\xrightarrow{mq} X\\\\ + X_n \\xrightarrow{qc} X + \\end{matrix} \\implies X_n \\xrightarrow{p} X \\implies X_n \\xrightarrow{d} X` + } +

+
+
) }