mirror of
https://github.com/Steffo99/unisteffo.git
synced 2024-11-27 02:14:20 +00:00
2174 lines
93 KiB
XML
2174 lines
93 KiB
XML
import * as Bluelib from '@steffo/bluelib-react'
|
|
import type { NextPage } from 'next'
|
|
import { Link } from '../../../components/link'
|
|
import { Section, Box, r, Latex, Example, Plus, Minus, P, B, I } from "../../../components/compat-old"
|
|
|
|
|
|
const Page: NextPage = () => {
|
|
return <>
|
|
<Bluelib.Heading level={2}>
|
|
<Link href="/year2/statistica">
|
|
Statistica ed elementi di probabilità
|
|
</Link>
|
|
</Bluelib.Heading>
|
|
<Section title={"Tipi di probabilità"}>
|
|
<Box title={"Classica"}>
|
|
<P>
|
|
<Latex>{r`P(E) = \frac{casi\ favorevoli}{casi\ possibili}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Frequentista"}>
|
|
<P>
|
|
<Latex>{r`P(E) = \frac{successi}{prove\ totali}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Soggettiva"}>
|
|
<P>
|
|
Il prezzo che un individuo coerente riterrebbe equo per ricevere <B>1</B> nel caso
|
|
l'evento si verificasse e <B>0</B> nel caso l'evento non si verificasse.
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Linguaggio matematico"}>
|
|
<Box title={"Spazio campionario"}>
|
|
<Bluelib.Dialog>
|
|
"omegone"
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
L'<B>insieme</B> di tutti gli esiti possibili di un esperimento.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\Omega = \left \{ 1, 2, 3, 4, 5, 6 \right \}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Esito"}>
|
|
<Bluelib.Dialog>
|
|
"omeghino"
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
Un <B>elemento</B> dello spazio campionario.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\omega = 1`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Evento"}>
|
|
<Bluelib.Dialog>
|
|
"e"
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
Un <B>sottoinsieme</B> dello spazio campionario.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E = \left \{ 1, 2 \right \}`}</Latex>
|
|
</P>
|
|
<P>
|
|
Lo spazio campionario stesso è un <B>evento certo</B>.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Not"}>
|
|
<Bluelib.Dialog>
|
|
"not e"
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
Il <B>complementare</B> di un sottoinsieme.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\bar{E} = \left \{ 3, 4, 5, 6 \right \}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"And"}>
|
|
<Bluelib.Dialog>
|
|
"e intersecato effe"
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
L'<B>intersezione</B> di più sottoinsiemi.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E \cap F = \left \{ 1 \right \}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Or"}>
|
|
<Bluelib.Dialog>
|
|
"e unito a effe"
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
L'<B>unione</B> di più sottoinsiemi.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E \cup F = \left \{ 1, 2, 3, 4 \right \}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Differenza"}>
|
|
<Bluelib.Dialog>
|
|
"e meno effe"
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
<Latex>{r`E \setminus F = E \cap \bar{F}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Implicazione"}>
|
|
<Bluelib.Dialog>
|
|
"e contenuto in effe"
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
L'<B>inclusione</B> del primo insieme in un altro.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E \subseteq F`}</Latex>
|
|
</P>
|
|
<P>
|
|
Se si verifica <Latex>E</Latex>, allora si verifica anche <Latex>F</Latex>.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Evento impossibile"}>
|
|
<Bluelib.Dialog>
|
|
"e è impossibile"
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
Un sottoinsieme <B>vuoto</B>.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E = \emptyset`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Mutua esclusione"}>
|
|
<Bluelib.Dialog>
|
|
"e ed effe si escludono mutualmente"
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
La <B>disgiunzione</B> di due insiemi.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E \cap F = \emptyset`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section>
|
|
<Box title={"Famiglia degli eventi"}>
|
|
<Bluelib.Dialog>
|
|
"famiglia effe"
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
I sottoinsiemi dello spazio campionario formano una <B>famiglia</B> di sottoinsiemi
|
|
detta <I>famiglia degli eventi</I>.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\mathcal{F}`}</Latex>
|
|
</P>
|
|
<P>
|
|
Qualsiasi sottoinsieme appartenente a <Latex>{r`\mathcal{F}`}</Latex> è considerato un
|
|
evento.
|
|
</P>
|
|
</Box>
|
|
<Box title={<span><Latex>{r`\sigma`}</Latex>-algebra</span>}>
|
|
<Bluelib.Dialog>
|
|
"sigma algebra"
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
Se la famiglia degli eventi soddisfa questi tre requisiti, allora viene
|
|
detta <I><Latex>{r`\sigma`}</Latex>-algebra</I>:
|
|
</P>
|
|
<ol>
|
|
<li>
|
|
Lo spazio campionario è un evento: <Latex>{r`\Omega \in \mathcal{F}`}</Latex>
|
|
</li>
|
|
<li>
|
|
Se un sottoinsieme è un evento, allora anche il suo complementare lo
|
|
è: <Latex>{r`E \in \mathcal{F} \implies \bar{E} \in \mathcal{F}`}</Latex>
|
|
</li>
|
|
<li>
|
|
Se due sottoinsiemi sono eventi, allora lo sono anche la loro unione e
|
|
intersezione: <Latex>{r`(E, F) \in \mathcal{F} \implies (E \cup F, E \cap F) \in \mathcal{F}`}</Latex>
|
|
</li>
|
|
</ol>
|
|
<P>
|
|
Un
|
|
esempio: <Latex>{r`E \in \mathcal{F} \implies \mathcal{F} = \{ \emptyset, E, \bar{E}, \Omega \}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section>
|
|
<Box title={"Partizione"}>
|
|
<Bluelib.Dialog>
|
|
"la partizione e composta da e uno, e due, e tre..."
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
Un insieme di esiti e eventi:
|
|
</P>
|
|
<ul>
|
|
<li><B>Finito</B>.</li>
|
|
<li>In cui tutti gli eventi hanno <B>probabilità diversa da 0</B>.</li>
|
|
<li>In cui tutti gli eventi sono <B>mutualmente esclusivi</B>.</li>
|
|
<li>In cui l'unione di tutti i suoi elementi <B>copre lo spazio campionario</B>.</li>
|
|
</ul>
|
|
<P>
|
|
La partizione <Latex>{r`E_i`}</Latex> è composta dagli
|
|
eventi <Latex>{r`E_1`}</Latex>, <Latex>{r`E_2`}</Latex>, <Latex>{r`E_3`}</Latex>, fino
|
|
a <Latex>{r`E_n`}</Latex>.
|
|
</P>
|
|
<Example>
|
|
Se lo spazio campionario fosse una torta, una sua partizione sarebbe l'insieme delle
|
|
fette di uno dei modi in cui si potrebbe tagliare.
|
|
</Example>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Assiomi della probabilità"}>
|
|
<Box title={"Primo assioma della probabilità"}>
|
|
<P>
|
|
La probabilità di un evento è un numero tra 0 e 1.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\forall E \in \mathcal{F}, 0 \leq P(E) \leq 1`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Secondo assioma della probabilità"}>
|
|
<P>
|
|
La probabilità dello spazio campionario è sempre 1.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P(\Omega) = 1`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Terzo assioma della probabilità"}>
|
|
<P>
|
|
La probabilità dell'unione di eventi indipendenti è uguale alla somma delle loro
|
|
probabilità.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P \left ( \bigcup_i E_i \right ) = \sum_i P ( E_i )`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Conseguenze degli assiomi"}>
|
|
<Box title={"Probabilità di un evento negato"}>
|
|
<P>
|
|
La probabilità di un evento negato è uguale a 1 meno la probabilità dell'evento non
|
|
negato.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P(\bar{E}) = 1 - P({E})`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Probabilità di un evento incluso"}>
|
|
<P>
|
|
La probabilità di un evento incluso in un altro è sempre minore o uguale alla
|
|
probabilità dell'evento in cui è incluso.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`F \subseteq E \implies P(F) \leq P(E)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Unione"}>
|
|
<P>
|
|
La probabilità di un evento unito a un altro è uguale alla somma delle probabilità dei
|
|
due eventi meno la probabilità della loro intersezione.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P(E \cup F) = P(E) + P(F) - P(E \cap F)`}</Latex>
|
|
</P>
|
|
<Example>
|
|
Sommando le probabilità dei due eventi, l'intersezione viene contata due volte, e va
|
|
quindi rimossa!
|
|
</Example>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Spazi equiprobabili"}>
|
|
<Box title={"Cosa sono?"}>
|
|
<P>
|
|
Spazi campionari in cui ci sono un numero finito di esiti e ogni esito ha la stessa
|
|
probabilità di verificarsi.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P(E) = \frac{len(E)}{len(\Omega)}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Spazi equiprobabili geometrici"}>
|
|
<P>
|
|
Gli spazi campionari possono avere un numero infinito di esiti: sono <I>equiprobabili
|
|
geometrici</I> se nessun esito è privilegiato rispetto agli altri.
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Calcolo combinatorio"}>
|
|
<Box title={"Disposizioni"}>
|
|
<P>
|
|
Estraggo un numero, da un sacchetto con <Latex>n</Latex> numeri, mi segno che numero ho
|
|
estratto e lo <B>tengo fuori dal sacchetto</B>. Ripeto per <Latex>k</Latex> volte.
|
|
</P>
|
|
<P>
|
|
<B>Tengo conto</B> dell'ordine in cui ho estratto i numeri.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\boldsymbol{D}_{n, k} = \frac{n!}{(n - k)!}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Disposizioni con ripetizione"}>
|
|
<P>
|
|
Estraggo un numero, da un sacchetto con <Latex>n</Latex> numeri, mi segno che numero ho
|
|
estratto e lo <B>rimetto nel sacchetto</B>. Ripeto per <Latex>k</Latex> volte.
|
|
</P>
|
|
<P>
|
|
<B>Tengo conto</B> dell'ordine in cui ho estratto i numeri.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\boldsymbol{D}^{r}_{n, k} = n^k`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Combinazioni"}>
|
|
<P>
|
|
Estraggo un numero, da un sacchetto con <Latex>n</Latex> numeri, mi segno che numero ho
|
|
estratto e lo <B>tengo fuori dal sacchetto</B>. Ripeto per <Latex>k</Latex> volte.
|
|
</P>
|
|
<P>
|
|
<B>Non mi interessa</B> l'ordine in cui ho estratto i numeri.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\boldsymbol{C}_{n, k} = \binom{n}{k} = \frac{n!}{(k)! \cdot (n - k)!}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Combinazioni con ripetizione"}>
|
|
<P>
|
|
Estraggo un numero, da un sacchetto con <Latex>n</Latex> numeri, mi segno che numero ho
|
|
estratto e lo <B>rimetto nel sacchetto</B>. Ripeto per <Latex>k</Latex> volte.
|
|
</P>
|
|
<P>
|
|
<B>Non mi interessa</B> l'ordine in cui ho estratto i numeri.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\boldsymbol{C}^{r}_{n, k} = \binom{n + k - 1}{k} = \frac{(n + k - 1)!}{(k)! \cdot (n - 1)!}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Permutazioni"}>
|
|
<P>
|
|
Estraggo <Latex>n</Latex> numeri e guardo in quanti ordini diversi li posso mettere.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\boldsymbol{P}_n = n!`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Probabilità condizionata"}>
|
|
<Box title={"Eventi condizionati"}>
|
|
<Bluelib.Dialog>
|
|
"E dato F"
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
La probabilità che si verifichi <Latex>E</Latex> sapendo che <B>si è già verificato</B>
|
|
<Latex>F</Latex>.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P(E|F) = \frac{P(E \cap F)}{P(F)}`}</Latex>
|
|
</P>
|
|
<Example>
|
|
Ricorda vagamente le pipe di <code>bash</code>, però al contrario...
|
|
</Example>
|
|
</Box>
|
|
<Box title={"Eventi mutualmente esclusivi"}>
|
|
<P>
|
|
Se due eventi sono mutualmente esclusivi, entrambe le loro probabilità condizionate
|
|
saranno uguali a 0.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E \cap F = \emptyset \Longleftrightarrow P(E|F) = P(F|E) = 0`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section>
|
|
<Box title={"Regola della catena"}>
|
|
<P>
|
|
Si può sfruttare la formula inversa della probabilità condizionata per calcolare catene
|
|
di intersezioni:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P(E_1 \cap \times \cap E_n) = P(E_1) \times P(E_2 | E_1) \times \dots \times P(E_n | E_1 \cap E_2 \cap \dots \cap E_{n-1})`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Le alternative"}>
|
|
<Box title={"Legge delle alternative"}>
|
|
<P>
|
|
La probabilità che si verifichi un evento è pari alla somma delle probabilità
|
|
dell'evento stesso dati tutti gli eventi di una partizione.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P(F) = \sum_{i} P(F|E_i) \cdot P(E_i)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Legge condizionata delle alternative"}>
|
|
<P>
|
|
La legge delle alternative funziona anche quando ad essere partizionato è
|
|
un <B>evento</B>:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P(F|G) = \sum_i P(F|E_i \cap G) \cdot P(E_i | G)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Formula di Bayes"}>
|
|
<P>
|
|
Tramite la <I>formula di Bayes</I> possiamo risalire alla probabilità di un evento
|
|
condizionato a un altro partendo dalla probabilità di quest'ultimo condizionato al
|
|
primo:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P(E_h | F) = \frac{P(F | E_h) \cdot P(E_h)}{P(F)}`}</Latex>
|
|
</P>
|
|
<Example>
|
|
In pratica, invertiamo gli eventi.
|
|
</Example>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Eventi indipendenti"}>
|
|
<Box title={"Due eventi indipendenti"}>
|
|
<Bluelib.Dialog>
|
|
"eventi indipendenti a due a due"
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
Se due eventi sono indipendenti, sapere che uno dei due si è verificato non influisce
|
|
sulle probabilità che si sia verificato l'altro.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P(E \cap F) = P(E) \cdot P(F) \Longleftrightarrow P(E|F) = P(E) \Longleftrightarrow P(F|E) = P(F)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Più eventi indipendenti"}>
|
|
<Bluelib.Dialog>
|
|
"eventi indipendenti a tre a tre, a quattro a quattro, a cinque a cinque..."
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
Si può verificare l'indipendenza di più eventi alla volta:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P(E \cap F \cap G) = P(E) \cdot P(F) \cdot P(G)`}</Latex>
|
|
</P>
|
|
<P>
|
|
Eventi indipendenti a due a due non sono per forza indipendenti a tre a tre, e
|
|
viceversa.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Famiglia di eventi indipendenti"}>
|
|
<P>
|
|
Un insieme di <Latex>n</Latex> eventi è una <I>famiglia di eventi indipendenti</I> se,
|
|
preso un qualsiasi numero di eventi da essa, essi risulteranno indipendenti.
|
|
</P>
|
|
<Example>
|
|
Tutti gli eventi provenienti da essa saranno indipendenti sia a due a due, sia a tre a
|
|
tre, sia a quattro a quattro, e così via!
|
|
</Example>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Variabili aleatorie"}>
|
|
<Box title={"Variabile aleatoria"}>
|
|
<P>
|
|
Una funzione che fa corrispondere un numero reale a ogni possibile esito dello spazio
|
|
campionario. <Latex>{r`X(\omega) : \Omega \to \mathbb{R}`}</Latex>.
|
|
</P>
|
|
</Box>
|
|
<Box title={<abbr title={"Nome artigianale dato da Steffo."}>Insieme di ripartizione</abbr>}>
|
|
<P>
|
|
Ad ogni variabile aleatoria sono associati gli
|
|
eventi <Latex>{r`A_t = \{ \omega | X(\omega) \leq t \}`}</Latex>, che contengono tutti
|
|
gli esiti a cui la variabile aleatoria associa un valore minore o uguale
|
|
a <Latex>t</Latex>.
|
|
</P>
|
|
<P>
|
|
Per definizione, tutte le variabili aleatorie devono rispettare questa condizione:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\forall t \in \mathbb{R}, A_t \in \mathcal{F}`}</Latex>
|
|
</P>
|
|
<Example>
|
|
All'aumentare di t, l'insieme conterrà sempre più elementi.
|
|
</Example>
|
|
</Box>
|
|
<Box title={"Supporto"}>
|
|
<Bluelib.Dialog>
|
|
"supporto di X"
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
Il <B>codominio</B> della variabile aleatoria è il suo <I>supporto</I>.
|
|
</P>
|
|
<P>
|
|
Per indicare che un valore <Latex>x_0</Latex> appartiene al supporto di <Latex>X</Latex>,
|
|
si usa la notazione <Latex>X \mapsto x_0</Latex>.
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Densità"}>
|
|
<Box title={"Funzione probabilità"}>
|
|
<P>
|
|
La <I>funzione probabilità</I> <Latex>{r`p_X : X \to [0, 1]`}</Latex> di una variabile
|
|
aleatoria <B>discreta</B> <Latex>X</Latex> è la funzione che associa ad ogni esito la
|
|
sua probabilità:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`
|
|
p_X (x) = \begin{cases}
|
|
P([X = x]) \quad se\ X \mapsto x \\
|
|
0 \qquad \qquad \quad se\ X \not\mapsto x
|
|
\end{cases}
|
|
`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Funzione densità"}>
|
|
<P>
|
|
La <I>funzione densità</I> <Latex>{r`f_X : X \to [0, 1]`}</Latex> di una variabile
|
|
aleatoria <B>continua</B> <Latex>X</Latex> è l'equivalente continuo della funzione
|
|
probabilità:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P([a < X \leq b]) = \int_a^b f_X (x) dx`}</Latex>
|
|
</P>
|
|
<P>
|
|
A differenza della funzione probabilità, è possibile che la funzione densità <B>non
|
|
esista</B> per una certa variabile aleatoria.
|
|
</P>
|
|
<Example>
|
|
Rappresenta "quanta" probabilità c'è in un'unità di x!
|
|
</Example>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Funzione di ripartizione"}>
|
|
<Box title={"Definizione"}>
|
|
<P>
|
|
Ogni variabile aleatoria ha una <I>funzione di ripartizione</I>
|
|
<Latex>{r`F_X : \mathbb{R} \to [0, 1]`}</Latex> associata, che rappresenta la
|
|
probabilità che la variabile aleatoria assuma un valore minore o uguale
|
|
a <Latex>t</Latex>:
|
|
</P>
|
|
<P>
|
|
Si può dire che essa rappresenti la probabilità dell'evento <Latex>{r`A_t`}</Latex>:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`
|
|
F_X (t) = P(A_t) = \begin{cases}
|
|
\sum_{i = 0}^{t} p_X (x_i) \quad nel\ discreto\\
|
|
\\
|
|
\int_{-\infty}^t f_X (x) dx \quad nel\ continuo
|
|
\end{cases}
|
|
`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Proprietà della funzione"}>
|
|
<ul>
|
|
<li>È sempre <B>monotona crescente</B> (non strettamente).</li>
|
|
<br />
|
|
<li>Vale <B>0</B> a <Latex>-\infty</Latex> e <B>1</B> a <Latex>+\infty</Latex>.</li>
|
|
<br />
|
|
<li>È <B>continua da
|
|
destra</B>: <Latex>{r`\forall x_0 \in \mathbb{R}, F_X (x_0) = \lim_{t \to x^+_0} F_X (t)`}</Latex>
|
|
</li>
|
|
</ul>
|
|
</Box>
|
|
<Box title={"Probabilità di un valore"}>
|
|
<P>
|
|
Possiamo usare la funzione di ripartizione per calcolare la probabilità di un certo
|
|
valore reale:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P([X = x_0]) = \lim_{t \to x^+_0} F_X (t) - \lim_{t \to x^-_0} F_X (t)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Trasformazioni di variabili aleatorie"}>
|
|
<Box title={"Nel discreto"}>
|
|
<P>
|
|
Nel discreto basta abbinare un nuovo valore a ogni valore della variabile originale.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Nel continuo (invertibile)"}>
|
|
<P>
|
|
Nel continuo applichiamo la formula dell'integrazione per sostituzione:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`f_Y (y) = \int_{g(a)}^{g(b)} f_X ( g^{-1} (x) ) g^{-2} (x)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Nel... digitale"}>
|
|
<P>
|
|
Trasformare variabili aleatorie è molto utile nell'informatica per creare distribuzioni
|
|
partendo da una funzione <a
|
|
href={"https://docs.python.org/3/library/random.html#random.random"}><code>random()</code></a> che
|
|
restituisce numeri da 0 a 1 con una distribuzione lineare.
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Informazioni delle variabili aleatorie"}>
|
|
<Box title={"Media"}>
|
|
<P>
|
|
Ogni variabile aleatoria che ha una <B>funzione di ripartizione</B> e un <B>supporto
|
|
finito</B> ha anche una <I>media</I> (o <I>valore medio</I> o <I>atteso</I>):
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(X) = \int_0^{+infty} (1 - F_X (t)) dt - \int_{-\infty}^{0} F_X (t) dt`}</Latex>
|
|
</P>
|
|
<P>
|
|
Nel discreto, si può calcolare con:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(X) = \sum_i P(X = x_i) \cdot x_i`}</Latex>
|
|
</P>
|
|
<P>
|
|
Nel continuo, si può calcolare con:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(X) = \int_{-\infty}^{+\infty} f_X (x) \cdot x \cdot dx`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section>
|
|
<Box title={"Moda"}>
|
|
<P>
|
|
Valore per cui la <B>funzione probabilità</B> o <B>funzione densità</B> è <B>massima</B>.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Quantili"}>
|
|
<P>
|
|
Il <I>quantile</I> <Latex>{r`x_{\alpha}`}</Latex> di
|
|
ordine <Latex>{r`0 \leq \alpha \leq 1`}</Latex> della variabile
|
|
aleatoria <Latex>X</Latex> è il più piccolo numero tale che:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P([X < x_{\alpha}]) \leq \alpha \leq P([X \leq x_{\alpha}])`}</Latex>
|
|
</P>
|
|
<P>
|
|
|
|
</P>
|
|
<P>
|
|
Il quantile di ordine 0.5 <Latex>{r`x_{0.5}`}</Latex> è detto <I>mediana</I>.
|
|
</P>
|
|
<P>
|
|
I quantili di ordine 0.25 <Latex>{r`x_{0.25}`}</Latex> e
|
|
0.75 <Latex>{r`x_{0.75}`}</Latex> sono detti <I>quartili</I>.
|
|
</P>
|
|
<P>
|
|
I quantili di ordine <Latex>{r`\frac{n}{100}`}</Latex> sono detti <I><Latex>n</Latex>-esima
|
|
percentile</I>.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Varianza"}>
|
|
<P>
|
|
È un valore che indica quanto la variabile aleatoria si discosta generalmente dalla
|
|
media:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Var(X) = E( (X - E(X) )^2 ) = E ( X^2 ) - (E(X))^2`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Disuguaglianze notevoli"}>
|
|
<Box title={"Disuguaglianza di Markov"}>
|
|
<P>
|
|
Data una variabile aleatoria non-negativa:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\forall k > 0, P([X \geq k]) \leq \frac{E(X)}{k}`}</Latex>
|
|
</P>
|
|
<P>
|
|
Divide in due parti (<Latex>{r`P(X < k)`}</Latex> e <Latex>{r`P(X \geq k)`}</Latex>) la
|
|
funzione X, la cui media risulterà uguale a:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(X) = \overline{k} \cdot P(X < k) + k \cdot P(X \geq k)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Disuguaglianza di Čebyšëv"}>
|
|
<Bluelib.Dialog>
|
|
"disuguaglianza di cebicev"
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
Se la variabile aleatoria <Latex>X</Latex> ha media e varianza, allora la probabilità
|
|
che essa abbia un valore a più di <Latex>{r`\epsilon`}</Latex> di distanza dal valore
|
|
medio è minore o uguale a <Latex>{r`\frac{Var(X)}{\epsilon^2}`}</Latex>.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\forall \epsilon > 0, P([ \left| X - E(X) \right| \geq \epsilon]) \leq \frac{Var(X)}{\epsilon^2}`}</Latex>
|
|
</P>
|
|
<P>
|
|
E anche:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\forall \epsilon > 0, P([ \left| X - E(X) \right| < \epsilon]) \geq 1 - \frac{Var(X)}{\epsilon^2}`}</Latex>
|
|
</P>
|
|
<Example>
|
|
Serve per semplificare i calcoli quando la funzione di ripartizione è difficile da
|
|
calcolare!
|
|
</Example>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Un momento...!"}>
|
|
<Box title={"Momento"}>
|
|
<P>
|
|
Il <I>momento</I> <Latex>k</Latex>-esimo di una variabile aleatoria è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`
|
|
\mu_k = E ( X^k ) = \begin{cases}
|
|
\sum_i x_i^k p_X (x_i) \qquad nel\ discreto\\
|
|
\\
|
|
\int_{-\infty}^{+\infty} x^k f_X (x) dx \qquad nel\ continuo
|
|
\end{cases}`
|
|
}</Latex>
|
|
</P>
|
|
<Example>
|
|
La media di una variabile aleatoria è anche il suo primo momento.
|
|
</Example>
|
|
</Box>
|
|
<Box title={"Funzione generatrice dei momenti"}>
|
|
<P>
|
|
La <I>funzione generatrice dei momenti</I> è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`m_X (t) = E( e^{t \cdot X} )`}</Latex>
|
|
</P>
|
|
<P>
|
|
Se due variabile aleatorie hanno la stessa funzione generatrice dei momenti, allora esse
|
|
hanno la <B>stessa distribuzione</B>.
|
|
</P>
|
|
<P>
|
|
E' la <B>trasformata di Laplace</B> della variabile aleatoria di X.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Funzione caratteristica"}>
|
|
<P>
|
|
La <I>funzione caratteristica</I> è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`H_X (t) = E ( e^{i \cdot t \cdot X} )`}</Latex>
|
|
</P>
|
|
<P>
|
|
Se due variabile aleatorie hanno la stessa funzione caratteristica, allora esse hanno
|
|
la <B>stessa distribuzione</B>.
|
|
</P>
|
|
<P>
|
|
E' la <B>trasformata di Fourier</B> della variabile aleatoria di X.
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Prove e schemi"}>
|
|
<Box title={"Variabile con distribuzione"}>
|
|
<P>
|
|
Per dire che una variabile ha una certa distribuzione, si usa la notazione:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`X \sim Distribuzione()`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Prova di Bernoulli"}>
|
|
<P>
|
|
Una prova con solo due possibili
|
|
esiti: <Plus>successo</Plus> e <Minus>insuccesso</Minus>.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Schema di Bernoulli"}>
|
|
<P>
|
|
Una sequenza di prove di Bernoulli per le quali le probabilità di successo e fallimento
|
|
rimangono invariate.
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Bernoulliana"}>
|
|
<Box title={"Distribuzione bernoulliana"}>
|
|
<P>
|
|
Una variabile aleatoria che rappresenta una prova di Bernoulli:
|
|
</P>
|
|
<ul>
|
|
<li>vale <Plus>1</Plus> in caso di <Plus>successo</Plus>.</li>
|
|
<li>vale <Minus>0</Minus> in caso di <Minus>insuccesso</Minus>.</li>
|
|
</ul>
|
|
<P>
|
|
Il suo simbolo è <Latex>{r`Ber(p)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Densità della bernoulliana"}>
|
|
<P>
|
|
La distribuzione bernoulliana ha come densità:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`
|
|
f_X (k) : \{0, 1\} = \begin{cases}
|
|
p \quad se\ k = 1\\
|
|
q \quad se\ k = 0\\
|
|
0 \quad altrimenti
|
|
\end{cases} = p^x \cdot q^{1 - k}`
|
|
}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Binomiale"}>
|
|
<Box title={"Distribuzione binomiale"}>
|
|
<P>
|
|
Una variabile aleatoria che conta il numero di successi di <Latex>n</Latex> prove di uno
|
|
schema di Bernoulli.
|
|
</P>
|
|
<P>
|
|
Il suo simbolo è <Latex>{r`Bin(n, p)`}</Latex>.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Densità della binomiale"}>
|
|
<P>
|
|
La binomiale ha come densità:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`f_X (k) : \{0..n\} = \binom{n}{k} \cdot p^k \cdot q^{n - k}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Momenti della binomiale"}>
|
|
<P>
|
|
La <B>funzione generatrice dei momenti</B> della binomiale è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`m_X (t) = (q + p \cdot e^t) ^ n`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>media</B> di una binomiale è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(X) = n \cdot p`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>varianza</B> di una binomiale è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Var(X) = n \cdot p \cdot q`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Geometrica"}>
|
|
<Box title={"Distribuzione geometrica"}>
|
|
<P>
|
|
Una variabile aleatoria che conta il numero di prove in uno schema di Bernoulli fino
|
|
alla comparsa del primo successo.
|
|
</P>
|
|
<P>
|
|
Il suo simbolo è <Latex>Geo(p)</Latex>.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Densità della geometrica"}>
|
|
<P>
|
|
La geometrica ha come densità:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`f_X (k) : \mathbb{N} = q^{k - 1} p`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Momenti della geometrica"}>
|
|
<P>
|
|
La <B>funzione generatrice dei momenti</B> della geometrica è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`m_X (t) = \frac{p \cdot e^t}{1 - q \cdot e^t}`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>media</B> della geometrica è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(X) = \frac{1}{p}`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>varianza</B> della geometrica è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Var(X) = \frac{q}{p^2}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Assenza di memoria della geometrica"}>
|
|
<P>
|
|
La geometrica non tiene conto degli eventi avvenuti in passato: ha la proprietà
|
|
dell'assenza di memoria:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P([X = i + j | X > i ]) = P([X = j])`}</Latex>
|
|
</P>
|
|
<Example>
|
|
Ovvero, riscalando opportunamente l'asse Y posso prendere come 0 qualsiasi punto
|
|
dell'asse X.
|
|
</Example>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Binomiale negativa"}>
|
|
<Box title={"Distribuzione binomiale negativa"}>
|
|
<P>
|
|
Una variabile aleatoria che conta il numero di prove in uno schema di Bernoulli
|
|
necessarie perchè si verifichi l'<Latex>n</Latex>-esimo successo.
|
|
</P>
|
|
<P>
|
|
Il suo simbolo è <Latex>{r`\overline{Bin}(n, p)`}</Latex>.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Densità della binomiale negativa"}>
|
|
<P>
|
|
La binomiale negativa ha come densità:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`f_X (k) : \{ n .. +\infty \} \in \mathbb{N} = \binom{k - 1}{n - 1} \cdot p^n \cdot q^{k - n} `}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Momenti della binomiale negativa"}>
|
|
<P>
|
|
<P>
|
|
La <B>funzione generatrice dei momenti</B> della binomiale negativa è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`m_X (t) : \{ t < ln(\frac{1}{q}) \} = \left( \frac{p \cdot e^t}{1 - q \cdot e^t} \right) ^n`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>media</B> della binomiale negativa è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(X) = \frac{n}{p}`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>varianza</B> della binomiale negativa è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Var(X) = \frac{n \cdot q}{p^2}`}</Latex>
|
|
</P>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Geometrica traslata"}>
|
|
<Box title={"Distribuzione geometrica traslata"}>
|
|
<P>
|
|
Una variabile aleatoria che conta il numero <Latex>k</Latex> di insuccessi consecutivi
|
|
in uno schema di Bernoulli:
|
|
</P>
|
|
<P>
|
|
Il suo simbolo rimane <Latex>{r`Geo(p)`}</Latex>.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Densità della geometrica tralsata"}>
|
|
<P>
|
|
La geometrica traslata ha come densità:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`f_X (k) : \mathbb{N} = p \cdot q^k `}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Momenti della geometrica traslata"}>
|
|
<P>
|
|
La <B>funzione generatrice dei momenti</B> della geometrica traslata è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`m_X (t) : \left\{ t < ln \left( \frac{1}{q} \right) \right\} = \frac{p}{1 - q \cdot e^t}`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>media</B> della geometrica traslata è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(X) = \frac{q}{p}`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>varianza</B> della geometrica è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Var(X) = \frac{q}{p^2}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Assenza di memoria della geometrica traslata"}>
|
|
<P>
|
|
La geometrica traslata non tiene conto degli eventi avvenuti in passato: ha la proprietà
|
|
dell'assenza di memoria:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P([X = i + j | X > i ]) = P([X = j])`}</Latex>
|
|
</P>
|
|
<Example>
|
|
Ovvero, riscalando opportunamente l'asse Y posso prendere come 0 qualsiasi punto
|
|
dell'asse X.
|
|
</Example>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Binomiale negativa traslata"}>
|
|
<Box title={"Distribuzione binomiale negativa traslata"}>
|
|
<P>
|
|
Una variabile aleatoria che conta il numero di insuccessi in uno schema di Bernoulli
|
|
prima che si verifichi l'<Latex>n</Latex>-esimo successo.
|
|
</P>
|
|
<P>
|
|
Il suo simbolo rimane <Latex>{r`\overline{Bin}(n, p)`}</Latex>.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Densità della binomiale negativa traslata"}>
|
|
<P>
|
|
La binomiale negativa traslata ha come densità:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`f_X (k) : \mathbb{N} = \binom{k + n - 1}{n - 1} \cdot p^n \cdot q^k `}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Momenti della binomiale negativa traslata"}>
|
|
<P>
|
|
<P>
|
|
La <B>funzione generatrice dei momenti</B> della binomiale negativa traslata è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`m_X (t) : \left\{ t < ln \left( \frac{1}{q} \right) \right\} = \left( \frac{p \cdot e^t}{1 - q \cdot e^t} \right) ^n`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>media</B> della binomiale negativa traslata è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(X) = \frac{n \cdot q}{p}`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>varianza</B> della binomiale negativa traslata è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Var(X) = \frac{n \cdot q}{p^2}`}</Latex>
|
|
</P>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Ipergeometrica"}>
|
|
<Box title={"Distribuzione ipergeometrica"}>
|
|
<P>
|
|
Una variabile aleatoria che, sapendo il numero di successi <Latex>K</Latex> e di
|
|
insuccessi <Latex>N-K</Latex>, conta quanti successi si otterrebbero se se ne
|
|
estraessero <Latex>n</Latex> in blocco.
|
|
</P>
|
|
<P>
|
|
Il suo simbolo è <Latex>Ipe(N, K, n)</Latex>.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Densità della ipergeometrica"}>
|
|
<P>
|
|
La ipergeometrica ha come densità:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`f_X (k) : \{0..n\} \in \mathbb{N} = \frac{\binom{K}{k} \cdot \binom{N - K}{n - k}}{\binom{N}{n}}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Momenti della ipergeometrica"}>
|
|
<P>
|
|
<P>
|
|
La <B>funzione generatrice dei momenti</B> della ipergeometrica è trascurabile.
|
|
</P>
|
|
<P>
|
|
La <B>media</B> della ipergeometrica è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(X) = n \cdot \frac{K}{N}`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>varianza</B> della ipergeometrica è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Var(X) = n \cdot \frac{K}{N} \cdot \frac{N - K}{N} \cdot \frac{N - n}{N - 1}`}</Latex>
|
|
</P>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Poissoniana"}>
|
|
<Box title={"Distribuzione poissoniana"}>
|
|
<P>
|
|
Una variabile aleatoria che soddisfa tutte le seguenti caratteristiche:
|
|
</P>
|
|
<ul>
|
|
<li>Binomiale: <Latex>{r`X \sim Bin(n, p)`}</Latex></li>
|
|
<li>Il numero di prove tende a infinito: <Latex>{r`n \to +\infty`}</Latex></li>
|
|
<li>La probabilità di successo tende a 0: <Latex>{r`p \to 0`}</Latex></li>
|
|
<li>La media è finita: <Latex>{r`E(X) = n \cdot p \to \mu \neq 0`}</Latex></li>
|
|
</ul>
|
|
<P>
|
|
Il suo simbolo è <Latex>{r`Poi(\mu)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Densità della poissoniana"}>
|
|
<P>
|
|
La poissoniana ha come densità:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`f_X (k) : \mathbb{N} = \frac{e^{-\mu} \cdot \mu^k}{k!}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Momenti della poissoniana"}>
|
|
<P>
|
|
<P>
|
|
La <B>funzione generatrice dei momenti</B> della poissoniana è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`m_X (t) = e^{\mu \cdot (e^t - 1)}`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>media</B> della poissoniana è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(X) = \mu`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>varianza</B> della poissoniana è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Var(X) = \mu`}</Latex>
|
|
</P>
|
|
<P>
|
|
Gli altri momenti della poissoniana sono:
|
|
</P>
|
|
<ol start={2}>
|
|
<li><Latex>{r`E(X^2) = \mu^2 + \mu`}</Latex></li>
|
|
</ol>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Un altro schema"}>
|
|
<Box title={"Schema di Poisson"}>
|
|
<P>
|
|
Una successione di <B>arrivi</B> avvenuti in un certo arco temporale che:
|
|
</P>
|
|
<ul>
|
|
<li>non sono sovrapposti.</li>
|
|
<li>hanno intensità <Latex>{r`\lambda`}</Latex> costante.</li>
|
|
<li>avvengono indipendentemente gli uni dagli altri.</li>
|
|
</ul>
|
|
</Box>
|
|
<Box title={"Processo di Poisson"}>
|
|
<P>
|
|
Una variabile aleatoria <Latex>N_t</Latex> che conta il numero di arrivi di uno schema
|
|
di Poisson di intensità <Latex>{r`\lambda`}</Latex> in un intervallo di tempo di
|
|
durata <Latex>t</Latex>.
|
|
</P>
|
|
<P>
|
|
E' una distribuzione poissoniana
|
|
con <Latex>{r`\mu = t \cdot \lambda`}</Latex>: <Latex>{r`Poi(t \cdot \lambda)`}</Latex>
|
|
</P>
|
|
<Example>
|
|
E' paragonabile a una bernoulliana: ogni successo corrisponde a un arrivo, mentre il
|
|
tempo è il numero di prove effettuate (ma nel continuo).
|
|
</Example>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Esponenziale"}>
|
|
<Box title={"Distribuzione esponenziale"}>
|
|
<P>
|
|
Una variabile aleatoria che conta il tempo diwidehattesa prima del primo arrivo di un
|
|
processo di Poisson di intensità <Latex>{r`\lambda`}</Latex>.
|
|
</P>
|
|
<P>
|
|
Il suo simbolo è <Latex>{r`Esp(\lambda)`}</Latex>.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Densità dell'esponenziale"}>
|
|
<P>
|
|
L'esponenziale ha come <B>densità</B>:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`
|
|
f_X (x) = \begin{cases}
|
|
0 \qquad \qquad x < 0\\
|
|
\lambda \cdot e^{-\lambda \cdot x} \quad x > 0
|
|
\end{cases}`
|
|
}</Latex>
|
|
</P>
|
|
<P>
|
|
L'esponenziale ha come <B>funzione di ripartizione</B>:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`
|
|
F_X (t) = \begin{cases}
|
|
0 \qquad \qquad t < 0\\
|
|
1 - e^{-\lambda \cdot t} \quad t \geq 0
|
|
\end{cases}`
|
|
}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Momenti dell'esponenziale"}>
|
|
<P>
|
|
La <B>funzione generatrice dei momenti</B> dell'esponenziale è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`m_X (t) : \{ t | t < \lambda \} \in \mathbb{R} = \frac{\lambda}{\lambda - t}`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>media</B> dell'esponenziale è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(X) = \frac{1}{\lambda}`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>varianza</B> dell'esponenziale è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Var(X) = \frac{1}{\lambda^2}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Assenza di memoria della esponenziale"}>
|
|
<P>
|
|
L'esponenziale non tiene conto degli eventi avvenuti in passato: ha la proprietà
|
|
dell'assenza di memoria:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P([X > s + t | X > s]) = P([X > t])`}</Latex>
|
|
</P>
|
|
<Example>
|
|
Ovvero, riscalando opportunamente l'asse Y posso prendere come 0 qualsiasi punto
|
|
dell'asse X.
|
|
</Example>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Legge gamma"}>
|
|
<Box title={"Distribuzione gamma"}>
|
|
<P>
|
|
Una variabile aleatoria che conta il tempo diwidehattesa prima dell'<Latex>n</Latex>-esimo
|
|
arrivo di un processo di Poisson di intensità <Latex>{r`\lambda`}</Latex>.
|
|
</P>
|
|
<P>
|
|
Il suo simbolo è <Latex>{r`\Gamma(n, \lambda)`}</Latex>.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Densità della legge gamma"}>
|
|
<P>
|
|
La legge gamma ha come densità:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`
|
|
f_X (x) = \begin{cases}
|
|
0 \qquad \qquad \qquad \qquad \qquad x < 0\\
|
|
\frac{1}{(n-1)!} \cdot \lambda^n \cdot x^{n-1} \cdot e^{-\lambda \cdot x} \quad k > 0
|
|
\end{cases}`
|
|
}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Momenti della legge gamma"}>
|
|
<P>
|
|
<P>
|
|
La <B>funzione generatrice dei momenti</B> della legge gamma è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`m_X (t) : ( t < \lambda ) \in \mathbb{R} = \left( \frac{\lambda}{\lambda - t} \right) ^\alpha`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>media</B> della legge gamma è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(X) = \frac{\alpha}{\lambda}`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>varianza</B> della legge gamma è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Var(X) = \frac{\alpha}{\lambda^2}`}</Latex>
|
|
</P>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Uniforme"}>
|
|
<Box title={"Distribuzione uniforme"}>
|
|
<P>
|
|
Una variabile aleatoria che può assumere qualsiasi valore in un
|
|
intervallo <Latex>{r`[a, b]`}</Latex> in modo equiprobabile.
|
|
</P>
|
|
<P>
|
|
Il suo simbolo è <Latex>{r`Uni(a, b)`}</Latex>
|
|
</P>
|
|
<P>
|
|
Su di essa vale la seguente proprietà:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P(X \in (c, d)) = \frac{d - c}{b - a}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Densità della distribuzione uniforme"}>
|
|
<P>
|
|
La distribuzione uniforme ha come <B>densità</B>:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`
|
|
f_X (x) = \begin{cases}
|
|
\frac{1}{b - a} \qquad a \leq x \leq b\\
|
|
0 \qquad \quad altrimenti
|
|
\end{cases}
|
|
`}</Latex>
|
|
</P>
|
|
<P>
|
|
La distribuzione uniforme ha come <B>funzione di ripartizione</B>:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`
|
|
f_X (x) = \begin{cases}
|
|
0 \qquad \quad x < a
|
|
\frac{1}{b - a} \qquad a \leq x \leq b\\
|
|
1 \qquad \quad x > b
|
|
\end{cases}`
|
|
}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Momenti della distribuzione uniforme"}>
|
|
<P>
|
|
<P>
|
|
La <B>funzione generatrice dei momenti</B> della distribuzione uniforme è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`m_X (t) = \frac{e^{b \cdot t} - e^{a \cdot t}}{(b - a) \cdot t}`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>media</B> della distribuzione uniforme è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(X) = \frac{a + b}{2}`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>varianza</B> della distribuzione uniforme è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Var(X) = \frac{(b - a)^2}{12}`}</Latex>
|
|
</P>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Normale o Gaussiana"}>
|
|
<Box title={"Distribuzione normale"}>
|
|
<P>
|
|
Una variabile aleatoria con una specifica distribuzione.
|
|
</P>
|
|
<P>
|
|
Il suo simbolo è <Latex>{r`Nor(\mu, \sigma^2)`}</Latex>.
|
|
</P>
|
|
<Example>
|
|
<Latex>\mu</Latex> e <Latex>\sigma^2</Latex> sono rispettivamente la media e la varianza
|
|
della distribuzione!
|
|
</Example>
|
|
</Box>
|
|
<Box title={"Densità della distribuzione normale"}>
|
|
<P>
|
|
La distribuzione normale ha come densità:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`f_X (x) = \frac{e^{-\frac{(x - \mu)^2}{2 \sigma^2}}}{\sqrt{2 \pi \cdot \sigma^2}}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Momenti della distribuzione normale"}>
|
|
<P>
|
|
<P>
|
|
La <B>funzione generatrice dei momenti</B> della distribuzione normale è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`m_X (t) = e^{\mu \cdot t + \frac{\sigma^2 \cdot t^2}{2}}`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>media</B> della distribuzione normale è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(X) = \mu`}</Latex>
|
|
</P>
|
|
<P>
|
|
La <B>varianza</B> della distribuzione normale è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Var(X) = \sigma^2`}</Latex>
|
|
</P>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section>
|
|
<Box title={"Trasformazione della normale"}>
|
|
<P>
|
|
Qualsiasi normale può essere trasformata in qualsiasi altra normale:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`X \sim Nor(m, v^2) \implies \alpha X + \beta \sim Nor(\alpha m + \beta, (\alpha v)^2)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Normale standard"}>
|
|
<P>
|
|
La distribuzione normale standard <Latex>Z</Latex> è:
|
|
</P>
|
|
<P>
|
|
<Latex>Z \sim Nor(0, 1)</Latex>
|
|
</P>
|
|
<P>
|
|
La sua funzione di ripartizione è detta <Latex>{r`\phi(z)`}</Latex> e vale:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`F_Z(z) = \phi(z) = \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{z} e^{-\frac{x^2}{2}} dx`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Quantili normali"}>
|
|
<P>
|
|
Da un quantile <Latex>{r`z_\alpha`}</Latex> della normale standard è possibile risalire
|
|
allo stesso quantile di qualsiasi altra normale:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`x_\alpha = \mu + z_\alpha \cdot \sqrt{\sigma^2}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section>
|
|
<Box title={"Gamma e normale"}>
|
|
<P>
|
|
La distribuzione normale ha una particolare relazione con la distribuzione Gamma:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Z^2 \sim \chi^2 (v = 1)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"La funzione Chi"}>
|
|
<Bluelib.Dialog>
|
|
"chi-quadro a un grado di libertà"
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
Esiste una distribuzione Gamma particolare:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\Gamma \left( \frac{1}{2}, \frac{1}{2} \right) = \chi^2 (v = 1)`}</Latex>
|
|
</P>
|
|
<P>
|
|
Più chi-quadro possono essere sommate per aumentare i loro gradi di libertà:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\chi^2 (n) + \chi^2 (m) = \chi^2 (n + m)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"T di Student"}>
|
|
<P>
|
|
Un'altra funzione particolare è la funzione T di Student:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`T(v) = \frac{Nor(0, 1)}{\sqrt{\frac{\chi^2(v)}{v}}}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Approssimazioni notevoli"}>
|
|
<Box title={"Ipergeometrica e binomiale"}>
|
|
<P>
|
|
La binomiale è come una ipergeometrica ma con ripetizioni, quindi per valori molto
|
|
grandi di <Latex>N</Latex> rispetto a <Latex>n</Latex>, si può dire che:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Ipe(N, K, n) \approx Bin(n, \frac{K}{N})`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Binomiale e poissoniana"}>
|
|
<P>
|
|
La binomiale non è altro che una poissoniana a tempo discreto, quindi,
|
|
se <Latex>n</Latex> è grande e <Latex>n \cdot p</Latex> è nell'ordine di grandezza delle
|
|
unità, allora:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Bin(n, p) \approx Poi(n \cdot p)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Binomiale e normale"}>
|
|
<P>
|
|
Per il Teorema di De Moivre-Laplace, se una binomiale ha una <Latex>n</Latex> grande
|
|
e <Latex>p</Latex> non vicina a 0 o 1, si può approssimare con:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Bin(n, p) \approx Nor(n \cdot p, n \cdot p \cdot q)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Correzione di Yates"}>
|
|
<P>
|
|
Passando da una variabile discreta <Latex>X</Latex> a una continua <Latex>Y</Latex>, per
|
|
ogni valore discreto <Latex>k</Latex> la probabilità viene "spalmata" su tutto
|
|
l'intervallo <Latex>{r`(k - \frac{1}{2}, k + \frac{1}{2})`}</Latex>:
|
|
</P>
|
|
<ul>
|
|
<li><Latex>{r`P(X < k) \simeq P(Y \leq k - \frac{1}{2})`}</Latex></li>
|
|
<li><Latex>{r`P(X \leq k) \simeq P(Y \leq k + \frac{1}{2})`}</Latex></li>
|
|
<li><Latex>{r`P(X \geq k) \simeq P(Y \geq k - \frac{1}{2})`}</Latex></li>
|
|
<li><Latex>{r`P(X > k) \simeq P(Y \geq k + \frac{1}{2})`}</Latex></li>
|
|
</ul>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Vettori aleatori"}>
|
|
<Box title={"Vettore aleatorio"}>
|
|
<P>
|
|
Un vettore <B>composto da variabili aleatorie</B>.
|
|
</P>
|
|
<P>
|
|
Il suo simbolo generalmente
|
|
è <Latex>{r`\boldsymbol{X}`}</Latex> oppure <Latex>{r`X, Y`}</Latex>.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Funzioni di ripartizione"}>
|
|
<P>
|
|
I vettori aleatori hanno più funzioni di ripartizione che si differenziano in base al
|
|
numero di parametri.
|
|
</P>
|
|
<P>
|
|
Se il numero di parametri coincide con la dimensione del vettore aleatorio, allora la
|
|
funzione sarà una <I>funzione di ripartizione congiunta</I>:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`F_{X, Y} (x, y) = P(X \leq x, Y \leq y)`}</Latex>
|
|
</P>
|
|
<P>
|
|
Se il numero di parametri è minore della dimensione del vettore aleatorio, allora la
|
|
funzione sarà una <I>funzione di ripartizione marginale</I>:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`F_X (x) = P(X \leq x) = \lim_{y \to +\infty} F_{X, Y} (x, y)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Densità discreta"}>
|
|
<P>
|
|
I vettori aleatori <B>discreti</B> hanno più densità che si differenziano in base al
|
|
numero di parametri.
|
|
</P>
|
|
<P>
|
|
Se il numero di parametri coincide con la dimensione del vettore aleatorio, allora la
|
|
funzione sarà una <I>densità congiunta</I>:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`p_{X, Y} (x, y) = P(X = x, Y = y)`}</Latex>
|
|
</P>
|
|
<P>
|
|
Se il numero di parametri è minore della dimensione del vettore aleatorio, allora la
|
|
funzione sarà una <I>densità marginale</I>:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`p_X (x) = \sum_j p_{X, Y} (x_i, y_j)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Più variabili aleatorie"}>
|
|
<Box title={"Indipendenza delle variabili aleatorie"}>
|
|
<P>
|
|
Più variabili aleatorie sono indipendenti se, per qualsiasi scelta di
|
|
intervalli <Latex>A_i</Latex>:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P(X_1 \in A_1, \dots, X_n \in A_n) = P(X_1 \in A_1) \times \dots \times P(X_n \in A_n)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Media dei vettori aleatori"}>
|
|
<P>
|
|
E' possibile calcolare la media di qualsiasi funzione <Latex>g(X, Y)</Latex> avente
|
|
elementi del vettore come variabili:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(g(X, Y)) = \sum_{i, j} g(x_i, y_i) \cdot p_{X, Y} (x_i, y_i)`}</Latex>
|
|
</P>
|
|
<Example>
|
|
Solitamente si calcola la media di <Latex>x \cdot y</Latex>.
|
|
</Example>
|
|
<P>
|
|
Le medie di più variabili aleatorie si possono sommare:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(X + Y) = E(X) + E(Y)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section>
|
|
<Box title={"Covarianza"}>
|
|
<P>
|
|
Un <B>operatore</B> che misura la correlazione di due variabili aleatorie.
|
|
</P>
|
|
<P>
|
|
Si calcola con il valore atteso dei prodotti delle distanze dalla media:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Cov(X, Y) = E((X - E(X) \cdot (Y - E(Y)) = E(XY) - E(X) \cdot E(Y)`}</Latex>
|
|
</P>
|
|
<P>
|
|
Ha diverse proprietà:
|
|
</P>
|
|
<ul>
|
|
<li>Il suo <B>valore nullo</B> è 0: <Latex>{r`Cov(X, \alpha) = 0`}</Latex></li>
|
|
<li>E' <B>commutativa</B>: <Latex>{r`Cov(X, Y) = Cov(Y, X)`}</Latex></li>
|
|
<li>E' <B>semplificabile</B>: <Latex>{r`Cov(X, X) = Var(X)`}</Latex></li>
|
|
<li>E' <B>lineare</B>: <Latex>{r`Cov(\alpha X, \beta Y) = \alpha \cdot \beta \cdot Cov(X, Y)`}</Latex>
|
|
</li>
|
|
<li>E' <B>distributiva</B>: <Latex>{r`Cov(X + Y, V + W) = Cov(X, Y) + Cov(X, W) + Cov(Y, V) + Cov(Y, W)`}</Latex>
|
|
</li>
|
|
</ul>
|
|
</Box>
|
|
<Box title={"Variabili incorrelate"}>
|
|
<P>
|
|
Due variabili sono <I>variabili incorrelate</I> se:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Cov(X, Y) = 0`}</Latex>
|
|
</P>
|
|
<P>
|
|
Variabili indipendenti sono sempre incorrelate.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Matrice di covarianza"}>
|
|
<P>
|
|
Una matrice <Latex>{r`\boldsymbol{C_X}`}</Latex> che contiene la covarianza tra tutte le
|
|
variabili di un vettore aleatorio <Latex>{r`\boldsymbol{X}`}</Latex>:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`
|
|
\boldsymbol{C_X} =
|
|
\begin{bmatrix}
|
|
Var(X_1) & Cov(X_1, X_2) & Cov(X_1, X_3)\\
|
|
Cov(X_2, X_1) & Var(X_2) & Cov(X_2, X_3)\\
|
|
Cov(X_3, X_1) & Cov(X_3, X_2) & Var(X_3)
|
|
\end{bmatrix}
|
|
`}</Latex>
|
|
</P>
|
|
<P>
|
|
E' sempre simmetrica e semidefinita positiva (tutti gli autovalori sono <Latex>\geq
|
|
0</Latex>.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Coefficiente di correlazione"}>
|
|
<P>
|
|
Un valore che misura come due variabili aleatorie sono correlate:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\rho_{X, Y} = \frac{Cov(X, Y)}{\sqrt{Var(X)} \cdot \sqrt{Var(Y)}}`}</Latex>
|
|
</P>
|
|
<P>
|
|
E' sempre compreso tra -1 e 1:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`-1 \leq \rho_{X, Y} \leq 1`}</Latex>
|
|
</P>
|
|
<P>
|
|
Vale esattamente -1 o 1 solo se esiste un legame lineare tra le due variaibli:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Y = a X + b \Longleftrightarrow | \rho_{X, Y} | = 1`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Varianza di variabili aleatorie sommate"}>
|
|
<P>
|
|
La varianza di due variabili aleatorie sommate è:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Var(X + Y) = Var(X) + Var(Y) + 2 \cdot Cov(X, Y)`}</Latex>
|
|
</P>
|
|
<Example>
|
|
Si dimostra applicando le proprietà della covarianza!
|
|
</Example>
|
|
<P>
|
|
Se più variabili
|
|
aleatorie <Latex>X_i</Latex> sono <B>indipendenti</B> (<Latex>{r`Cov(X, Y) = 0`}</Latex>),
|
|
allora:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Var \left( \sum_i X_i \right) = \sum_i Var(X_i)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Campioni"}>
|
|
<Box title={"Campione casuale"}>
|
|
<P>
|
|
Una <B>n-pla</B> di variabili aleatorie con la stessa distribuzione della variabile
|
|
aleatoria <Latex>X</Latex> ("popolazione") ma <B>indipendenti</B> tra loro.
|
|
</P>
|
|
<Example>
|
|
Le variabili aleatorie sono come un lazy-load in programmazione; quando ci sarà bisogno
|
|
del loro valore numerico, esse si <B>realizzeranno</B> nel loro valore.
|
|
</Example>
|
|
</Box>
|
|
<Box title={"Momento campionario"}>
|
|
<P>
|
|
Il valore dato dalla media aritmetica degli <Latex>n</Latex> elementi del campione
|
|
elevati alla potenza <Latex>k</Latex>:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`M^{(k)}_n = \frac{1}{n} \cdot \sum_{i = 1}^n X_i^k `}</Latex>
|
|
</P>
|
|
<P>
|
|
Il momento campionario di primo ordine è la <I>media campionaria</I>
|
|
<Latex>{r`\overline{X}_n`}</Latex>.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Varianza campionaria"}>
|
|
<P>
|
|
La media aritmetica dello scarto quadratico medio degli elementi del campione.
|
|
</P>
|
|
<P>
|
|
Se è noto il valore medio <Latex>{r`m = E(X)`}</Latex> di X:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`S_0^2 = \frac{1}{n} \cdot \sum_{i = 1}^n (X_i - m)^2 = M_n^(2) - 2 \cdot m \cdot \overline{X}_n + m^2`}</Latex>
|
|
</P>
|
|
<P>
|
|
Altrimenti:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`S_n^2 = \frac{1}{n - 1} \cdot \sum_{i = 1}^n (X_i - \overline{X}_n)^2 = \frac{1}{n - 1} \cdot ( n \cdot M_2^{(2)} - n \cdot \overline{X}_n^2)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Media-ception"}>
|
|
<Box title={"Media campionaria"}>
|
|
<P>
|
|
Se calcoliamo la media della media campionaria, risulterà vero che:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(\overline{X}_n) = E(X)`}</Latex>
|
|
</P>
|
|
<Example>
|
|
Quindi, è possibile usare i campioni per trovare la media di una variabile aleatoria!
|
|
</Example>
|
|
</Box>
|
|
<Box title={"Varianza campionaria"}>
|
|
<P>
|
|
Se calcoliamo la varianza della media campionaria, risulterà vero che:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Var(\overline{X}_n) = \frac{Var(X)}{n}`}</Latex>
|
|
</P>
|
|
<Example>
|
|
Quindi, possiamo stimare l'errore della media calcolata tramite campioni!
|
|
</Example>
|
|
</Box>
|
|
<Box title={"Correzione campionaria"}>
|
|
<P>
|
|
Se calcoliamo la media della varianza campionaria, risulterà vero che:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(S_0^2) = E(S_n^2) = Var(X)`}</Latex>
|
|
</P>
|
|
<Example>
|
|
Quindi, possiamo stimare l'errore della media calcolata tramite campioni!
|
|
</Example>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Campionamento di una distribuzione normale"}>
|
|
<Box title={"Campionamento di una distribuzione normale"}>
|
|
<P>
|
|
Se la popolazione <Latex>X</Latex> ha una distribuzione normale
|
|
(<Latex>{r`X \sim Nor(\mu, \sigma^2)`}</Latex>)...
|
|
</P>
|
|
</Box>
|
|
<Box title={"Distribuzione della media campionaria"}>
|
|
<P>
|
|
...allora sappiamo anche la distribuzione della media campionaria!
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\overline{X}_n \sim Nor \left( \mu, \frac{\sigma^2}{n} \right)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Distribuzione della varianza campionaria"}>
|
|
<P>
|
|
...e anche della varianza campionaria!
|
|
</P>
|
|
<P>
|
|
<Latex>{r`S_0^2 \sim \frac{\sigma^2}{n} \cdot \chi^2 (n)`}</Latex>
|
|
</P>
|
|
<P>
|
|
<Latex>{r`S_n^2 \sim \frac{\sigma^2}{n - 1} \cdot \chi^2 (n-1)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Indipendenza"}>
|
|
<P>
|
|
...e che media campionaria e varianza campionaria sono indipendenti tra loro!
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Quando i campioni hanno dimensioni infinite"}>
|
|
<Box title={"Convergenza in distribuzione"}>
|
|
<P>
|
|
Se la successione di variabili aleatorie <Latex>X_n</Latex> all'infinito ha la <B>stessa
|
|
funzione di ripartizione</B> della popolazione <Latex>X</Latex>, allora essa <I>converge
|
|
in distribuzione</I>.
|
|
</P>
|
|
<P>
|
|
<Latex>{`\\lim_{n \\to +\\infty} F_{X_n} (x) = F_X (x) \\implies X_n \\xrightarrow{d} X`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Convergenza in probabilità"}>
|
|
<P>
|
|
Se la successione di variabili aleatorie <Latex>X_n</Latex> all'infinito ha la <B>stessa
|
|
probabilità</B> della popolazione <Latex>X</Latex>, allora essa <I>converge in
|
|
probabilità</I>.
|
|
</P>
|
|
<P>
|
|
<Latex>{`\\forall \\epsilon > 0, \\lim_{n \\to +\\infty} P( | X_n - X | < \\epsilon) = 1 \\implies X_n \\xrightarrow{p} X`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Convergenza quasi certa"}>
|
|
<P>
|
|
Se la successione di variabili aleatorie <Latex>X_n</Latex> all'infinito ha la <B>stessa
|
|
probabilità a </B> della popolazione <Latex>X</Latex>, allora essa <I>converge quasi
|
|
certamente</I>.
|
|
</P>
|
|
<P>
|
|
<Latex>{`\\forall \\epsilon > 0, P \left( \\lim_{n \\to +\\infty} | X_n - X | < \\epsilon) \right) = 1 \\implies X_n \\xrightarrow{qc} X`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Convergenza in media quadratica"}>
|
|
<P>
|
|
Se la successione di variabili aleatorie <Latex>X_n</Latex> all'infinito ha la <B>media
|
|
del quadrato della distanza</B> tra la successione e la popolazione <Latex>X</Latex> <B>uguale
|
|
a 0</B>, allora essa <I>converge in media quadratica</I>.
|
|
</P>
|
|
<P>
|
|
<Latex>{`\\lim_{n \\to +\\infty} E( | X_n - X |^2 = 0 \\implies X_n \\xrightarrow{mq} X`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Gerarchia delle convergenze"}>
|
|
<P>
|
|
<Latex>{`
|
|
\\begin{matrix}
|
|
X_n \\xrightarrow{mq} X\\\\
|
|
X_n \\xrightarrow{qc} X
|
|
\\end{matrix} \\implies X_n \\xrightarrow{p} X \\implies X_n \\xrightarrow{d} X`
|
|
}</Latex>
|
|
</P>
|
|
<P>
|
|
In più:
|
|
</P>
|
|
<P>
|
|
<Latex>{`X_n \\xrightarrow{p} x \\Longleftrightarrow X_n \\xrightarrow{d} x`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"I grandi numeri"}>
|
|
<Box title={"Legge debole dei grandi numeri"}>
|
|
<P>
|
|
La successione delle medie campionarie <Latex>{r`\overline{X}_n`}</Latex> <B>converge in
|
|
probabilità</B> alla media della popolazione <Latex>{r`E(X)`}</Latex>, se essa esiste.
|
|
</P>
|
|
<P>
|
|
<Latex>{`\\overline{X}_n \\xrightarrow{p} X`}</Latex>
|
|
</P>
|
|
<P>
|
|
Ovvero:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\forall \epsilon > 0, \lim_{n \to +\infty} P( | \overline{X}_n - E(X) | < \epsilon) = 1`}</Latex>
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P( | \overline{X}_n - E(X) | < \epsilon) \to 1`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Legge forte dei grandi numeri"}>
|
|
<P>
|
|
La successione delle medie campionarie <Latex>{r`\overline{X}_n`}</Latex> <B>converge
|
|
quasi certamente</B> alla media della popolazione <Latex>{r`E(X)`}</Latex>, se essa
|
|
esiste.
|
|
</P>
|
|
<P>
|
|
<Latex>{`\\overline{X}_n \\xrightarrow{qc} X`}</Latex>
|
|
</P>
|
|
<P>
|
|
Ovvero:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\forall \epsilon > 0, P \left( \lim_{n \to +\infty} | \overline{X}_n - E(X) | < \epsilon \right) = 1`}</Latex>
|
|
</P>
|
|
<Example>
|
|
Dimostra che l'interpretazione frequentista della probabilità è valida!
|
|
</Example>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Al limite"}>
|
|
<Box title={"Teorema centrale del limite"}>
|
|
<P>
|
|
La successione delle medie campionarie <Latex>{r`\overline{X}_n`}</Latex> <B>converge in
|
|
distribuzione</B> a <Latex>{r`Nor(0, 1) = \Phi()`}</Latex>.
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\overline{X}_n \approx Nor \left(E(X), \frac{Var(X)}{n} \right)`}</Latex>
|
|
</P>
|
|
<P>
|
|
Ovvero:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\forall x \in \mathbb{R}, \lim_{n \to +\infty} P \left( \frac{\overline{X}_n - E(X)}{\sqrt{\frac{Var(X)}{n}}} \leq x \right) = \Phi(x)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Altre approsimazioni"}>
|
|
<Box title={"Binomiale e normale"}>
|
|
<P>
|
|
E' una somma di <B>bernoulliane</B>, e quindi si approssima a una normale:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Bin(n, p) \approx Nor(n \cdot p, n \cdot p \cdot q)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Binomiale negativa e normale"}>
|
|
<P>
|
|
E' una somma di <B>geometriche</B>, e quindi si approssima a una normale:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\overline{Bin} (n, p) \approx Nor \left( \frac{n}{p}, \frac{n \cdot (1 - p)}{p^2} \right)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Poissoniana e normale"}>
|
|
<P>
|
|
E' una somma di altre <B>poissoniane</B>, e quindi si approssima a una normale:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Poi(\lambda) \approx Nor(\lambda, \lambda)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Gamma e normale"}>
|
|
<P>
|
|
E' una somma di <B>esponenziali</B>, e quindi si approssima a una normale:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\Gamma (\alpha, \lambda) \approx Nor \left( \frac{\alpha}{\lambda}, \frac{\alpha}{\lambda^2} \right)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"In generale"}>
|
|
<P>
|
|
Se <Latex>n</Latex> è grande, allora:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`Y = \sum_{i=1}^{n} X_i`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Actually statistica"}>
|
|
<Box title={"Parametri sconosciuti"}>
|
|
<P>
|
|
Per indicare parametri sconosciuti di una legge si usa <Latex>\theta</Latex>.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Statistica"}>
|
|
<P>
|
|
Una variabile aleatoria funzione di un campione:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`T(\boldsymbol{X})`}</Latex>
|
|
</P>
|
|
<Example>
|
|
Ad esempio, sono statistiche media e varianza campionaria, così come il campione
|
|
stesso <Latex>{r`T(\boldsymbol{X}) = \boldsymbol{X}`}</Latex>.
|
|
</Example>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Stimatori"}>
|
|
<Box title={"Stimatore"}>
|
|
<P>
|
|
Una statistica <Latex>T_n</Latex> ottenuta da <Latex>n</Latex> osservazioni, che stimi i
|
|
parametri di una legge e sia indipendente da essi.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Corretto"}>
|
|
<P>
|
|
Uno stimatore è <I>corretto</I> se il suo valore atteso coincide con quello dei
|
|
parametri che stima:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`E(T_n) = \theta`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Asintoticamente corretto"}>
|
|
<P>
|
|
Uno stimatore è <I>asintoticamente corretto</I> se, per infinite osservazioni, il suo
|
|
valore atteso coincide con quello dei parametri che stima:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\lim_{n \to +\infty} E(T_n) = \theta`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Consistente in media quadratica"}>
|
|
<P>
|
|
Uno stimatore è <I>consistente in media quadratica</I> se:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\lim_{n \to +\infty} E((T_n - \theta)^2) = 0`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Consistente in probabilità"}>
|
|
<P>
|
|
Uno stimatore è <I>consistente in probabilità</I> se:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\forall \epsilon > 0, \lim_{n \to +\infty} P( |T_n - \theta| < \epsilon) = 1`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Asintoticamente normale"}>
|
|
<P>
|
|
Uno stimatore è <I>asintoticamente normale</I> se:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\lim_{n \to +\infty} \frac{T_n - E(T_n)}{\sqrt{Var(T_n)}} \sim Nor(0, 1)`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Metodo dei momenti"}>
|
|
<Box title={"Metodo dei momenti"}>
|
|
<P>
|
|
Si può usare il <I>metodo dei momenti</I> per ottenere uno stimatore di una
|
|
popolazione <Latex>X</Latex>.
|
|
</P>
|
|
<P>
|
|
Lo stimatore di <Latex>{r`\theta`}</Latex> così ottenuto sarà indicato aggiungendo un
|
|
cappellino e
|
|
una <Latex>M</Latex> a <Latex>\theta</Latex>: <Latex>{r`\widehat{\theta}_M`}</Latex>
|
|
</P>
|
|
<P>
|
|
Visto che:
|
|
</P>
|
|
<ul>
|
|
<li><Latex>{r`\theta = g(E(X))`}</Latex></li>
|
|
<li><Latex>{r`\widehat{E(X)} = \overline{X}_n`}</Latex></li>
|
|
</ul>
|
|
<P>
|
|
Allora:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\widehat{\theta}_M = g( \overline{X}_n )`}</Latex>
|
|
</P>
|
|
<P>
|
|
Se <Latex>{r`\theta`}</Latex> non è esprimibile in termini di <Latex>{r`E(X)`}</Latex>,
|
|
si possono usare i momenti
|
|
successivi <Latex>{r`M_n^2`}</Latex>, <Latex>{r`M_n^3`}</Latex>, <Latex>{r`M_n^3`}</Latex>...
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Metodo della massima verosomiglianza"}>
|
|
<Box title={"Metodo della massima verosomiglianza"}>
|
|
<P>
|
|
Si può usare il <I>metodo della massima verosomiglianza</I> per ottenere uno stimatore
|
|
di una popolazione <Latex>X</Latex>.
|
|
</P>
|
|
<P>
|
|
Lo stimatore di <Latex>{r`\theta`}</Latex> così ottenuto sarà indicato aggiungendo un
|
|
cappellino e
|
|
una <Latex>L</Latex> a <Latex>\theta</Latex>: <Latex>{r`\widehat{\theta}_L`}</Latex>
|
|
</P>
|
|
<P>
|
|
Consiste nel trovare il massimo assoluto <Latex>{r`\widehat{\theta}_L`}</Latex> della la
|
|
funzione di verosomiglianza <Latex>{r`L`}</Latex>:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`L(x_1, ..., x_n; \theta) = \prod_{i=1}^n f_X(x_i; \theta)`}</Latex>
|
|
</P>
|
|
<P>
|
|
Gli stimatori di massima verosomiglianza sono <B>asintoticamente corretti</B>, <B>consistenti
|
|
in probabilità</B> e <B>asintoticamente normali</B>.
|
|
</P>
|
|
</Box>
|
|
<Box title={"Proprietà degli stimatori di massima verosomiglianza"}>
|
|
<P>
|
|
Gli stimatori di massima verosomiglianza godono delle seguenti proprietà:
|
|
</P>
|
|
<ul>
|
|
<li>Sono <B>asintoticamente corretti</B>.</li>
|
|
<li>Sono <B>consistenti in probabilità</B>.</li>
|
|
<li>Sono <B>asintoticamente normali</B>.</li>
|
|
<li>Sono <B>invarianti</B>: <Latex>{r`\widehat{g(\theta)}_L = g(\widehat{\theta}_L)`}</Latex>
|
|
</li>
|
|
</ul>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Nuove stime notevoli"}>
|
|
<Box title={"Stima di una bernoulliana"}>
|
|
<P>
|
|
Per il metodo dei momenti oppure per il metodo della massima verosomiglianza:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\widehat{p}_M = \widehat{p}_L = \overline{X}_n`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Stima di una poissoniana"}>
|
|
<P>
|
|
Per il metodo dei momenti oppure per il metodo della massima verosomiglianza:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\widehat{\mu}_M = \widehat{\mu}_L = \overline{X}_n`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Stima di una esponenziale"}>
|
|
<P>
|
|
Per il metodo dei momenti oppure per il metodo della massima verosomiglianza:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`\widehat{\lambda}_M = \widehat{\lambda}_L = \frac{1}{\overline{X}_n}`}</Latex>
|
|
</P>
|
|
</Box>
|
|
<Box title={"Stima di una normale"}>
|
|
<P>
|
|
Per il metodo della massima verosomiglianza:
|
|
</P>
|
|
<ul>
|
|
<li><Latex>{r`\widehat{\mu}_L = \overline{X}_n`}</Latex></li>
|
|
<br />
|
|
<li><Latex>{r`\widehat{\sigma^2}_L = \frac{\sum (X_i - \overline{X}_n)^2 }{n}`}</Latex>
|
|
</li>
|
|
</ul>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Intervalli di confidenza"}>
|
|
<Box title={"Confidenza"}>
|
|
<Bluelib.Dialog>
|
|
"intervallo di confidenza al 95%"
|
|
</Bluelib.Dialog>
|
|
<P>
|
|
L'intervallo di valori di <Latex>\theta</Latex> all'interno del quale siamo "più o meno
|
|
sicuri" si trovi il valore effettivo:
|
|
</P>
|
|
<P>
|
|
L'intervallo di confidenza a N della stima <Latex>{r`\widehat{W}`}</Latex> è
|
|
l'intervallo <Latex>]a, b[</Latex> tale che:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`P( a < W < b ) = N`}</Latex>
|
|
</P>
|
|
<P>
|
|
Può anche essere <B>unilatero</B> nel caso limiti la stima in una sola direzione,
|
|
positiva o negativa.
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Confidenza nella media di una normale"}>
|
|
<Box title={"Varianza nota"}>
|
|
<P>
|
|
Se conosciamo la varianza di una normale, allora possiamo ricavare velocemente gli
|
|
intervalli di confidenza all'<Latex>\alpha</Latex>% con queste formule:
|
|
</P>
|
|
<ul>
|
|
<li>Intervalli
|
|
bilateri: <Latex>{r`\mu \in \left[ \overline{x}_n - z_{1 - \frac{\alpha}{2}} \cdot \sqrt{\frac{\sigma^2}{n}}, \overline{x}_n + z_{1 - \frac{\alpha}{2}} \cdot \sqrt{\frac{\sigma^2}{n}} \right]`}</Latex>
|
|
</li>
|
|
<li>Intervallo unilatero da
|
|
sinistra: <Latex>{r`\mu \in \left( -\infty, \overline{x}_n + z_{1 - \frac{\alpha}{2}} \cdot \sqrt{\frac{\sigma^2}{n}} \right]`}</Latex>
|
|
</li>
|
|
<li>Intervallo unilatero da
|
|
destra: <Latex>{r`\mu \in \left[ \overline{x}_n - z_{1 - \frac{\alpha}{2}} \cdot \sqrt{\frac{\sigma^2}{n}}, +\infty \right)`}</Latex>
|
|
</li>
|
|
</ul>
|
|
</Box>
|
|
<Box title={"Varianza incognita"}>
|
|
<P>
|
|
Se non conosciamo la varianza di una normale, allora possiamo ricavare velocemente gli
|
|
intervalli di confidenza all'<Latex>\alpha</Latex>% con queste formule:
|
|
</P>
|
|
<ul>
|
|
<li>Intervalli
|
|
bilateri: <Latex>{r`\mu \in \left[ \overline{x}_n - t_{1 - \frac{\alpha}{2}; n-1} \cdot \sqrt{\frac{s_n^2}{n}}, \overline{x}_n + t_{1 - \frac{\alpha}{2}; n-1} \cdot \sqrt{\frac{s_n^2}{n}} \right]`}</Latex>
|
|
</li>
|
|
<li>Intervallo unilatero da
|
|
sinistra: <Latex>{r`\mu \in \left( -\infty, \overline{x}_n + t_{1 - \frac{\alpha}{2}; n-1} \cdot \sqrt{\frac{s_n^2}{n}} \right]`}</Latex>
|
|
</li>
|
|
<li>Intervallo unilatero da
|
|
destra: <Latex>{r`\mu \in \left[ \overline{x}_n - t_{1 - \frac{\alpha}{2}; n-1} \cdot \sqrt{\frac{s_n^2}{n}}, +\infty \right)`}</Latex>
|
|
</li>
|
|
</ul>
|
|
<P>
|
|
<Latex>{r`t_{\alpha, v}`}</Latex> è un quantile della distribuzione di Student di
|
|
parametro <Latex>v</Latex>.
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Confidenza per la proporzione di una bernoulliana"}>
|
|
<Box title={"Terzo metodo corretto"}>
|
|
<P>
|
|
L'intervallo di confidenza per la proprorzione di una bernoulliana qualsiasi si ottiene
|
|
da questa formula:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`p \in \left[ \overline{p} - z_{1 - \frac{\alpha}{2}} \cdot \sqrt{\frac{\overline{p} \cdot (1 - \overline{p})}{n+4}}, \overline{p} + z_{1 - \frac{\alpha}{2}} \cdot \sqrt{\frac{\overline{p} \cdot (1 - \overline{p})}{n+4}} \right]`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
<Section title={"Confidenza per la media di qualsiasi popolazione"}>
|
|
<Box title={"Approssimando con la normale"}>
|
|
<P>
|
|
L'intervallo di confidenza per la media di una qualsiasi popolazione si ottiene da
|
|
questa formula:
|
|
</P>
|
|
<P>
|
|
<Latex>{r`m \in \left[ \overline{x}_n - z_{1 - \frac{\alpha}{2}} \cdot \sqrt{\frac{s^2_n}{n}}, \overline{x}_n + z_{1 - \frac{\alpha}{2}} \cdot \sqrt{\frac{s^2_n}{n}} \right]`}</Latex>
|
|
</P>
|
|
</Box>
|
|
</Section>
|
|
</>
|
|
}
|
|
|
|
export default Page
|