import * as Bluelib from "@steffo/bluelib-react"
import { BaseElement } from "@steffo/bluelib-react/dist/components/BaseElement"
import { Split, Box, Color, Plus, Minus, r, LatexMath, P, Anchor, I, B, Todo, Section, Latex, Example } from "../../components/compat1"
import 'katex/dist/katex.min.css';
import { WarningPorted, WarningUnchecked } from "../../components/warnings";
export default function Statistica() {
return <>
Come Fisica,
Spero che questi contenuti possano essere altrettanto utili a voi!
Il prezzo che un individuo coerente riterrebbe equo per ricevere 1 nel caso
l'evento si verificasse e 0 nel caso l'evento non si verificasse.
L'insieme di tutti gli esiti possibili di un esperimento.
Un elemento dello spazio campionario.
Un sottoinsieme dello spazio campionario.
Lo spazio campionario stesso è un evento certo.
Il complementare di un sottoinsieme.
L'intersezione di più sottoinsiemi.
L'unione di più sottoinsiemi.
L'inclusione del primo insieme in un altro.
Se si verifica
Un sottoinsieme vuoto.
La disgiunzione di due insiemi.
I sottoinsiemi dello spazio campionario formano una famiglia di sottoinsiemi
detta famiglia degli eventi.
Qualsiasi sottoinsieme appartenente a
Se la famiglia degli eventi soddisfa questi tre requisiti, allora viene
detta
Un
esempio:
Un insieme di esiti e eventi:
La partizione
La probabilità di un evento è un numero tra 0 e 1.
La probabilità dello spazio campionario è sempre 1.
La probabilità dell'unione di eventi indipendenti è uguale alla somma delle loro
probabilità.
La probabilità di un evento negato è uguale a 1 meno la probabilità dell'evento non
negato.
La probabilità di un evento incluso in un altro è sempre minore o uguale alla
probabilità dell'evento in cui è incluso.
La probabilità di un evento unito a un altro è uguale alla somma delle probabilità dei
due eventi meno la probabilità della loro intersezione.
Spazi campionari in cui ci sono un numero finito di esiti e ogni esito ha la stessa
probabilità di verificarsi.
Gli spazi campionari possono avere un numero infinito di esiti: sono equiprobabili
geometrici se nessun esito è privilegiato rispetto agli altri.
Estraggo un numero, da un sacchetto con
Tengo conto dell'ordine in cui ho estratto i numeri.
Estraggo un numero, da un sacchetto con
Tengo conto dell'ordine in cui ho estratto i numeri.
Estraggo un numero, da un sacchetto con
Non mi interessa l'ordine in cui ho estratto i numeri.
Estraggo un numero, da un sacchetto con
Non mi interessa l'ordine in cui ho estratto i numeri.
Estraggo
La probabilità che si verifichi
Se due eventi sono mutualmente esclusivi, entrambe le loro probabilità condizionate
saranno uguali a 0.
Si può sfruttare la formula inversa della probabilità condizionata per calcolare catene
di intersezioni:
La probabilità che si verifichi un evento è pari alla somma delle probabilità
dell'evento stesso dati tutti gli eventi di una partizione.
La legge delle alternative funziona anche quando ad essere partizionato è
un evento:
Tramite la formula di Bayes possiamo risalire alla probabilità di un evento
condizionato a un altro partendo dalla probabilità di quest'ultimo condizionato al
primo:
Se due eventi sono indipendenti, sapere che uno dei due si è verificato non influisce
sulle probabilità che si sia verificato l'altro.
Si può verificare l'indipendenza di più eventi alla volta:
Eventi indipendenti a due a due non sono per forza indipendenti a tre a tre, e
viceversa.
Un insieme di
Una funzione che fa corrispondere un numero reale a ogni possibile esito dello spazio
campionario.
Ad ogni variabile aleatoria sono associati gli
eventi
Per definizione, tutte le variabili aleatorie devono rispettare questa condizione:
Il codominio della variabile aleatoria è il suo supporto.
Per indicare che un valore
La funzione probabilità
La funzione densità
A differenza della funzione probabilità, è possibile che la funzione densità non
esista per una certa variabile aleatoria.
Ogni variabile aleatoria ha una funzione di ripartizione
Si può dire che essa rappresenti la probabilità dell'evento
Possiamo usare la funzione di ripartizione per calcolare la probabilità di un certo
valore reale:
Nel discreto basta abbinare un nuovo valore a ogni valore della variabile originale.
Nel continuo applichiamo la formula dell'integrazione per sostituzione:
Trasformare variabili aleatorie è molto utile nell'informatica per creare distribuzioni
partendo da una funzione
Ogni variabile aleatoria che ha una funzione di ripartizione e un supporto
finito ha anche una media (o valore medio o atteso):
Nel discreto, si può calcolare con:
Nel continuo, si può calcolare con:
Valore per cui la funzione probabilità o funzione densità è massima.
Il quantile
Il quantile di ordine 0.5
I quantili di ordine 0.25
I quantili di ordine
È un valore che indica quanto la variabile aleatoria si discosta generalmente dalla
media:
Data una variabile aleatoria non-negativa:
Divide in due parti (
Se la variabile aleatoria
E anche:
Il momento
La funzione generatrice dei momenti è:
Se due variabile aleatorie hanno la stessa funzione generatrice dei momenti, allora esse
hanno la stessa distribuzione.
E' la trasformata di Laplace della variabile aleatoria di X.
La funzione caratteristica è:
Se due variabile aleatorie hanno la stessa funzione caratteristica, allora esse hanno
la stessa distribuzione.
E' la trasformata di Fourier della variabile aleatoria di X.
Per dire che una variabile ha una certa distribuzione, si usa la notazione:
Una prova con solo due possibili
esiti:
Una sequenza di prove di Bernoulli per le quali le probabilità di successo e fallimento
rimangono invariate.
Una variabile aleatoria che rappresenta una prova di Bernoulli:
Il suo simbolo è
La distribuzione bernoulliana ha come densità:
Una variabile aleatoria che conta il numero di successi di
Il suo simbolo è
La binomiale ha come densità:
La funzione generatrice dei momenti della binomiale è:
La media di una binomiale è:
La varianza di una binomiale è:
Una variabile aleatoria che conta il numero di prove in uno schema di Bernoulli fino
alla comparsa del primo successo.
Il suo simbolo è
La geometrica ha come densità:
La funzione generatrice dei momenti della geometrica è:
La media della geometrica è:
La varianza della geometrica è:
La geometrica non tiene conto degli eventi avvenuti in passato: ha la proprietà
dell'assenza di memoria:
Una variabile aleatoria che conta il numero di prove in uno schema di Bernoulli
necessarie perchè si verifichi l'
Il suo simbolo è
La binomiale negativa ha come densità:
La funzione generatrice dei momenti della binomiale negativa è:
La media della binomiale negativa è:
La varianza della binomiale negativa è:
bash
, però al contrario...
random()
che
restituisce numeri da 0 a 1 con una distribuzione lineare.
Una variabile aleatoria che conta il numero
Il suo simbolo rimane
La geometrica traslata ha come densità:
La funzione generatrice dei momenti della geometrica traslata è:
La media della geometrica traslata è:
La varianza della geometrica è:
La geometrica traslata non tiene conto degli eventi avvenuti in passato: ha la proprietà dell'assenza di memoria:
Una variabile aleatoria che conta il numero di insuccessi in uno schema di Bernoulli
prima che si verifichi l'
Il suo simbolo rimane
La binomiale negativa traslata ha come densità:
La funzione generatrice dei momenti della binomiale negativa traslata è:
La media della binomiale negativa traslata è:
La varianza della binomiale negativa traslata è:
Una variabile aleatoria che, sapendo il numero di successi
Il suo simbolo è
La ipergeometrica ha come densità:
La funzione generatrice dei momenti della ipergeometrica è trascurabile.
La media della ipergeometrica è:
La varianza della ipergeometrica è:
Una variabile aleatoria che soddisfa tutte le seguenti caratteristiche:
Il suo simbolo è
La poissoniana ha come densità:
La funzione generatrice dei momenti della poissoniana è:
La media della poissoniana è:
La varianza della poissoniana è:
Gli altri momenti della poissoniana sono:
Una successione di arrivi avvenuti in un certo arco temporale che:
Una variabile aleatoria
E' una distribuzione poissoniana
con
Una variabile aleatoria che conta il tempo diwidehattesa prima del primo arrivo di un
processo di Poisson di intensità
Il suo simbolo è
L'esponenziale ha come densità:
L'esponenziale ha come funzione di ripartizione:
La funzione generatrice dei momenti dell'esponenziale è:
La media dell'esponenziale è:
La varianza dell'esponenziale è:
L'esponenziale non tiene conto degli eventi avvenuti in passato: ha la proprietà dell'assenza di memoria:
Una variabile aleatoria che conta il tempo diwidehattesa prima dell'
Il suo simbolo è
La legge gamma ha come densità:
La funzione generatrice dei momenti della legge gamma è:
La media della legge gamma è:
La varianza della legge gamma è:
Una variabile aleatoria che può assumere qualsiasi valore in un
intervallo
Il suo simbolo è
Su di essa vale la seguente proprietà:
La distribuzione uniforme ha come densità:
La distribuzione uniforme ha come funzione di ripartizione:
La funzione generatrice dei momenti della distribuzione uniforme è:
La media della distribuzione uniforme è:
La varianza della distribuzione uniforme è:
Una variabile aleatoria con una specifica distribuzione.
Il suo simbolo è
La distribuzione normale ha come densità:
La funzione generatrice dei momenti della distribuzione normale è:
La media della distribuzione normale è:
La varianza della distribuzione normale è:
Qualsiasi normale può essere trasformata in qualsiasi altra normale:
La distribuzione normale standard
La sua funzione di ripartizione è detta
Da un quantile
La distribuzione normale ha una particolare relazione con la distribuzione Gamma:
Esiste una distribuzione Gamma particolare:
Più chi-quadro possono essere sommate per aumentare i loro gradi di libertà:
Un'altra funzione particolare è la funzione T di Student:
La binomiale è come una ipergeometrica ma con ripetizioni, quindi per valori molto
grandi di
La binomiale non è altro che una poissoniana a tempo discreto, quindi,
se
Per il Teorema di De Moivre-Laplace, se una binomiale ha una
Passando da una variabile discreta
Un vettore composto da variabili aleatorie.
Il suo simbolo generalmente
è
I vettori aleatori hanno più funzioni di ripartizione che si differenziano in base al numero di parametri.
Se il numero di parametri coincide con la dimensione del vettore aleatorio, allora la funzione sarà una funzione di ripartizione congiunta:
Se il numero di parametri è minore della dimensione del vettore aleatorio, allora la funzione sarà una funzione di ripartizione marginale:
I vettori aleatori discreti hanno più densità che si differenziano in base al numero di parametri.
Se il numero di parametri coincide con la dimensione del vettore aleatorio, allora la funzione sarà una densità congiunta:
Se il numero di parametri è minore della dimensione del vettore aleatorio, allora la funzione sarà una densità marginale:
Più variabili aleatorie sono indipendenti se, per qualsiasi scelta di
intervalli
E' possibile calcolare la media di qualsiasi funzione
Le medie di più variabili aleatorie si possono sommare:
Un operatore che misura la correlazione di due variabili aleatorie.
Si calcola con il valore atteso dei prodotti delle distanze dalla media:
Ha diverse proprietà:
Due variabili sono variabili incorrelate se:
Variabili indipendenti sono sempre incorrelate.
Una matrice
E' sempre simmetrica e semidefinita positiva (tutti gli autovalori sono
Un valore che misura come due variabili aleatorie sono correlate:
E' sempre compreso tra -1 e 1:
Vale esattamente -1 o 1 solo se esiste un legame lineare tra le due variaibli:
La varianza di due variabili aleatorie sommate è:
Se più variabili
aleatorie
Una n-pla di variabili aleatorie con la stessa distribuzione della variabile
aleatoria
Il valore dato dalla media aritmetica degli
Il momento campionario di primo ordine è la media campionaria
La media aritmetica dello scarto quadratico medio degli elementi del campione.
Se è noto il valore medio
Altrimenti:
Se calcoliamo la media della media campionaria, risulterà vero che:
Se calcoliamo la varianza della media campionaria, risulterà vero che:
Se calcoliamo la media della varianza campionaria, risulterà vero che:
Se la popolazione
...allora sappiamo anche la distribuzione della media campionaria!
...e anche della varianza campionaria!
...e che media campionaria e varianza campionaria sono indipendenti tra loro!
Se la successione di variabili aleatorie
Se la successione di variabili aleatorie
Se la successione di variabili aleatorie
Se la successione di variabili aleatorie
In più:
La successione delle medie campionarie
Ovvero:
La successione delle medie campionarie
Ovvero:
La successione delle medie campionarie
Ovvero:
E' una somma di bernoulliane, e quindi si approssima a una normale:
E' una somma di geometriche, e quindi si approssima a una normale:
E' una somma di altre poissoniane, e quindi si approssima a una normale:
E' una somma di esponenziali, e quindi si approssima a una normale:
Se
Per indicare parametri sconosciuti di una legge si usa
Una variabile aleatoria funzione di un campione:
Una statistica
Uno stimatore è corretto se il suo valore atteso coincide con quello dei parametri che stima:
Uno stimatore è asintoticamente corretto se, per infinite osservazioni, il suo valore atteso coincide con quello dei parametri che stima:
Uno stimatore è consistente in media quadratica se:
Uno stimatore è consistente in probabilità se:
Uno stimatore è asintoticamente normale se:
Si può usare il metodo dei momenti per ottenere uno stimatore di una
popolazione
Lo stimatore di
Visto che:
Allora:
Se
Si può usare il metodo della massima verosomiglianza per ottenere uno stimatore
di una popolazione
Lo stimatore di
Consiste nel trovare il massimo assoluto
Gli stimatori di massima verosomiglianza sono asintoticamente corretti, consistenti in probabilità e asintoticamente normali.
Gli stimatori di massima verosomiglianza godono delle seguenti proprietà:
Per il metodo dei momenti oppure per il metodo della massima verosomiglianza:
Per il metodo dei momenti oppure per il metodo della massima verosomiglianza:
Per il metodo dei momenti oppure per il metodo della massima verosomiglianza:
Per il metodo della massima verosomiglianza:
L'intervallo di valori di
L'intervallo di confidenza a N della stima
Può anche essere unilatero nel caso limiti la stima in una sola direzione, positiva o negativa.
Se conosciamo la varianza di una normale, allora possiamo ricavare velocemente gli
intervalli di confidenza all'
Se non conosciamo la varianza di una normale, allora possiamo ricavare velocemente gli
intervalli di confidenza all'
L'intervallo di confidenza per la proprorzione di una bernoulliana qualsiasi si ottiene da questa formula:
L'intervallo di confidenza per la media di una qualsiasi popolazione si ottiene da questa formula: