diff --git a/src/App.js b/src/App.js
index c80d6e1..50b608a 100644
--- a/src/App.js
+++ b/src/App.js
@@ -8,6 +8,7 @@ import style from "./App.module.css"
import Footer from "./components/Footer"
import Fisica from "./routes/Fisica"
import Apprendimento from "./routes/Apprendimento"
+import Statistica from "./routes/Statistica"
export default function App() {
@@ -32,6 +33,9 @@ export default function App() {
+
+ 🎓 Il corso è stato tenuto dal
+ 📘 Le dispense sono disponibili sulla
+ 🎥
+
+
+ Il prezzo che un individuo coerente riterrebbe equo per ricevere 1 nel caso + l'evento si verificasse e 0 nel caso l'evento non si verificasse. +
++ "omegone" ++
+ L'insieme di tutti gli esiti possibili di un esperimento. +
+
+
+ "omeghino" ++
+ Un elemento dello spazio campionario. +
+
+
+ "e" ++
+ Un sottoinsieme dello spazio campionario. +
+
+
+ Lo spazio campionario stesso è un evento certo. +
++ "not e" ++
+ Il complementare di un sottoinsieme. +
+
+
+ "e intersecato effe" ++
+ L'intersezione di più sottoinsiemi. +
+
+
+ "e unito a effe" ++
+ L'unione di più sottoinsiemi. +
+
+
+ "e meno effe" ++
+
+ "e contenuto in effe" ++
+ L'inclusione del primo insieme in un altro. +
+
+
+ Se si verifica
+ "e è impossibile" ++
+ Un sottoinsieme vuoto. +
+
+
+ "e ed effe si escludono mutualmente" ++
+ La disgiunzione di due insiemi. +
+
+
+ "famiglia effe" ++
+ I sottoinsiemi dello spazio campionario formano una famiglia di sottoinsiemi + detta famiglia degli eventi. +
+
+
+ Qualsiasi sottoinsieme appartenente a
+ "sigma algebra" ++
+ Se la famiglia degli eventi soddisfa questi tre requisiti, allora viene
+ detta
+ Un
+ esempio:
+ "la partizione e composta da e uno, e due, e tre..." ++
+ Un insieme di esiti e eventi: +
+
+ La partizione
+ La probabilità di un evento è un numero tra 0 e 1. +
+
+
+ La probabilità dello spazio campionario è sempre 1. +
+
+
+ La probabilità dell'unione di eventi indipendenti è uguale alla somma delle loro + probabilità. +
+
+
+ La probabilità di un evento negato è uguale a 1 meno la probabilità dell'evento non + negato. +
+
+
+ La probabilità di un evento incluso in un altro è sempre minore o uguale alla + probabilità dell'evento in cui è incluso. +
+
+
+ La probabilità di un evento unito a un altro è uguale alla somma delle probabilità dei + due eventi meno la probabilità della loro intersezione. +
+
+
+ Spazi campionari in cui ci sono un numero finito di esiti e ogni esito ha la stessa + probabilità di verificarsi. +
+
+
+ Gli spazi campionari possono avere un numero infinito di esiti: sono equiprobabili + geometrici se nessun esito è privilegiato rispetto agli altri. +
+
+ Estraggo un numero, da un sacchetto con
+ Tengo conto dell'ordine in cui ho estratto i numeri. +
+
+
+ Estraggo un numero, da un sacchetto con
+ Tengo conto dell'ordine in cui ho estratto i numeri. +
+
+
+ Estraggo un numero, da un sacchetto con
+ Non mi interessa l'ordine in cui ho estratto i numeri. +
+
+
+ Estraggo un numero, da un sacchetto con
+ Non mi interessa l'ordine in cui ho estratto i numeri. +
+
+
+ Estraggo
+
+ "E dato F" ++
+ La probabilità che si verifichi
+
bash
, però al contrario...
+ + Se due eventi sono mutualmente esclusivi, entrambe le loro probabilità condizionate + saranno uguali a 0. +
+
+
+ Si può sfruttare la formula inversa della probabilità condizionata per calcolare catene + di intersezioni: +
+
+
+ La probabilità che si verifichi un evento è pari alla somma delle probabilità + dell'evento stesso dati tutti gli eventi di una partizione. +
+
+
+ La legge delle alternative funziona anche quando ad essere partizionato è + un evento: +
+
+
+ Tramite la formula di Bayes possiamo risalire alla probabilità di un evento + condizionato a un altro partendo dalla probabilità di quest'ultimo condizionato al + primo: +
+
+
+ "eventi indipendenti a due a due" ++
+ Se due eventi sono indipendenti, sapere che uno dei due si è verificato non influisce + sulle probabilità che si sia verificato l'altro. +
+
+
+ "eventi indipendenti a tre a tre, a quattro a quattro, a cinque a cinque..." ++
+ Si può verificare l'indipendenza di più eventi alla volta: +
+
+
+ Eventi indipendenti a due a due non sono per forza indipendenti a tre a tre, e + viceversa. +
+
+ Un insieme di
+ Una funzione che fa corrispondere un numero reale a ogni possibile esito dello spazio
+ campionario.
+ Ad ogni variabile aleatoria sono associati gli
+ eventi
+ Per definizione, tutte le variabili aleatorie devono rispettare questa condizione: +
+
+
+ "supporto di X" ++
+ Il codominio della variabile aleatoria è il suo supporto. +
+
+ Per indicare che un valore
+ La funzione probabilità
+
+ La funzione densità
+
+ A differenza della funzione probabilità, è possibile che la funzione densità non + esista per una certa variabile aleatoria. +
+
+ Ogni variabile aleatoria ha una funzione di ripartizione
+
+ Si può dire che essa rappresenti la probabilità dell'evento
+
+ Possiamo usare la funzione di ripartizione per calcolare la probabilità di un certo + valore reale: +
+
+
+ Nel discreto basta abbinare un nuovo valore a ogni valore della variabile originale. +
++ Nel continuo applichiamo la formula dell'integrazione per sostituzione: +
+
+
+ Trasformare variabili aleatorie è molto utile nell'informatica per creare distribuzioni
+ partendo da una funzione random()
che
+ restituisce numeri da 0 a 1 con una distribuzione lineare.
+
+ Ogni variabile aleatoria che ha una funzione di ripartizione e un supporto + finito ha anche una media (o valore medio o atteso): +
+
+
+ Nel discreto, si può calcolare con: +
+
+
+ Nel continuo, si può calcolare con: +
+
+
+ Valore per cui la funzione probabilità o funzione densità è massima. +
+
+ Il quantile
+
+ +
+
+ Il quantile di ordine 0.5
+ I quantili di ordine 0.25
+ I quantili di ordine
+ È un valore che indica quanto la variabile aleatoria si discosta generalmente dalla + media: +
+
+
+ Data una variabile aleatoria non-negativa: +
+
+
+ Divide in due parti (
+
+ "disuguaglianza di cebicev" ++
+ Se la variabile aleatoria
+
+ E anche: +
+
+
+ Il momento
+
+ La funzione generatrice dei momenti è: +
+
+
+ Se due variabile aleatorie hanno la stessa funzione generatrice dei momenti, allora esse + hanno la stessa distribuzione. +
++ E' la trasformata di Laplace della variabile aleatoria di X. +
++ La funzione caratteristica è: +
+
+
+ Se due variabile aleatorie hanno la stessa funzione caratteristica, allora esse hanno + la stessa distribuzione. +
++ E' la trasformata di Fourier della variabile aleatoria di X. +
++ Per dire che una variabile ha una certa distribuzione, si usa la notazione: +
+
+
+ Una prova con solo due possibili
+ esiti:
+ Una sequenza di prove di Bernoulli per le quali le probabilità di successo e fallimento + rimangono invariate. +
++ Una variabile aleatoria che rappresenta una prova di Bernoulli: +
+
+ Il suo simbolo è
+ La distribuzione bernoulliana ha come densità: +
+
+
+ Una variabile aleatoria che conta il numero di successi di
+ Il suo simbolo è
+ La binomiale ha come densità: +
+
+
+ La funzione generatrice dei momenti della binomiale è: +
+
+
+ La media di una binomiale è: +
+
+
+ La varianza di una binomiale è: +
+
+
+ Una variabile aleatoria che conta il numero di prove in uno schema di Bernoulli fino + alla comparsa del primo successo. +
+
+ Il suo simbolo è
+ La geometrica ha come densità: +
+
+
+ La funzione generatrice dei momenti della geometrica è: +
+
+
+ La media della geometrica è: +
+
+
+ La varianza della geometrica è: +
+
+
+ La geometrica non tiene conto degli eventi avvenuti in passato: ha la proprietà + dell'assenza di memoria: +
+
+
+ Una variabile aleatoria che conta il numero di prove in uno schema di Bernoulli
+ necessarie perchè si verifichi l'
+ Il suo simbolo è
+ La binomiale negativa ha come densità: +
+
+
+
+ La funzione generatrice dei momenti della binomiale negativa è: +
+
+
+ La media della binomiale negativa è: +
+
+
+ La varianza della binomiale negativa è: +
+
+
+ Una variabile aleatoria che conta il numero
+ Il suo simbolo rimane
+ La geometrica traslata ha come densità: +
+
+
+ La funzione generatrice dei momenti della geometrica traslata è: +
+
+
+ La media della geometrica traslata è: +
+
+
+ La varianza della geometrica è: +
+
+
+ La geometrica traslata non tiene conto degli eventi avvenuti in passato: ha la proprietà + dell'assenza di memoria: +
+
+
+ Una variabile aleatoria che conta il numero di insuccessi in uno schema di Bernoulli
+ prima che si verifichi l'
+ Il suo simbolo rimane
+ La binomiale negativa traslata ha come densità: +
+
+
+
+ La funzione generatrice dei momenti della binomiale negativa traslata è: +
+
+
+ La media della binomiale negativa traslata è: +
+
+
+ La varianza della binomiale negativa traslata è: +
+
+
+ Una variabile aleatoria che, sapendo il numero di successi
+ Il suo simbolo è
+ La ipergeometrica ha come densità: +
+
+
+
+ La funzione generatrice dei momenti della ipergeometrica è trascurabile. +
++ La media della ipergeometrica è: +
+
+
+ La varianza della ipergeometrica è: +
+
+
+ Una variabile aleatoria che soddisfa tutte le seguenti caratteristiche: +
+
+ Il suo simbolo è
+ La poissoniana ha come densità: +
+
+
+
+ La funzione generatrice dei momenti della poissoniana è: +
+
+
+ La media della poissoniana è: +
+
+
+ La varianza della poissoniana è: +
+
+
+ Gli altri momenti della poissoniana sono: +
++ Una successione di arrivi avvenuti in un certo arco temporale che: +
+
+ Una variabile aleatoria
+ E' una distribuzione poissoniana
+ con
+ Una variabile aleatoria che conta il tempo diwidehattesa prima del primo arrivo di un
+ processo di Poisson di intensità
+ Il suo simbolo è
+ L'esponenziale ha come densità: +
+
+
+ L'esponenziale ha come funzione di ripartizione: +
+
+
+ La funzione generatrice dei momenti dell'esponenziale è: +
+
+
+ La media dell'esponenziale è: +
+
+
+ La varianza dell'esponenziale è: +
+
+
+ L'esponenziale non tiene conto degli eventi avvenuti in passato: ha la proprietà + dell'assenza di memoria: +
+
+
+ Una variabile aleatoria che conta il tempo diwidehattesa prima dell'
+ Il suo simbolo è
+ La legge gamma ha come densità: +
+
+
+
+ La funzione generatrice dei momenti della legge gamma è: +
+
+
+ La media della legge gamma è: +
+
+
+ La varianza della legge gamma è: +
+
+
+ Una variabile aleatoria che può assumere qualsiasi valore in un
+ intervallo
+ Il suo simbolo è
+ Su di essa vale la seguente proprietà: +
+
+
+ La distribuzione uniforme ha come densità: +
+
+
+ La distribuzione uniforme ha come funzione di ripartizione: +
+
+
+
+ La funzione generatrice dei momenti della distribuzione uniforme è: +
+
+
+ La media della distribuzione uniforme è: +
+
+
+ La varianza della distribuzione uniforme è: +
+
+
+ Una variabile aleatoria con una specifica distribuzione. +
+
+ Il suo simbolo è
+ La distribuzione normale ha come densità: +
+
+
+
+ La funzione generatrice dei momenti della distribuzione normale è: +
+
+
+ La media della distribuzione normale è: +
+
+
+ La varianza della distribuzione normale è: +
+
+
+ Qualsiasi normale può essere trasformata in qualsiasi altra normale: +
+
+
+ La distribuzione normale standard
+
+ La sua funzione di ripartizione è detta
+
+ Da un quantile
+
+ La distribuzione normale ha una particolare relazione con la distribuzione Gamma: +
+
+
+ "chi-quadro a un grado di libertà" ++
+ Esiste una distribuzione Gamma particolare: +
+
+
+ Più chi-quadro possono essere sommate per aumentare i loro gradi di libertà: +
+
+
+ Un'altra funzione particolare è la funzione T di Student: +
+
+
+ La binomiale è come una ipergeometrica ma con ripetizioni, quindi per valori molto
+ grandi di
+
+ La binomiale non è altro che una poissoniana a tempo discreto, quindi,
+ se
+
+ Per il Teorema di De Moivre-Laplace, se una binomiale ha una
+
+ Passando da una variabile discreta
+ Un vettore composto da variabili aleatorie. +
+
+ Il suo simbolo generalmente
+ è
+ I vettori aleatori hanno più funzioni di ripartizione che si differenziano in base al + numero di parametri. +
++ Se il numero di parametri coincide con la dimensione del vettore aleatorio, allora la + funzione sarà una funzione di ripartizione congiunta: +
+
+
+ Se il numero di parametri è minore della dimensione del vettore aleatorio, allora la + funzione sarà una funzione di ripartizione marginale: +
+
+
+ I vettori aleatori discreti hanno più densità che si differenziano in base al + numero di parametri. +
++ Se il numero di parametri coincide con la dimensione del vettore aleatorio, allora la + funzione sarà una densità congiunta: +
+
+
+ Se il numero di parametri è minore della dimensione del vettore aleatorio, allora la + funzione sarà una densità marginale: +
+
+
+ Più variabili aleatorie sono indipendenti se, per qualsiasi scelta di
+ intervalli
+
+ E' possibile calcolare la media di qualsiasi funzione
+
+ Le medie di più variabili aleatorie si possono sommare: +
+
+
+ Un operatore che misura la correlazione di due variabili aleatorie. +
++ Si calcola con il valore atteso dei prodotti delle distanze dalla media: +
+
+
+ Ha diverse proprietà: +
++ Due variabili sono variabili incorrelate se: +
+
+
+ Variabili indipendenti sono sempre incorrelate. +
+
+ Una matrice
+
+ E' sempre simmetrica e semidefinita positiva (tutti gli autovalori sono
+ Un valore che misura come due variabili aleatorie sono correlate: +
+
+
+ E' sempre compreso tra -1 e 1: +
+
+
+ Vale esattamente -1 o 1 solo se esiste un legame lineare tra le due variaibli: +
+
+
+ La varianza di due variabili aleatorie sommate è: +
+
+
+ Se più variabili
+ aleatorie
+
+ Una n-pla di variabili aleatorie con la stessa distribuzione della variabile
+ aleatoria
+ Il valore dato dalla media aritmetica degli
+
+ Il momento campionario di primo ordine è la media campionaria
+
+ La media aritmetica dello scarto quadratico medio degli elementi del campione. +
+
+ Se è noto il valore medio
+
+ Altrimenti: +
+
+
+ Se calcoliamo la media della media campionaria, risulterà vero che: +
+
+
+ Se calcoliamo la varianza della media campionaria, risulterà vero che: +
+
+
+ Se calcoliamo la media della varianza campionaria, risulterà vero che: +
+
+
+ Se la popolazione
+ ...allora sappiamo anche la distribuzione della media campionaria! +
+
+
+ ...e anche della varianza campionaria! +
+
+
+
+ ...e che media campionaria e varianza campionaria sono indipendenti tra loro! +
+
+ Se la successione di variabili aleatorie
+
+ Se la successione di variabili aleatorie
+
+ Se la successione di variabili aleatorie
+
+ Se la successione di variabili aleatorie
+
+
+ In più: +
+
+
+ La successione delle medie campionarie
+
+ Ovvero: +
+
+
+
+ La successione delle medie campionarie
+
+ Ovvero: +
+
+
+ La successione delle medie campionarie
+
+ Ovvero: +
+
+
+ E' una somma di bernoulliane, e quindi si approssima a una normale: +
+
+
+ E' una somma di geometriche, e quindi si approssima a una normale: +
+
+
+ E' una somma di altre poissoniane, e quindi si approssima a una normale: +
+
+
+ E' una somma di esponenziali, e quindi si approssima a una normale: +
+
+
+ Se
+
+ Per indicare parametri sconosciuti di una legge si usa
+ Una variabile aleatoria funzione di un campione: +
+
+
+ Una statistica
+ Uno stimatore è corretto se il suo valore atteso coincide con quello dei + parametri che stima: +
+
+
+ Uno stimatore è asintoticamente corretto se, per infinite osservazioni, il suo + valore atteso coincide con quello dei parametri che stima: +
+
+
+ Uno stimatore è consistente in media quadratica se: +
+
+
+ Uno stimatore è consistente in probabilità se: +
+
+
+ Uno stimatore è asintoticamente normale se: +
+
+
+ Si può usare il metodo dei momenti per ottenere uno stimatore di una
+ popolazione
+ Lo stimatore di
+ Visto che: +
++ Allora: +
+
+
+ Se
+ Si può usare il metodo della massima verosomiglianza per ottenere uno stimatore
+ di una popolazione
+ Lo stimatore di
+ Consiste nel trovare il massimo assoluto
+
+ Gli stimatori di massima verosomiglianza sono asintoticamente corretti, consistenti + in probabilità e asintoticamente normali. +
++ Gli stimatori di massima verosomiglianza godono delle seguenti proprietà: +
++ Per il metodo dei momenti oppure per il metodo della massima verosomiglianza: +
+
+
+ Per il metodo dei momenti oppure per il metodo della massima verosomiglianza: +
+
+
+ Per il metodo dei momenti oppure per il metodo della massima verosomiglianza: +
+
+
+ Per il metodo della massima verosomiglianza: +
++ "intervallo di confidenza al 95%" ++
+ L'intervallo di valori di
+ L'intervallo di confidenza a N della stima
+
+ Può anche essere unilatero nel caso limiti la stima in una sola direzione, + positiva o negativa. +
+
+ Se conosciamo la varianza di una normale, allora possiamo ricavare velocemente gli
+ intervalli di confidenza all'
+ Se non conosciamo la varianza di una normale, allora possiamo ricavare velocemente gli
+ intervalli di confidenza all'
+
+ L'intervallo di confidenza per la proprorzione di una bernoulliana qualsiasi si ottiene + da questa formula: +
+
+
+ L'intervallo di confidenza per la media di una qualsiasi popolazione si ottiene da + questa formula: +
+
+