diff --git a/components/compat1.tsx b/components/compat1.tsx
index afee057..cd068d8 100644
--- a/components/compat1.tsx
+++ b/components/compat1.tsx
@@ -14,6 +14,7 @@ export const Split = ({title = undefined, children}) => {
)
}
+export const Section = Split
export const Box = ({title = undefined, children}) => {
return (
@@ -28,6 +29,12 @@ export const Box = ({title = undefined, children}) => {
)
}
+export const Example = (props) => {
+ return (
+
+
+ Come Fisica,
+ Spero che questi contenuti possano essere altrettanto utili a voi! +
++ NetLogo è un software di modellazione sistemi multiagente, da noi usato per le lezioni di + laboratorio. +
+
+ Si può
+ Il suo codice sorgente è disponibile su
+ Sistemi naturali o artificiali che si basano su leggi reversibili e deterministiche. +
++ In natura, alcuni leggi possono sembrare irreversibili a livello macroscopico, ma sono in realtà + reversibili a livello microscopico. +
++ Stati in cui si può trovare un sistema dinamico. +
++ Tutte insieme formano lo (iper)spazio delle fasi. +
++ Lo stato finale di un sistema dinamico. +
++ Tutte le fasi tendono a uno specifico attrattore. +
++ I sistemi dinamici elaborano informazione attraversando fasi e raggiungendo un + attrattore. +
++ Sistemi dinamici i cui cambiamenti sono descritti da funzioni lineari. +
++ Situazioni iniziali di un sistema lineare. +
++ Possono essere: +
+
+ Nell'insieme dei
+ Infine, in sistemi dissipativi può anche comparire: +
++ Funzione che rappresenta lo stato attuale del sistema. +
++ Gli attrattori coincidono con i suoi punti di minimo, detti punti fissi. +
++ Il suo complementare è la funzione energia. +
++ Sono sistemi con le seguenti caratteristiche: +
++ Hanno anche caratteristiche di livello più alto derivate dalle quattro precedenti: +
++ Gli agenti si distinguono anche in: +
++ Lo sviluppo negli agenti di nuove capacità per cui non erano stati programmati. +
++ Classificazione in base a come prende le decisioni un agente: +
++ Classificazione in base a come sono definiti gli obiettivi di un agente: +
++ Classificazione in base a quanto conosce dell'ambiente un agente: +
++ Influenza esercitata dal sistema sugli agenti per guidarli verso il loro obiettivo. +
++ Può essere: +
++ Comportamento emergente che si manifesta nei sistemi multiagente con tantissimi agenti. +
++ Indica la capacità di risoluzione di problemi complessi attraverso la collaborazione di più + agenti semplici. +
++ Meccanismi simili a quelli evolutivi umani che permettono ai tratti degli agenti + di convergere verso un valore. +
++ Inizialmente definita come numero di discendenti fertili, solitamente indica quanto è + probabile che i tratti di un individuo siano passati alla generazione successiva. +
++ Sequenza di valori che definisce uno o più tratti di un individuo. +
++ Un insieme di individui aventi tutti gli stessi cromosomi. +
++ Fenomeno che causa una piccola variazione casuale nei cromosomi dei figli. +
++ Previene la convergenza prematura in un sistema. +
++ Meccanismo di costruzione dei cromosomi in un figlio: i cromosomi dei genitori vengono + tagliati nello stesso punto scelto a caso, e per costruire quelli del figlio viene presa una + parte dal padre e l'altra parte dalla madre. +
++ Può portare al miglioramento di un individuo e allo sviluppo di nuovi tratti, ma solo nelle + parti di cromosoma che sono diverse tra i due genitori. +
++ Sequenza di valori all'interno di un cromosoma, che può includere anche sezioni in cui il + valore è irrilevante. +
++ Gli algoritmi genetici permettono di trovare gli schemi con la fitness più alta in + assoluto in un tempo relativamente breve: il sistema generalmente favorisce gli + schemi corti con fitness alta. +
++ Situazione in cui si è raggiunta una soluzione non-ottimale a causa dell'assenza di novità nel + sistema. +
++ Si può impedire con vari metodi: con la mutazione, introducendo requisiti di + località per l'accoppiamento, scegliendo diversamente i genitori, etc... +
++ Programmi che dati tanti esempi sono in grado di classificare un elemento in una o più + categorie. +
++ Sono formati da classificatori, liste + di messaggi, detettori e effettori. +
++ Strutture logiche che elaborano i messaggi. +
++ Valutano una espressione logica (condizione) sui messaggi in arrivo, e se questa risulta + essere vera, emettono un nuovo messaggio in risposta (azione). +
++ Unità di informazione di un sistema a classificatori: + sono generati da detettori e classificatori, + e consumati da classificatori ed effettori. +
++ Sensori che percepiscono lo stato dell'ambiente esterno e lo riportano sotto forma + di messaggi. +
++ Motori che rispondono ai messaggi effettuando una qualche azione nell'ambiente. +
++ Un punteggio associato ad ogni classificatore. +
++ Più un classificatore viene attivato, più la sua forza crescerà. +
++ Il numero di condizioni che devono essere soddisfatte perchè il classificatore si attivi. +
++ +
++ Prodotto di specificità e forza di un classificatore. +
++ Rappresenta quanto è probabile che venga utilizzato un dato classificatore nel caso che + le condizioni di più di uno vengano soddisfatte. +
++ Se l'input non soddisfa nessun classificatore esistente, se ne crea uno nuovo soddisfatto + dall'input attuale con una azione casuale. +
++ Se i classificatori emettono in output un messaggio non valido, si crea un nuovo classificatore + che trasforma quel messaggio in un output valido. +
++ Agenti che possono collegarsi tra loro tramite sinapsi (dirette) + e ricevere ed emettere impulsi lungo di esse. +
++ Gli impulsi ricevuti vengono temporaneamente memorizzati dal neurone attraverso valori + che decadono nel tempo. +
++ Se la somma dei valori di tutti gli impulsi ricevuti è maggiore di una certa soglia, + allora il neurone emetterà un impulso. +
+
+ Un modello semplificato di rete neurale in cui vengono considerati solo tempi
+ discreti (
+ È stato sviluppato da
+ I neuroni si attivano in un dato
+ Le sinapsi hanno una intensità: è un moltiplicatore che viene applicato a tutti + gli impulsi transitanti la sinapsi. +
+
+ Un neurone con una sinapsi entrante con intensità
+ Un neurone con due o più sinapsi entranti con intensità
+ Un neurone con due o più sinapsi entranti con
+ intensità
+ Un'estensione del modello booleano per permettere l'apprendimento automatico delle + configurazioni giuste di neuroni. +
+
+ È stato sviluppato da
Glossario | +||
---|---|---|
+ | ||
+ | Identificatore di un neurone specifico | +|
Intensità della sinapsi diretta da |
+ ||
Soglia di attivazione di un neurone | +||
Emissione di un neurone | +||
Somma degli ingressi di un neurone | +||
+ | Energia del sistema | +|
Stato di un neurone in un pattern | +||
+ | Sovrapposizione tra due pattern | +
+ In ogni
+ Tutti i neuroni del modello sono intercollegati tra loro da sinapsi. +
++ I neuroni non possono essere collegati a loro stessi. +
+
+ Questo porta il costo computazionale del modello ad essere
+ Una funzione dell'intero sistema che rappresenta il totale degli stati di tutti i neuroni e + tutte le connessioni. +
++ Un metodo per realizzare l'apprendimento nel modello di Hopfield. +
++ Si incrementa l'intensità delle sinapsi che connettono neuroni nello stesso stato, e invece si + decrementa l'intensità di quelle che connettono neuroni in stati opposti. +
+
+ Considerando i neuroni spenti e quelli accesi
+ come
+ Applicando l'apprendimento hebbiano al modello di Hopfield si ottengono sinapsi simmetriche. +
++ Se è valida questa proprietà, si può dimostrare che l'energia del sistema è sempre + decrescente, e che quindi che tenderà a un punto fisso! +
++ Il numero di neuroni attivati in entrambi i pattern. +
++ Più pattern vengono imparati da un modello, più è facile che essi interferiscano tra loro. +
++ In caso di pattern completamente scorrelati tra loro, il limite di pattern imparabili è circa: +
++ Per minimizzare l'interferenza tra pattern, è possibile insegnare al modello un archetipo: + si insegna più volte il pattern originale applicandoci una minima quantità di interferenza + casuale. +
++ Un modello di rete neurale che supporta l'apprendimento e che presenta più strati di + neuroni. +
++ Ha costi computazionali molto più bassi del modello di Hopfield. +
+Simbolo | +Descrizione | +
---|---|
Numero totale di neuroni nel sistema | +|
Numero di un neurone specifico | +|
Intensità della sinapsi diretta da |
+ |
Emissione del neurone |
+ |
Funzione che restituisce lo stato di un neurone dato un valore di input | +|
Somma degli input di un neurone | +|
Bias di un neurone | +
+ Una rete neurale che viene incapsulata all'interno di un singolo neurone. +
+
+ La sua emissione è determinata dalla sua funzione di emissione
+
+ Un percettrone la cui funzione di emissione è: +
++ Si parte da intensità casuali delle sinapsi. +
++ Si prova a classificare degli esempi pre-classificati: se un esempio viene classificato nel modo + sbagliato, si alterano le intensità delle sinapsi in direzione della sua classificazione + corretta. +
+
+ Nel caso che vi siano più strati di neuroni, allora sarà necessario ricorrere alla
+ Un modello a percettroni in cui non si presentano cicli. +
++ Alcuni dei neuroni che vi sono all'interno saranno dunque dei neuroni sorgente e dei neuroni pozzo. +
+
+
+ Come Fisica,
+ Spero che questi contenuti possano essere altrettanto utili a voi! +
+
+
+
+ Il prezzo che un individuo coerente riterrebbe equo per ricevere 1 nel caso + l'evento si verificasse e 0 nel caso l'evento non si verificasse. +
++ L'insieme di tutti gli esiti possibili di un esperimento. +
+
+
+ Un elemento dello spazio campionario. +
+
+
+ Un sottoinsieme dello spazio campionario. +
+
+
+ Lo spazio campionario stesso è un evento certo. +
++ Il complementare di un sottoinsieme. +
+
+
+ L'intersezione di più sottoinsiemi. +
+
+
+ L'unione di più sottoinsiemi. +
+
+
+
+ L'inclusione del primo insieme in un altro. +
+
+
+ Se si verifica
+ Un sottoinsieme vuoto. +
+
+
+ La disgiunzione di due insiemi. +
+
+
+ I sottoinsiemi dello spazio campionario formano una famiglia di sottoinsiemi + detta famiglia degli eventi. +
+
+
+ Qualsiasi sottoinsieme appartenente a
+ Se la famiglia degli eventi soddisfa questi tre requisiti, allora viene
+ detta
+ Un
+ esempio:
+ Un insieme di esiti e eventi: +
+
+ La partizione
+ La probabilità di un evento è un numero tra 0 e 1. +
+
+
+ La probabilità dello spazio campionario è sempre 1. +
+
+
+ La probabilità dell'unione di eventi indipendenti è uguale alla somma delle loro + probabilità. +
+
+
+ La probabilità di un evento negato è uguale a 1 meno la probabilità dell'evento non + negato. +
+
+
+ La probabilità di un evento incluso in un altro è sempre minore o uguale alla + probabilità dell'evento in cui è incluso. +
+
+
+ La probabilità di un evento unito a un altro è uguale alla somma delle probabilità dei + due eventi meno la probabilità della loro intersezione. +
+
+
+ Spazi campionari in cui ci sono un numero finito di esiti e ogni esito ha la stessa + probabilità di verificarsi. +
+
+
+ Gli spazi campionari possono avere un numero infinito di esiti: sono equiprobabili + geometrici se nessun esito è privilegiato rispetto agli altri. +
+
+ Estraggo un numero, da un sacchetto con
+ Tengo conto dell'ordine in cui ho estratto i numeri. +
+
+
+ Estraggo un numero, da un sacchetto con
+ Tengo conto dell'ordine in cui ho estratto i numeri. +
+
+
+ Estraggo un numero, da un sacchetto con
+ Non mi interessa l'ordine in cui ho estratto i numeri. +
+
+
+ Estraggo un numero, da un sacchetto con
+ Non mi interessa l'ordine in cui ho estratto i numeri. +
+
+
+ Estraggo
+
+ La probabilità che si verifichi
+
bash
, però al contrario...
+ + Se due eventi sono mutualmente esclusivi, entrambe le loro probabilità condizionate + saranno uguali a 0. +
+
+
+ Si può sfruttare la formula inversa della probabilità condizionata per calcolare catene + di intersezioni: +
+
+
+ La probabilità che si verifichi un evento è pari alla somma delle probabilità + dell'evento stesso dati tutti gli eventi di una partizione. +
+
+
+ La legge delle alternative funziona anche quando ad essere partizionato è + un evento: +
+
+
+ Tramite la formula di Bayes possiamo risalire alla probabilità di un evento + condizionato a un altro partendo dalla probabilità di quest'ultimo condizionato al + primo: +
+
+
+ Se due eventi sono indipendenti, sapere che uno dei due si è verificato non influisce + sulle probabilità che si sia verificato l'altro. +
+
+
+ Si può verificare l'indipendenza di più eventi alla volta: +
+
+
+ Eventi indipendenti a due a due non sono per forza indipendenti a tre a tre, e + viceversa. +
+
+ Un insieme di
+ Una funzione che fa corrispondere un numero reale a ogni possibile esito dello spazio
+ campionario.
+ Ad ogni variabile aleatoria sono associati gli
+ eventi
+ Per definizione, tutte le variabili aleatorie devono rispettare questa condizione: +
+
+
+ Il codominio della variabile aleatoria è il suo supporto. +
+
+ Per indicare che un valore
+ La funzione probabilità
+
+ La funzione densità
+
+ A differenza della funzione probabilità, è possibile che la funzione densità non + esista per una certa variabile aleatoria. +
+
+ Ogni variabile aleatoria ha una funzione di ripartizione
+
+ Si può dire che essa rappresenti la probabilità dell'evento
+
+ Possiamo usare la funzione di ripartizione per calcolare la probabilità di un certo + valore reale: +
+
+
+ Nel discreto basta abbinare un nuovo valore a ogni valore della variabile originale. +
++ Nel continuo applichiamo la formula dell'integrazione per sostituzione: +
+
+
+ Trasformare variabili aleatorie è molto utile nell'informatica per creare distribuzioni
+ partendo da una funzione random()
che
+ restituisce numeri da 0 a 1 con una distribuzione lineare.
+
+ Ogni variabile aleatoria che ha una funzione di ripartizione e un supporto + finito ha anche una media (o valore medio o atteso): +
+
+
+ Nel discreto, si può calcolare con: +
+
+
+ Nel continuo, si può calcolare con: +
+
+
+ Valore per cui la funzione probabilità o funzione densità è massima. +
+
+ Il quantile
+
+ +
+
+ Il quantile di ordine 0.5
+ I quantili di ordine 0.25
+ I quantili di ordine
+ È un valore che indica quanto la variabile aleatoria si discosta generalmente dalla + media: +
+
+
+ Data una variabile aleatoria non-negativa: +
+
+
+ Divide in due parti (
+
+ Se la variabile aleatoria
+
+ E anche: +
+
+
+ Il momento
+
+ La funzione generatrice dei momenti è: +
+
+
+ Se due variabile aleatorie hanno la stessa funzione generatrice dei momenti, allora esse + hanno la stessa distribuzione. +
++ E' la trasformata di Laplace della variabile aleatoria di X. +
++ La funzione caratteristica è: +
+
+
+ Se due variabile aleatorie hanno la stessa funzione caratteristica, allora esse hanno + la stessa distribuzione. +
++ E' la trasformata di Fourier della variabile aleatoria di X. +
++ Per dire che una variabile ha una certa distribuzione, si usa la notazione: +
+
+
+ Una prova con solo due possibili
+ esiti:
+ Una sequenza di prove di Bernoulli per le quali le probabilità di successo e fallimento + rimangono invariate. +
++ Una variabile aleatoria che rappresenta una prova di Bernoulli: +
+
+ Il suo simbolo è
+ La distribuzione bernoulliana ha come densità: +
+
+
+ Una variabile aleatoria che conta il numero di successi di
+ Il suo simbolo è
+ La binomiale ha come densità: +
+
+
+ La funzione generatrice dei momenti della binomiale è: +
+
+
+ La media di una binomiale è: +
+
+
+ La varianza di una binomiale è: +
+
+
+ Una variabile aleatoria che conta il numero di prove in uno schema di Bernoulli fino + alla comparsa del primo successo. +
+
+ Il suo simbolo è
+ La geometrica ha come densità: +
+
+
+ La funzione generatrice dei momenti della geometrica è: +
+
+
+ La media della geometrica è: +
+
+
+ La varianza della geometrica è: +
+
+
+ La geometrica non tiene conto degli eventi avvenuti in passato: ha la proprietà + dell'assenza di memoria: +
+
+
+ Una variabile aleatoria che conta il numero di prove in uno schema di Bernoulli
+ necessarie perchè si verifichi l'
+ Il suo simbolo è
+ La binomiale negativa ha come densità: +
+
+
+
+ La funzione generatrice dei momenti della binomiale negativa è: +
+
+
+ La media della binomiale negativa è: +
+
+
+ La varianza della binomiale negativa è: +
+
+
+ Una variabile aleatoria che conta il numero
+ Il suo simbolo rimane
+ La geometrica traslata ha come densità: +
+
+
+ La funzione generatrice dei momenti della geometrica traslata è: +
+
+
+ La media della geometrica traslata è: +
+
+
+ La varianza della geometrica è: +
+
+
+ La geometrica traslata non tiene conto degli eventi avvenuti in passato: ha la proprietà + dell'assenza di memoria: +
+
+
+ Una variabile aleatoria che conta il numero di insuccessi in uno schema di Bernoulli
+ prima che si verifichi l'
+ Il suo simbolo rimane
+ La binomiale negativa traslata ha come densità: +
+
+
+
+ La funzione generatrice dei momenti della binomiale negativa traslata è: +
+
+
+ La media della binomiale negativa traslata è: +
+
+
+ La varianza della binomiale negativa traslata è: +
+
+
+ Una variabile aleatoria che, sapendo il numero di successi
+ Il suo simbolo è
+ La ipergeometrica ha come densità: +
+
+
+
+ La funzione generatrice dei momenti della ipergeometrica è trascurabile. +
++ La media della ipergeometrica è: +
+
+
+ La varianza della ipergeometrica è: +
+
+
+ Una variabile aleatoria che soddisfa tutte le seguenti caratteristiche: +
+
+ Il suo simbolo è
+ La poissoniana ha come densità: +
+
+
+
+ La funzione generatrice dei momenti della poissoniana è: +
+
+
+ La media della poissoniana è: +
+
+
+ La varianza della poissoniana è: +
+
+
+ Gli altri momenti della poissoniana sono: +
++ Una successione di arrivi avvenuti in un certo arco temporale che: +
+
+ Una variabile aleatoria
+ E' una distribuzione poissoniana
+ con
+ Una variabile aleatoria che conta il tempo diwidehattesa prima del primo arrivo di un
+ processo di Poisson di intensità
+ Il suo simbolo è
+ L'esponenziale ha come densità: +
+
+
+ L'esponenziale ha come funzione di ripartizione: +
+
+
+ La funzione generatrice dei momenti dell'esponenziale è: +
+
+
+ La media dell'esponenziale è: +
+
+
+ La varianza dell'esponenziale è: +
+
+
+ L'esponenziale non tiene conto degli eventi avvenuti in passato: ha la proprietà + dell'assenza di memoria: +
+
+
+ Una variabile aleatoria che conta il tempo diwidehattesa prima dell'
+ Il suo simbolo è
+ La legge gamma ha come densità: +
+
+
+
+ La funzione generatrice dei momenti della legge gamma è: +
+
+
+ La media della legge gamma è: +
+
+
+ La varianza della legge gamma è: +
+
+
+ Una variabile aleatoria che può assumere qualsiasi valore in un
+ intervallo
+ Il suo simbolo è
+ Su di essa vale la seguente proprietà: +
+
+
+ La distribuzione uniforme ha come densità: +
+
+
+ La distribuzione uniforme ha come funzione di ripartizione: +
+
+
+
+ La funzione generatrice dei momenti della distribuzione uniforme è: +
+
+
+ La media della distribuzione uniforme è: +
+
+
+ La varianza della distribuzione uniforme è: +
+
+
+ Una variabile aleatoria con una specifica distribuzione. +
+
+ Il suo simbolo è
+ La distribuzione normale ha come densità: +
+
+
+
+ La funzione generatrice dei momenti della distribuzione normale è: +
+
+
+ La media della distribuzione normale è: +
+
+
+ La varianza della distribuzione normale è: +
+
+
+ Qualsiasi normale può essere trasformata in qualsiasi altra normale: +
+
+
+ La distribuzione normale standard
+
+ La sua funzione di ripartizione è detta
+
+ Da un quantile
+
+ La distribuzione normale ha una particolare relazione con la distribuzione Gamma: +
+
+
+ Esiste una distribuzione Gamma particolare: +
+
+
+ Più chi-quadro possono essere sommate per aumentare i loro gradi di libertà: +
+
+
+ Un'altra funzione particolare è la funzione T di Student: +
+
+
+ La binomiale è come una ipergeometrica ma con ripetizioni, quindi per valori molto
+ grandi di
+
+ La binomiale non è altro che una poissoniana a tempo discreto, quindi,
+ se
+
+ Per il Teorema di De Moivre-Laplace, se una binomiale ha una
+
+ Passando da una variabile discreta
+ Un vettore composto da variabili aleatorie. +
+
+ Il suo simbolo generalmente
+ è
+ I vettori aleatori hanno più funzioni di ripartizione che si differenziano in base al + numero di parametri. +
++ Se il numero di parametri coincide con la dimensione del vettore aleatorio, allora la + funzione sarà una funzione di ripartizione congiunta: +
+
+
+ Se il numero di parametri è minore della dimensione del vettore aleatorio, allora la + funzione sarà una funzione di ripartizione marginale: +
+
+
+ I vettori aleatori discreti hanno più densità che si differenziano in base al + numero di parametri. +
++ Se il numero di parametri coincide con la dimensione del vettore aleatorio, allora la + funzione sarà una densità congiunta: +
+
+
+ Se il numero di parametri è minore della dimensione del vettore aleatorio, allora la + funzione sarà una densità marginale: +
+
+
+ Più variabili aleatorie sono indipendenti se, per qualsiasi scelta di
+ intervalli
+
+ E' possibile calcolare la media di qualsiasi funzione
+
+ Le medie di più variabili aleatorie si possono sommare: +
+
+
+ Un operatore che misura la correlazione di due variabili aleatorie. +
++ Si calcola con il valore atteso dei prodotti delle distanze dalla media: +
+
+
+ Ha diverse proprietà: +
++ Due variabili sono variabili incorrelate se: +
+
+
+ Variabili indipendenti sono sempre incorrelate. +
+
+ Una matrice
+
+ E' sempre simmetrica e semidefinita positiva (tutti gli autovalori sono
+ Un valore che misura come due variabili aleatorie sono correlate: +
+
+
+ E' sempre compreso tra -1 e 1: +
+
+
+ Vale esattamente -1 o 1 solo se esiste un legame lineare tra le due variaibli: +
+
+
+ La varianza di due variabili aleatorie sommate è: +
+
+
+ Se più variabili
+ aleatorie
+
+ Una n-pla di variabili aleatorie con la stessa distribuzione della variabile
+ aleatoria
+ Il valore dato dalla media aritmetica degli
+
+ Il momento campionario di primo ordine è la media campionaria
+
+ La media aritmetica dello scarto quadratico medio degli elementi del campione. +
+
+ Se è noto il valore medio
+
+ Altrimenti: +
+
+
+ Se calcoliamo la media della media campionaria, risulterà vero che: +
+
+
+ Se calcoliamo la varianza della media campionaria, risulterà vero che: +
+
+
+ Se calcoliamo la media della varianza campionaria, risulterà vero che: +
+
+
+ Se la popolazione
+ ...allora sappiamo anche la distribuzione della media campionaria! +
+
+
+ ...e anche della varianza campionaria! +
+
+
+
+ ...e che media campionaria e varianza campionaria sono indipendenti tra loro! +
+
+ Se la successione di variabili aleatorie
+
+ Se la successione di variabili aleatorie
+
+ Se la successione di variabili aleatorie
+
+ Se la successione di variabili aleatorie
+
+
+ In più: +
+
+
+ La successione delle medie campionarie
+
+ Ovvero: +
+
+
+
+ La successione delle medie campionarie
+
+ Ovvero: +
+
+
+ La successione delle medie campionarie
+
+ Ovvero: +
+
+
+ E' una somma di bernoulliane, e quindi si approssima a una normale: +
+
+
+ E' una somma di geometriche, e quindi si approssima a una normale: +
+
+
+ E' una somma di altre poissoniane, e quindi si approssima a una normale: +
+
+
+ E' una somma di esponenziali, e quindi si approssima a una normale: +
+
+
+ Se
+
+ Per indicare parametri sconosciuti di una legge si usa
+ Una variabile aleatoria funzione di un campione: +
+
+
+ Una statistica
+ Uno stimatore è corretto se il suo valore atteso coincide con quello dei + parametri che stima: +
+
+
+ Uno stimatore è asintoticamente corretto se, per infinite osservazioni, il suo + valore atteso coincide con quello dei parametri che stima: +
+
+
+ Uno stimatore è consistente in media quadratica se: +
+
+
+ Uno stimatore è consistente in probabilità se: +
+
+
+ Uno stimatore è asintoticamente normale se: +
+
+
+ Si può usare il metodo dei momenti per ottenere uno stimatore di una
+ popolazione
+ Lo stimatore di
+ Visto che: +
++ Allora: +
+
+
+ Se
+ Si può usare il metodo della massima verosomiglianza per ottenere uno stimatore
+ di una popolazione
+ Lo stimatore di
+ Consiste nel trovare il massimo assoluto
+
+ Gli stimatori di massima verosomiglianza sono asintoticamente corretti, consistenti + in probabilità e asintoticamente normali. +
++ Gli stimatori di massima verosomiglianza godono delle seguenti proprietà: +
++ Per il metodo dei momenti oppure per il metodo della massima verosomiglianza: +
+
+
+ Per il metodo dei momenti oppure per il metodo della massima verosomiglianza: +
+
+
+ Per il metodo dei momenti oppure per il metodo della massima verosomiglianza: +
+
+
+ Per il metodo della massima verosomiglianza: +
+
+ L'intervallo di valori di
+ L'intervallo di confidenza a N della stima
+
+ Può anche essere unilatero nel caso limiti la stima in una sola direzione, + positiva o negativa. +
+
+ Se conosciamo la varianza di una normale, allora possiamo ricavare velocemente gli
+ intervalli di confidenza all'
+ Se non conosciamo la varianza di una normale, allora possiamo ricavare velocemente gli
+ intervalli di confidenza all'
+
+ L'intervallo di confidenza per la proprorzione di una bernoulliana qualsiasi si ottiene + da questa formula: +
+
+
+ L'intervallo di confidenza per la media di una qualsiasi popolazione si ottiene da + questa formula: +
+
+