From 003cc446721349186a7fbfce50f42924d2894dd5 Mon Sep 17 00:00:00 2001
From: Stefano Pigozzi
+
+ Come Fisica,
+ Spero che questi contenuti possano essere altrettanto utili a voi!
+
+ NetLogo è un software di modellazione sistemi multiagente, da noi usato per le lezioni di
+ laboratorio.
+
+ Si può
+ Il suo codice sorgente è disponibile su
+ Sistemi naturali o artificiali che si basano su leggi reversibili e deterministiche.
+
+ In natura, alcuni leggi possono sembrare irreversibili a livello macroscopico, ma sono in realtà
+ reversibili a livello microscopico.
+
+ Stati in cui si può trovare un sistema dinamico.
+
+ Tutte insieme formano lo (iper)spazio delle fasi.
+
+ Lo stato finale di un sistema dinamico.
+
+ Tutte le fasi tendono a uno specifico attrattore.
+
+ I sistemi dinamici elaborano informazione attraversando fasi e raggiungendo un
+ attrattore.
+
+ Sistemi dinamici i cui cambiamenti sono descritti da funzioni lineari.
+
+ Situazioni iniziali di un sistema lineare.
+
+ Possono essere:
+
+ Nell'insieme dei
+ Infine, in sistemi dissipativi può anche comparire:
+
+ Funzione che rappresenta lo stato attuale del sistema.
+
+ Gli attrattori coincidono con i suoi punti di minimo, detti punti fissi.
+
+ Il suo complementare è la funzione energia.
+
+ Sono sistemi con le seguenti caratteristiche:
+
+ Hanno anche caratteristiche di livello più alto derivate dalle quattro precedenti:
+
+ Gli agenti si distinguono anche in:
+
+ Lo sviluppo negli agenti di nuove capacità per cui non erano stati programmati.
+
+ Classificazione in base a come prende le decisioni un agente:
+
+ Classificazione in base a come sono definiti gli obiettivi di un agente:
+
+ Classificazione in base a quanto conosce dell'ambiente un agente:
+
+ Influenza esercitata dal sistema sugli agenti per guidarli verso il loro obiettivo.
+
+ Può essere:
+
+ Comportamento emergente che si manifesta nei sistemi multiagente con tantissimi agenti.
+
+ Indica la capacità di risoluzione di problemi complessi attraverso la collaborazione di più
+ agenti semplici.
+
+ Meccanismi simili a quelli evolutivi umani che permettono ai tratti degli agenti
+ di convergere verso un valore.
+
+ Inizialmente definita come numero di discendenti fertili, solitamente indica quanto è
+ probabile che i tratti di un individuo siano passati alla generazione successiva.
+
+ Sequenza di valori che definisce uno o più tratti di un individuo.
+
+ Un insieme di individui aventi tutti gli stessi cromosomi.
+
+ Fenomeno che causa una piccola variazione casuale nei cromosomi dei figli.
+
+ Previene la convergenza prematura in un sistema.
+
+ Meccanismo di costruzione dei cromosomi in un figlio: i cromosomi dei genitori vengono
+ tagliati nello stesso punto scelto a caso, e per costruire quelli del figlio viene presa una
+ parte dal padre e l'altra parte dalla madre.
+
+ Può portare al miglioramento di un individuo e allo sviluppo di nuovi tratti, ma solo nelle
+ parti di cromosoma che sono diverse tra i due genitori.
+
+ Sequenza di valori all'interno di un cromosoma, che può includere anche sezioni in cui il
+ valore è irrilevante.
+
+ Gli algoritmi genetici permettono di trovare gli schemi con la fitness più alta in
+ assoluto in un tempo relativamente breve: il sistema generalmente favorisce gli
+ schemi corti con fitness alta.
+
+ Situazione in cui si è raggiunta una soluzione non-ottimale a causa dell'assenza di novità nel
+ sistema.
+
+ Si può impedire con vari metodi: con la mutazione, introducendo requisiti di
+ località per l'accoppiamento, scegliendo diversamente i genitori, etc...
+
+ Programmi che dati tanti esempi sono in grado di classificare un elemento in una o più
+ categorie.
+
+ Sono formati da classificatori, liste
+ di messaggi, detettori e effettori.
+
+ Strutture logiche che elaborano i messaggi.
+
+ Valutano una espressione logica (condizione) sui messaggi in arrivo, e se questa risulta
+ essere vera, emettono un nuovo messaggio in risposta (azione).
+
+ Unità di informazione di un sistema a classificatori:
+ sono generati da detettori e classificatori,
+ e consumati da classificatori ed effettori.
+
+ Sensori che percepiscono lo stato dell'ambiente esterno e lo riportano sotto forma
+ di messaggi.
+
+ Motori che rispondono ai messaggi effettuando una qualche azione nell'ambiente.
+
+ Un punteggio associato ad ogni classificatore.
+
+ Più un classificatore viene attivato, più la sua forza crescerà.
+
+ Il numero di condizioni che devono essere soddisfatte perchè il classificatore si attivi.
+
+
+
+ Prodotto di specificità e forza di un classificatore.
+
+ Rappresenta quanto è probabile che venga utilizzato un dato classificatore nel caso che
+ le condizioni di più di uno vengano soddisfatte.
+
+ Se l'input non soddisfa nessun classificatore esistente, se ne crea uno nuovo soddisfatto
+ dall'input attuale con una azione casuale.
+
+ Se i classificatori emettono in output un messaggio non valido, si crea un nuovo classificatore
+ che trasforma quel messaggio in un output valido.
+
+ Agenti che possono collegarsi tra loro tramite sinapsi (dirette)
+ e ricevere ed emettere impulsi lungo di esse.
+
+ Gli impulsi ricevuti vengono temporaneamente memorizzati dal neurone attraverso valori
+ che decadono nel tempo.
+
+ Se la somma dei valori di tutti gli impulsi ricevuti è maggiore di una certa soglia,
+ allora il neurone emetterà un impulso.
+
+ Un modello semplificato di rete neurale in cui vengono considerati solo tempi
+ discreti (
+ È stato sviluppato da
+ I neuroni si attivano in un dato
+ Le sinapsi hanno una intensità: è un moltiplicatore che viene applicato a tutti
+ gli impulsi transitanti la sinapsi.
+
+ Un neurone con una sinapsi entrante con intensità
+ Un neurone con due o più sinapsi entranti con intensità
+ Un neurone con due o più sinapsi entranti con
+ intensità
+ Un'estensione del modello booleano per permettere l'apprendimento automatico delle
+ configurazioni giuste di neuroni.
+
+ È stato sviluppato da
+ In ogni
+ Tutti i neuroni del modello sono intercollegati tra loro da sinapsi.
+
+ I neuroni non possono essere collegati a loro stessi.
+
+ Questo porta il costo computazionale del modello ad essere
+ Una funzione dell'intero sistema che rappresenta il totale degli stati di tutti i neuroni e
+ tutte le connessioni.
+
+ Un metodo per realizzare l'apprendimento nel modello di Hopfield.
+
+ Si incrementa l'intensità delle sinapsi che connettono neuroni nello stesso stato, e invece si
+ decrementa l'intensità di quelle che connettono neuroni in stati opposti.
+
+ Considerando i neuroni spenti e quelli accesi
+ come
+ Applicando l'apprendimento hebbiano al modello di Hopfield si ottengono sinapsi simmetriche.
+
+ Se è valida questa proprietà, si può dimostrare che l'energia del sistema è sempre
+ decrescente, e che quindi che tenderà a un punto fisso!
+
+ Il numero di neuroni attivati in entrambi i pattern.
+
+ Più pattern vengono imparati da un modello, più è facile che essi interferiscano tra loro.
+
+ In caso di pattern completamente scorrelati tra loro, il limite di pattern imparabili è circa:
+
+ Per minimizzare l'interferenza tra pattern, è possibile insegnare al modello un archetipo:
+ si insegna più volte il pattern originale applicandoci una minima quantità di interferenza
+ casuale.
+
+ Un modello di rete neurale che supporta l'apprendimento e che presenta più strati di
+ neuroni.
+
+ Ha costi computazionali molto più bassi del modello di Hopfield.
+
+ Una rete neurale che viene incapsulata all'interno di un singolo neurone.
+
+ La sua emissione è determinata dalla sua funzione di emissione
+
+ Un percettrone la cui funzione di emissione è:
+
+ Si parte da intensità casuali delle sinapsi.
+
+ Si prova a classificare degli esempi pre-classificati: se un esempio viene classificato nel modo
+ sbagliato, si alterano le intensità delle sinapsi in direzione della sua classificazione
+ corretta.
+
+ Nel caso che vi siano più strati di neuroni, allora sarà necessario ricorrere alla
+ Un modello a percettroni in cui non si presentano cicli.
+
+ Alcuni dei neuroni che vi sono all'interno saranno dunque dei neuroni sorgente e dei neuroni pozzo.
+
+
+ Come Fisica,
+ Spero che questi contenuti possano essere altrettanto utili a voi!
+
+
+
+ Il prezzo che un individuo coerente riterrebbe equo per ricevere 1 nel caso
+ l'evento si verificasse e 0 nel caso l'evento non si verificasse.
+
+ L'insieme di tutti gli esiti possibili di un esperimento.
+
+
+ Un elemento dello spazio campionario.
+
+
+ Un sottoinsieme dello spazio campionario.
+
+
+ Lo spazio campionario stesso è un evento certo.
+
+ Il complementare di un sottoinsieme.
+
+
+ L'intersezione di più sottoinsiemi.
+
+
+ L'unione di più sottoinsiemi.
+
+
+
+ L'inclusione del primo insieme in un altro.
+
+
+ Se si verifica
+ Un sottoinsieme vuoto.
+
+
+ La disgiunzione di due insiemi.
+
+
+ I sottoinsiemi dello spazio campionario formano una famiglia di sottoinsiemi
+ detta famiglia degli eventi.
+
+
+ Qualsiasi sottoinsieme appartenente a
+ Se la famiglia degli eventi soddisfa questi tre requisiti, allora viene
+ detta
+ Un
+ esempio:
+ Un insieme di esiti e eventi:
+
+ La partizione
+ La probabilità di un evento è un numero tra 0 e 1.
+
+
+ La probabilità dello spazio campionario è sempre 1.
+
+
+ La probabilità dell'unione di eventi indipendenti è uguale alla somma delle loro
+ probabilità.
+
+
+ La probabilità di un evento negato è uguale a 1 meno la probabilità dell'evento non
+ negato.
+
+
+ La probabilità di un evento incluso in un altro è sempre minore o uguale alla
+ probabilità dell'evento in cui è incluso.
+
+
+ La probabilità di un evento unito a un altro è uguale alla somma delle probabilità dei
+ due eventi meno la probabilità della loro intersezione.
+
+
+ Spazi campionari in cui ci sono un numero finito di esiti e ogni esito ha la stessa
+ probabilità di verificarsi.
+
+
+ Gli spazi campionari possono avere un numero infinito di esiti: sono equiprobabili
+ geometrici se nessun esito è privilegiato rispetto agli altri.
+
+ Estraggo un numero, da un sacchetto con
+ Tengo conto dell'ordine in cui ho estratto i numeri.
+
+
+ Estraggo un numero, da un sacchetto con
+ Tengo conto dell'ordine in cui ho estratto i numeri.
+
+
+ Estraggo un numero, da un sacchetto con
+ Non mi interessa l'ordine in cui ho estratto i numeri.
+
+
+ Estraggo un numero, da un sacchetto con
+ Non mi interessa l'ordine in cui ho estratto i numeri.
+
+
+ Estraggo
+
+ La probabilità che si verifichi
+
+ Se due eventi sono mutualmente esclusivi, entrambe le loro probabilità condizionate
+ saranno uguali a 0.
+
+
+ Si può sfruttare la formula inversa della probabilità condizionata per calcolare catene
+ di intersezioni:
+
+
+ La probabilità che si verifichi un evento è pari alla somma delle probabilità
+ dell'evento stesso dati tutti gli eventi di una partizione.
+
+
+ La legge delle alternative funziona anche quando ad essere partizionato è
+ un evento:
+
+
+ Tramite la formula di Bayes possiamo risalire alla probabilità di un evento
+ condizionato a un altro partendo dalla probabilità di quest'ultimo condizionato al
+ primo:
+
+
+ Se due eventi sono indipendenti, sapere che uno dei due si è verificato non influisce
+ sulle probabilità che si sia verificato l'altro.
+
+
+ Si può verificare l'indipendenza di più eventi alla volta:
+
+
+ Eventi indipendenti a due a due non sono per forza indipendenti a tre a tre, e
+ viceversa.
+
+ Un insieme di
+ Una funzione che fa corrispondere un numero reale a ogni possibile esito dello spazio
+ campionario.
+ Ad ogni variabile aleatoria sono associati gli
+ eventi
+ Per definizione, tutte le variabili aleatorie devono rispettare questa condizione:
+
+
+ Il codominio della variabile aleatoria è il suo supporto.
+
+ Per indicare che un valore
+ La funzione probabilità
+
+ La funzione densità
+
+ A differenza della funzione probabilità, è possibile che la funzione densità non
+ esista per una certa variabile aleatoria.
+
+ Ogni variabile aleatoria ha una funzione di ripartizione
+
+ Si può dire che essa rappresenti la probabilità dell'evento
+
+ Possiamo usare la funzione di ripartizione per calcolare la probabilità di un certo
+ valore reale:
+
+
+ Nel discreto basta abbinare un nuovo valore a ogni valore della variabile originale.
+
+ Nel continuo applichiamo la formula dell'integrazione per sostituzione:
+
+
+ Trasformare variabili aleatorie è molto utile nell'informatica per creare distribuzioni
+ partendo da una funzione
+ Ogni variabile aleatoria che ha una funzione di ripartizione e un supporto
+ finito ha anche una media (o valore medio o atteso):
+
+
+ Nel discreto, si può calcolare con:
+
+
+ Nel continuo, si può calcolare con:
+
+
+ Valore per cui la funzione probabilità o funzione densità è massima.
+
+ Il quantile
+
+
+
+ Il quantile di ordine 0.5
+ I quantili di ordine 0.25
+ I quantili di ordine
+ È un valore che indica quanto la variabile aleatoria si discosta generalmente dalla
+ media:
+
+
+ Data una variabile aleatoria non-negativa:
+
+
+ Divide in due parti (
+
+ Se la variabile aleatoria
+
+ E anche:
+
+
+ Il momento
+
+ La funzione generatrice dei momenti è:
+
+
+ Se due variabile aleatorie hanno la stessa funzione generatrice dei momenti, allora esse
+ hanno la stessa distribuzione.
+
+ E' la trasformata di Laplace della variabile aleatoria di X.
+
+ La funzione caratteristica è:
+
+
+ Se due variabile aleatorie hanno la stessa funzione caratteristica, allora esse hanno
+ la stessa distribuzione.
+
+ E' la trasformata di Fourier della variabile aleatoria di X.
+
+ Per dire che una variabile ha una certa distribuzione, si usa la notazione:
+
+
+ Una prova con solo due possibili
+ esiti:
+ Una sequenza di prove di Bernoulli per le quali le probabilità di successo e fallimento
+ rimangono invariate.
+
+ Una variabile aleatoria che rappresenta una prova di Bernoulli:
+
+ Il suo simbolo è
+ La distribuzione bernoulliana ha come densità:
+
+
+ Una variabile aleatoria che conta il numero di successi di
+ Il suo simbolo è
+ La binomiale ha come densità:
+
+
+ La funzione generatrice dei momenti della binomiale è:
+
+
+ La media di una binomiale è:
+
+
+ La varianza di una binomiale è:
+
+
+ Una variabile aleatoria che conta il numero di prove in uno schema di Bernoulli fino
+ alla comparsa del primo successo.
+
+ Il suo simbolo è
+ La geometrica ha come densità:
+
+
+ La funzione generatrice dei momenti della geometrica è:
+
+
+ La media della geometrica è:
+
+
+ La varianza della geometrica è:
+
+
+ La geometrica non tiene conto degli eventi avvenuti in passato: ha la proprietà
+ dell'assenza di memoria:
+
+
+ Una variabile aleatoria che conta il numero di prove in uno schema di Bernoulli
+ necessarie perchè si verifichi l'
+ Il suo simbolo è
+ La binomiale negativa ha come densità:
+
+
+
+ La funzione generatrice dei momenti della binomiale negativa è:
+
+
+ La media della binomiale negativa è:
+
+
+ La varianza della binomiale negativa è:
+
+
+ Se ti accorgi di un problema di visualizzazione, fammelo sapere su GitHub!
+
+
+
+
+
+
+
+
+
+
+
+
+
+ Agenti benevoli: ad esempio, filtri che bannano i troll
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+ Glossario
+
+
+
+
+
+
+
+
+
+ Identificatore di un neurone specifico
+
+
+
+
+ Intensità della sinapsi diretta da
+
+
+
+
+ Soglia di attivazione di un neurone
+
+
+
+
+ Emissione di un neurone
+
+
+
+
+ Somma degli ingressi di un neurone
+
+
+
+
+ Energia del sistema
+
+
+
+
+ Stato di un neurone in un pattern
+
+
+
+
+
+ Sovrapposizione tra due pattern
+
+
+
+
+
+
+
+
+
+ Simbolo
+ Descrizione
+
+
+
+ Numero totale di neuroni nel sistema
+
+
+
+ Numero di un neurone specifico
+
+
+
+ Intensità della sinapsi diretta da
+
+
+
+ Emissione del neurone
+
+
+
+ Funzione che restituisce lo stato di un neurone dato un valore di input
+
+
+
+ Somma degli input di un neurone
+
+
+
+
+ Bias di un neurone
+
+
+
+
+ bash
, però al contrario...
+
+
+
+
+ random()
che
+ restituisce numeri da 0 a 1 con una distribuzione lineare.
+
+
+
+ Una variabile aleatoria che conta il numero
+ Il suo simbolo rimane
+ La geometrica traslata ha come densità: +
+
+
+ La funzione generatrice dei momenti della geometrica traslata è: +
+
+
+ La media della geometrica traslata è: +
+
+
+ La varianza della geometrica è: +
+
+
+ La geometrica traslata non tiene conto degli eventi avvenuti in passato: ha la proprietà + dell'assenza di memoria: +
+
+
+ Una variabile aleatoria che conta il numero di insuccessi in uno schema di Bernoulli
+ prima che si verifichi l'
+ Il suo simbolo rimane
+ La binomiale negativa traslata ha come densità: +
+
+
+
+ La funzione generatrice dei momenti della binomiale negativa traslata è: +
+
+
+ La media della binomiale negativa traslata è: +
+
+
+ La varianza della binomiale negativa traslata è: +
+
+
+ Una variabile aleatoria che, sapendo il numero di successi
+ Il suo simbolo è
+ La ipergeometrica ha come densità: +
+
+
+
+ La funzione generatrice dei momenti della ipergeometrica è trascurabile. +
++ La media della ipergeometrica è: +
+
+
+ La varianza della ipergeometrica è: +
+
+
+ Una variabile aleatoria che soddisfa tutte le seguenti caratteristiche: +
+
+ Il suo simbolo è
+ La poissoniana ha come densità: +
+
+
+
+ La funzione generatrice dei momenti della poissoniana è: +
+
+
+ La media della poissoniana è: +
+
+
+ La varianza della poissoniana è: +
+
+
+ Gli altri momenti della poissoniana sono: +
++ Una successione di arrivi avvenuti in un certo arco temporale che: +
+
+ Una variabile aleatoria
+ E' una distribuzione poissoniana
+ con
+ Una variabile aleatoria che conta il tempo diwidehattesa prima del primo arrivo di un
+ processo di Poisson di intensità
+ Il suo simbolo è
+ L'esponenziale ha come densità: +
+
+
+ L'esponenziale ha come funzione di ripartizione: +
+
+
+ La funzione generatrice dei momenti dell'esponenziale è: +
+
+
+ La media dell'esponenziale è: +
+
+
+ La varianza dell'esponenziale è: +
+
+
+ L'esponenziale non tiene conto degli eventi avvenuti in passato: ha la proprietà + dell'assenza di memoria: +
+
+
+ Una variabile aleatoria che conta il tempo diwidehattesa prima dell'
+ Il suo simbolo è
+ La legge gamma ha come densità: +
+
+
+
+ La funzione generatrice dei momenti della legge gamma è: +
+
+
+ La media della legge gamma è: +
+
+
+ La varianza della legge gamma è: +
+
+
+ Una variabile aleatoria che può assumere qualsiasi valore in un
+ intervallo
+ Il suo simbolo è
+ Su di essa vale la seguente proprietà: +
+
+
+ La distribuzione uniforme ha come densità: +
+
+
+ La distribuzione uniforme ha come funzione di ripartizione: +
+
+
+
+ La funzione generatrice dei momenti della distribuzione uniforme è: +
+
+
+ La media della distribuzione uniforme è: +
+
+
+ La varianza della distribuzione uniforme è: +
+
+
+ Una variabile aleatoria con una specifica distribuzione. +
+
+ Il suo simbolo è
+ La distribuzione normale ha come densità: +
+
+
+
+ La funzione generatrice dei momenti della distribuzione normale è: +
+
+
+ La media della distribuzione normale è: +
+
+
+ La varianza della distribuzione normale è: +
+
+
+ Qualsiasi normale può essere trasformata in qualsiasi altra normale: +
+
+
+ La distribuzione normale standard
+
+ La sua funzione di ripartizione è detta
+
+ Da un quantile
+
+ La distribuzione normale ha una particolare relazione con la distribuzione Gamma: +
+
+
+ Esiste una distribuzione Gamma particolare: +
+
+
+ Più chi-quadro possono essere sommate per aumentare i loro gradi di libertà: +
+
+
+ Un'altra funzione particolare è la funzione T di Student: +
+
+
+ La binomiale è come una ipergeometrica ma con ripetizioni, quindi per valori molto
+ grandi di
+
+ La binomiale non è altro che una poissoniana a tempo discreto, quindi,
+ se
+
+ Per il Teorema di De Moivre-Laplace, se una binomiale ha una
+
+ Passando da una variabile discreta
+ Un vettore composto da variabili aleatorie. +
+
+ Il suo simbolo generalmente
+ è
+ I vettori aleatori hanno più funzioni di ripartizione che si differenziano in base al + numero di parametri. +
++ Se il numero di parametri coincide con la dimensione del vettore aleatorio, allora la + funzione sarà una funzione di ripartizione congiunta: +
+
+
+ Se il numero di parametri è minore della dimensione del vettore aleatorio, allora la + funzione sarà una funzione di ripartizione marginale: +
+
+
+ I vettori aleatori discreti hanno più densità che si differenziano in base al + numero di parametri. +
++ Se il numero di parametri coincide con la dimensione del vettore aleatorio, allora la + funzione sarà una densità congiunta: +
+
+
+ Se il numero di parametri è minore della dimensione del vettore aleatorio, allora la + funzione sarà una densità marginale: +
+
+
+ Più variabili aleatorie sono indipendenti se, per qualsiasi scelta di
+ intervalli
+
+ E' possibile calcolare la media di qualsiasi funzione
+
+ Le medie di più variabili aleatorie si possono sommare: +
+
+
+ Un operatore che misura la correlazione di due variabili aleatorie. +
++ Si calcola con il valore atteso dei prodotti delle distanze dalla media: +
+
+
+ Ha diverse proprietà: +
++ Due variabili sono variabili incorrelate se: +
+
+
+ Variabili indipendenti sono sempre incorrelate. +
+
+ Una matrice
+
+ E' sempre simmetrica e semidefinita positiva (tutti gli autovalori sono
+ Un valore che misura come due variabili aleatorie sono correlate: +
+
+
+ E' sempre compreso tra -1 e 1: +
+
+
+ Vale esattamente -1 o 1 solo se esiste un legame lineare tra le due variaibli: +
+
+
+ La varianza di due variabili aleatorie sommate è: +
+
+
+ Se più variabili
+ aleatorie
+
+ Una n-pla di variabili aleatorie con la stessa distribuzione della variabile
+ aleatoria
+ Il valore dato dalla media aritmetica degli
+
+ Il momento campionario di primo ordine è la media campionaria
+
+ La media aritmetica dello scarto quadratico medio degli elementi del campione. +
+
+ Se è noto il valore medio
+
+ Altrimenti: +
+
+
+ Se calcoliamo la media della media campionaria, risulterà vero che: +
+
+
+ Se calcoliamo la varianza della media campionaria, risulterà vero che: +
+
+
+ Se calcoliamo la media della varianza campionaria, risulterà vero che: +
+
+
+ Se la popolazione
+ ...allora sappiamo anche la distribuzione della media campionaria! +
+
+
+ ...e anche della varianza campionaria! +
+
+
+
+ ...e che media campionaria e varianza campionaria sono indipendenti tra loro! +
+
+ Se la successione di variabili aleatorie
+
+ Se la successione di variabili aleatorie
+
+ Se la successione di variabili aleatorie
+
+ Se la successione di variabili aleatorie
+
+
+ In più: +
+
+
+ La successione delle medie campionarie
+
+ Ovvero: +
+
+
+
+ La successione delle medie campionarie
+
+ Ovvero: +
+
+
+ La successione delle medie campionarie
+
+ Ovvero: +
+
+
+ E' una somma di bernoulliane, e quindi si approssima a una normale: +
+
+
+ E' una somma di geometriche, e quindi si approssima a una normale: +
+
+
+ E' una somma di altre poissoniane, e quindi si approssima a una normale: +
+
+
+ E' una somma di esponenziali, e quindi si approssima a una normale: +
+
+
+ Se
+
+ Per indicare parametri sconosciuti di una legge si usa
+ Una variabile aleatoria funzione di un campione: +
+
+
+ Una statistica
+ Uno stimatore è corretto se il suo valore atteso coincide con quello dei + parametri che stima: +
+
+
+ Uno stimatore è asintoticamente corretto se, per infinite osservazioni, il suo + valore atteso coincide con quello dei parametri che stima: +
+
+
+ Uno stimatore è consistente in media quadratica se: +
+
+
+ Uno stimatore è consistente in probabilità se: +
+
+
+ Uno stimatore è asintoticamente normale se: +
+
+
+ Si può usare il metodo dei momenti per ottenere uno stimatore di una
+ popolazione
+ Lo stimatore di
+ Visto che: +
++ Allora: +
+
+
+ Se
+ Si può usare il metodo della massima verosomiglianza per ottenere uno stimatore
+ di una popolazione
+ Lo stimatore di
+ Consiste nel trovare il massimo assoluto
+
+ Gli stimatori di massima verosomiglianza sono asintoticamente corretti, consistenti + in probabilità e asintoticamente normali. +
++ Gli stimatori di massima verosomiglianza godono delle seguenti proprietà: +
++ Per il metodo dei momenti oppure per il metodo della massima verosomiglianza: +
+
+
+ Per il metodo dei momenti oppure per il metodo della massima verosomiglianza: +
+
+
+ Per il metodo dei momenti oppure per il metodo della massima verosomiglianza: +
+
+
+ Per il metodo della massima verosomiglianza: +
+
+ L'intervallo di valori di
+ L'intervallo di confidenza a N della stima
+
+ Può anche essere unilatero nel caso limiti la stima in una sola direzione, + positiva o negativa. +
+
+ Se conosciamo la varianza di una normale, allora possiamo ricavare velocemente gli
+ intervalli di confidenza all'
+ Se non conosciamo la varianza di una normale, allora possiamo ricavare velocemente gli
+ intervalli di confidenza all'
+
+ L'intervallo di confidenza per la proprorzione di una bernoulliana qualsiasi si ottiene + da questa formula: +
+
+
+ L'intervallo di confidenza per la media di una qualsiasi popolazione si ottiene da + questa formula: +
+
+