import Section from "../components/Elements/Section"; import Panel from "../components/Elements/Panel"; import Example from "../components/Elements/Example"; import Timer from "../components/Elements/Timer"; import Todo from "../components/Elements/Todo"; import ILatex from "../components/Rendering/ILatex"; import TablePanel from "../components/Elements/TablePanel"; import BLatex from "../components/Rendering/BLatex"; import PLatex from "../components/Rendering/PLatex"; import Tick from "../components/PageSpecific/ApprendimentoSistemiArtificiali/Tick"; const r = String.raw; export default function(props) { return (

Apprendimento ed evoluzione in sistemi artificiali

Se sei uno studente dell'Unimore, puoi accedere all'archivio del corso su Google Drive.

  • Scegli 2 tra 6 domande possibili
  • 90 minuti

NetLogo è un software di modellazione sistemi multiagente, da noi usato per le lezioni di laboratorio.

Si può scaricare o usare da browser.

Il suo codice sorgente è disponibile su GitHub, e ha una pagina di documentazione.

Consulta i miei appunti su NetLogo qui!

Sono sistemi con le seguenti caratteristiche:

  • Autonomia: agiscono gli uni indipendentemente dagli altri
  • Reattività: percepiscono ciò che sta nel loro ambiente e reagiscono ai cambiamenti di quest'ultimo
  • Proattività: agiscono in maniera tale da portare a termine i loro obiettivi
  • Socialità: comunicano con gli altri agenti, scambiando informazioni

Hanno anche caratteristiche di livello più alto derivate dalle quattro precedenti:

  • Conoscenza
  • Intenzioni
  • Emozioni
  • Obblighi
  • Obiettivi
  • etc...

Gli agenti solitamente hanno anche:

  • Mobilità: possono muoversi nell'ambiente
  • Veridicità: producono informazioni corrette
  • Benevolenza: agiscono nel modo corretto
  • Razionalità: compiono le azioni necessarie per raggiungere i loro obiettivi, e non altre che glielo impedirebbero

Lo sviluppo negli agenti di nuove capacità per cui non erano stati programmati.

Ad esempio, la Swarm Intelligence, descritta dopo!

Classificazione in base a come prende le decisioni un agente:

  • Logic-based: prende le decisioni attraverso deduzioni logiche
  • Reactive: mappa una reazione a ogni situazione dell'ambiente
  • Belief-desire-intention: per decidere, considera le proprie assunzioni sul mondo (belief), i propri desideri (desire) e le sue intenzioni correnti (intention)
  • Layered: utilizza diversi strati di capacità cognitive per giungere a una decisione

Classificazione in base a come sono definiti gli obiettivi di un agente:

  • Teleonomico: gli obiettivi sono predefiniti ed espliciti
  • Riflessivo: l'agente è libero di scegliere il suo obiettivo in base alle proprie percezioni interne

Classificazione in base a quanto conosce dell'ambiente un agente:

  • Cognitivo: l'agente è immediatamente a conoscenza di tutto l'ambiente
  • Reattivo: l'agente deve scoprire l'ambiente con le sue capacità sensoriali
  • Distribuzione: più agenti possono coprire aree di ambiente più vaste, o elaborare più in fretta zone più dense di informazione
  • Rappresentazione: i sistemi multi-agente modellano più accuratamente il mondo reale

Comportamento emergente che si manifesta nei sistemi multiagente con tantissimi agenti.

Indica la capacità di risoluzione di problemi complessi attraverso la collaborazione di più agenti semplici.

Meccanismi simili a quelli evolutivi umani che permettono ai tratti degli agenti di convergere verso un valore.

Inizialmente definita come numero di discendenti fertili, solitamente indica quanto è probabile che i tratti di un individuo siano passati alla generazione successiva.

Sequenza di valori che definisce uno o più tratti di un individuo.

Un insieme di individui aventi tutti gli stessi cromosomi.

Fenomeno che causa una piccola variazione casuale nei cromosomi dei figli.

Previene la convergenza prematura in un sistema.

Meccanismo di costruzione dei cromosomi in un figlio: i cromosomi dei genitori vengono tagliati nello stesso punto scelto a caso, e per costruire quelli del figlio viene presa una parte dal padre e l'altra parte dalla madre.

Può portare al miglioramento di un individuo e allo sviluppo di nuovi tratti, ma solo nelle parti di cromosoma che sono diverse tra i due genitori.

Sequenza di valori all'interno di un cromosoma, che può includere anche sezioni in cui il valore è irrilevante.

Gli algoritmi genetici permettono di trovare gli schemi con la fitness più alta in assoluto in un tempo relativamente breve: il sistema generalmente favorisce gli schemi corti con fitness alta.

Situazione in cui si è raggiunta una soluzione non-ottimale a causa dell'assenza di novità nel sistema.

Si può impedire con vari metodi: con la mutazione, introducendo requisiti di località per l'accoppiamento, scegliendo diversamente i genitori, etc...

Programmi che dati tanti esempi sono in grado di classificare un elemento in una o più categorie.

Sono formati da classificatori, liste di messaggi, detettori e effettori.

Strutture logiche che elaborano i messaggi.

Valutano una espressione logica (condizione) sui messaggi in arrivo, e se questa risulta essere vera, emettono un nuovo messaggio in risposta (azione).

Condizione e azione possono essere considerati come due cromosomi di un algoritmo genetico!

Unità di informazione di un sistema a classificatori: sono generati da detettori e classificatori, e consumati da classificatori ed effettori.

Sensori che percepiscono lo stato dell'ambiente esterno e lo riportano sotto forma di messaggi.

Motori che rispondono ai messaggi effettuando una qualche azione nell'ambiente.

Un punteggio associato ad ogni classificatore.

Più un classificatore viene attivato, più la sua forza crescerà.

I classificatori più deboli vengono lentamente eliminati!

Il numero di condizioni che devono essere soddisfatte perchè il classificatore si attivi.

Prodotto di specificità e forza di un classificatore.

Rappresenta quanto è probabile che venga utilizzato un dato classificatore nel caso che le condizioni di più di uno vengano soddisfatte.

La fitness degli algoritmi genetici.

Se l'input non soddisfa nessun classificatore esistente, se ne crea uno nuovo con una azione casuale.

Se i classificatori emettono in output un messaggio

Non è importante l'architettura fisica di un intelligenza, ma solo la sua capacità di elaborare simboli.

TODO: è una teoria, una filosofia o cosa? Come si collega alla Stanza Cinese?

Agenti che possono collegarsi tra loro tramite sinapsi (dirette) e ricevere ed emettere impulsi lungo di esse.

Gli impulsi ricevuti vengono temporaneamente memorizzati dal neurone attraverso valori che decadono nel tempo.

Se la somma dei valori di tutti gli impulsi ricevuti è maggiore di una certa soglia, allora il neurone emetterà un impulso.

Un modello semplificato di rete neurale in cui vengono considerati solo tempi discreti (ticks), e non è presente la memorizzazione degli impulsi nel tempo.

È stato sviluppato da Warren McCulloch (un neurofisiologo) e Walter Pitts (un matematico).

È importante perchè dimostra che le reti neurali possono elaborare qualsiasi cosa, ma incompleto perchè non descrive nessun metodo per la loro creazione automatica.

I neuroni si attivano in un dato se la somma dei loro impulsi nel precedente è maggiore o uguale a 1.

Le sinapsi hanno una intensità: è un moltiplicatore che viene applicato a tutti gli impulsi transitanti la sinapsi.

Un neurone con una sinapsi entrante con intensità {r`-1`}.

Un neurone con due o più sinapsi entranti con intensità {r`1`}.

Un neurone con due o più sinapsi entranti con intensità {r`\frac{1}{numero\ sinapsi}`}.

Un'estensione del modello booleano per permettere l'apprendimento automatico delle configurazioni giuste di neuroni.

È stato sviluppato da John Hopfield (uno scienziato).

Non è molto avanzato, ma ha portato a ulteriori studi nel campo delle reti neurali.
v s Glossario {r`t`} Tick attuale {r`n`}, {r`m`} Identificatore di un neurone specifico {r`\mathbf{W}`} {r`w_{nm}`} Intensità della sinapsi diretta da {r`n`} verso {r`m`} {r`\mathbf{\Theta}`} {r`\theta_n`} Soglia di attivazione di un neurone {r`\mathbf{X}(t)`} {r`x_n(t)`} Emissione di un neurone {r`\mathbf{I}(t)`} {r`i_n(t)`} Somma degli ingressi di un neurone {r`E`} Energia del sistema {r`\mathbf{A}`} {r`a_i`} Stato di un neurone in un pattern {r`Q(\mathbf{A}, \mathbf{B})`} Sovrapposizione tra due pattern

In ogni , i neuroni:

  • Emettono {r`0`} se gli input nel precedente erano inferiori alla soglia di attivazione TODO: mettendo -1 si semplificherebbero molte formule...
  • Emettono {r`1`} se gli input nel precedente superavano la soglia di attivazione
  • Non cambiano stato se gli input nel precedente erano uguali alla soglia di attivazione

Tutti i neuroni del modello sono intercollegati tra loro da sinapsi.

I neuroni non possono essere collegati a loro stessi.

Una funzione dell'intero sistema che rappresenta il totale degli stati di tutti i neuroni e tutte le connessioni.

{r` E = - \frac{1}{2} \sum_{n, m} ( w_{nm} \cdot x_n \cdot x_m ) + \sum_n ( \theta_n \cdot x_n ) `}

TODO: non mi piace come l'ho descritta...

Un metodo per realizzare l'apprendimento nel modello di Hopfield.

Si incrementa l'intensità delle sinapsi che connettono neuroni nello stesso stato, e invece si decrementa l'intensità di quelle che connettono neuroni in stati opposti.

Considerando i neuroni spenti e quelli accesi come {r`0`} e {r`1`} rispettivamente, si ha che per ogni pattern:

{r` \Delta w_{ik} = (2 \cdot A_i - 1)(2 \cdot A_k - 1) `} Così facendo, si insegna sia il pattern normale sia il suo complementare!

Applicando l'apprendimento hebbiano al modello di Hopfield si ottengono sinapsi simmetriche.

Se è valida questa proprietà, si può dimostrare che l'energia del sistema è sempre decrescente, e che quindi che tenderà a un punto fisso!

TODO: Dopo il prof dimostra la relazione tra input netto e overlap, e che il sistema converge al pattern più simile.

Il numero di neuroni attivati in entrambi i pattern.

{r` Q(A, B) = \sum_{i = 1}^n A_i B_i `}

Più pattern vengono imparati da un modello, più è facile che essi interferiscano tra loro.

In caso di pattern completamente scorrelati tra loro, il limite di pattern imparabili è circa:

{r`0.14 \cdot N`}

Per minimizzare l'interferenza tra pattern, è possibile insegnare al modello un archetipo: si insegna più volte il pattern originale applicandoci una minima quantità di interferenza casuale.

TODO: ho capito bene?

Un modello di rete neurale che supporta l'apprendimento e che presenta più strati di neuroni.

Simbolo Descrizione {r`N`} Numero totale di neuroni nel sistema {r`n`} Numero di un neurone specifico {r`w_{nm}`} Intensità della sinapsi diretta da {r`n`} verso {r`m`} {r`x_n`} Emissione del neurone {r`n`} {r`H(v)`} Funzione che restituisce lo stato di un neurone dato un valore di input {r`\sum_1^N ( w_n \cdot x_n )`} Somma degli input di un neurone {r`x_0`} Neurone di offset

Neurone terminale di una rete di percettroni.

Utilizza un semipiano di attivazione invece che una soglia.

Ai neuroni in input si aggiunge un neurone speciale {r`x_0`} detto neurone di offset che permette di semplificare la formula.

TODO: scrivere e imparare le formule

Si parte da intensità casuali delle sinapsi.

Si prova a classificare degli esempi pre-classificati: se un esempio viene classificato nel modo sbagliato, si alterano le intensità delle sinapsi in direzione della sua classificazione corretta.

) }