import { Heading } from "@steffo/bluelib-react" import { Split, Box, r, ILatex, BLatex, PLatex, P, Anchor, I, B, Help, Example, LI } from "../../../components/compat-old" import { Link } from "../../../components/link" import { NextPage, NextPageContext } from "next" export async function getStaticProps(_context: NextPageContext) { return { props: {} } } const Tick = (props: any) => {props.children ?? "tick"} const Page: NextPage = () => { return <> Apprendimento ed evoluzione in sistemi artificiali

NetLogo è un software di modellazione sistemi multiagente, da noi usato per le lezioni di laboratorio.

Si può scaricare o usare da browser.

Il suo codice sorgente è disponibile su GitHub, e ha una pagina di documentazione.

Sistemi naturali o artificiali che si basano su leggi reversibili e deterministiche.

In natura, alcuni leggi possono sembrare irreversibili a livello macroscopico, ma sono in realtà reversibili a livello microscopico.

Urne di Ehrenfest: due urne con N palline; estraggo una pallina da una urna casuale ad ogni passo e la sposto nell'altra; con tante palline il sistema appare irreversibile.

Stati in cui si può trovare un sistema dinamico.

Tutte insieme formano lo (iper)spazio delle fasi.

Lo stato finale di un sistema dinamico.

Tutte le fasi tendono a uno specifico attrattore.

I sistemi dinamici elaborano informazione attraversando fasi e raggiungendo un attrattore.

L'evoluzione biologica crea nuove specie partendo da quelle precedenti di maggiore successo fino a quando non si raggiunge la specie perfetta. Si può vedere l'universo come un gigantesco sistema dinamico. Che sia artificiale? Qual è il suo attrattore?

Sistemi dinamici i cui cambiamenti sono descritti da funzioni lineari.

Situazioni iniziali di un sistema lineare.

Possono essere:

Nell'insieme dei {r`\mathbb{C}`} possono anche dare origine a:

Infine, in sistemi dissipativi può anche comparire:

Mai sentito parlare di Mersenne Twister?

Funzione che rappresenta lo stato attuale del sistema.

Gli attrattori coincidono con i suoi punti di minimo, detti punti fissi.

Il suo complementare è la funzione energia.

Sono sistemi con le seguenti caratteristiche:

Hanno anche caratteristiche di livello più alto derivate dalle quattro precedenti:

Gli umani possono benissimo essere considerati agenti del sistema universo.

Gli agenti si distinguono anche in:

Lo sviluppo negli agenti di nuove capacità per cui non erano stati programmati.

Ad esempio, la Swarm Intelligence, descritta dopo!

Classificazione in base a come prende le decisioni un agente:

Classificazione in base a come sono definiti gli obiettivi di un agente:

Classificazione in base a quanto conosce dell'ambiente un agente:

Influenza esercitata dal sistema sugli agenti per guidarli verso il loro obiettivo.

Può essere:

Comportamento emergente che si manifesta nei sistemi multiagente con tantissimi agenti.

Indica la capacità di risoluzione di problemi complessi attraverso la collaborazione di più agenti semplici.

Meccanismi simili a quelli evolutivi umani che permettono ai tratti degli agenti di convergere verso un valore.

Inizialmente definita come numero di discendenti fertili, solitamente indica quanto è probabile che i tratti di un individuo siano passati alla generazione successiva.

Sequenza di valori che definisce uno o più tratti di un individuo.

Un insieme di individui aventi tutti gli stessi cromosomi.

Fenomeno che causa una piccola variazione casuale nei cromosomi dei figli.

Previene la convergenza prematura in un sistema.

Meccanismo di costruzione dei cromosomi in un figlio: i cromosomi dei genitori vengono tagliati nello stesso punto scelto a caso, e per costruire quelli del figlio viene presa una parte dal padre e l'altra parte dalla madre.

Può portare al miglioramento di un individuo e allo sviluppo di nuovi tratti, ma solo nelle parti di cromosoma che sono diverse tra i due genitori.

Sequenza di valori all'interno di un cromosoma, che può includere anche sezioni in cui il valore è irrilevante.

Gli algoritmi genetici permettono di trovare gli schemi con la fitness più alta in assoluto in un tempo relativamente breve: il sistema generalmente favorisce gli schemi corti con fitness alta.

Situazione in cui si è raggiunta una soluzione non-ottimale a causa dell'assenza di novità nel sistema.

Si può impedire con vari metodi: con la mutazione, introducendo requisiti di località per l'accoppiamento, scegliendo diversamente i genitori, etc...

Programmi che dati tanti esempi sono in grado di classificare un elemento in una o più categorie.

Sono formati da classificatori, liste di messaggi, detettori e effettori.

Strutture logiche che elaborano i messaggi.

Valutano una espressione logica (condizione) sui messaggi in arrivo, e se questa risulta essere vera, emettono un nuovo messaggio in risposta (azione).

Condizione e azione possono essere considerati come due cromosomi di un algoritmo genetico!

Unità di informazione di un sistema a classificatori: sono generati da detettori e classificatori, e consumati da classificatori ed effettori.

Sensori che percepiscono lo stato dell'ambiente esterno e lo riportano sotto forma di messaggi.

Motori che rispondono ai messaggi effettuando una qualche azione nell'ambiente.

Un punteggio associato ad ogni classificatore.

Più un classificatore viene attivato, più la sua forza crescerà.

I classificatori più deboli vengono lentamente eliminati!

Il numero di condizioni che devono essere soddisfatte perchè il classificatore si attivi.

Prodotto di specificità e forza di un classificatore.

Rappresenta quanto è probabile che venga utilizzato un dato classificatore nel caso che le condizioni di più di uno vengano soddisfatte.

È la fitness degli algoritmi genetici applicata ai classificatori.

Se l'input non soddisfa nessun classificatore esistente, se ne crea uno nuovo soddisfatto dall'input attuale con una azione casuale.

Se i classificatori emettono in output un messaggio non valido, si crea un nuovo classificatore che trasforma quel messaggio in un output valido.

Agenti che possono collegarsi tra loro tramite sinapsi (dirette) e ricevere ed emettere impulsi lungo di esse.

Gli impulsi ricevuti vengono temporaneamente memorizzati dal neurone attraverso valori che decadono nel tempo.

Se la somma dei valori di tutti gli impulsi ricevuti è maggiore di una certa soglia, allora il neurone emetterà un impulso.

Un modello semplificato di rete neurale in cui vengono considerati solo tempi discreti (ticks), e non è presente la memorizzazione degli impulsi nel tempo.

È stato sviluppato da Warren McCulloch (un neurofisiologo) e Walter Pitts (un matematico).

È importante perchè dimostra che le reti neurali possono elaborare qualsiasi cosa, ma incompleto perchè non descrive nessun metodo per la loro creazione automatica.

I neuroni si attivano in un dato se la somma dei loro impulsi nel precedente è maggiore o uguale a 1.

Le sinapsi hanno una intensità: è un moltiplicatore che viene applicato a tutti gli impulsi transitanti la sinapsi.

Un neurone con una sinapsi entrante con intensità {r`-1`}.

Un neurone con due o più sinapsi entranti con intensità {r`1`}.

Un neurone con due o più sinapsi entranti con intensità {r`\frac{1}{numero\ sinapsi}`}.

Un'estensione del modello booleano per permettere l'apprendimento automatico delle configurazioni giuste di neuroni.

È stato sviluppato da John Hopfield (uno scienziato).

Non è molto avanzato, ma ha portato a ulteriori studi nel campo delle reti neurali.
v s Glossario
{r`t`} Tick attuale
{r`n`}, {r`m`} Identificatore di un neurone specifico
{r`\mathbf{W}`} {r`w_{nm}`} Intensità della sinapsi diretta da {r`n`} verso {r`m`}
{r`\mathbf{\Theta}`} {r`\theta_n`} Soglia di attivazione di un neurone
{r`\mathbf{X}(t)`} {r`x_n(t)`} Emissione di un neurone
{r`\mathbf{I}(t)`} {r`i_n(t)`} Somma degli ingressi di un neurone
{r`E`} Energia del sistema
{r`\mathbf{A}`} {r`a_i`} Stato di un neurone in un pattern
{r`Q(\mathbf{A}, \mathbf{B})`} Sovrapposizione tra due pattern

In ogni , i neuroni:

Tutti i neuroni del modello sono intercollegati tra loro da sinapsi.

I neuroni non possono essere collegati a loro stessi.

Questo porta il costo computazionale del modello ad essere {r`O(n^2)`}.

Una funzione dell'intero sistema che rappresenta il totale degli stati di tutti i neuroni e tutte le connessioni.

{r` E = - \frac{1}{2} \sum_{n, m} ( w_{nm} \cdot x_n \cdot x_m ) + \sum_n ( \theta_n \cdot x_n ) `}

Un metodo per realizzare l'apprendimento nel modello di Hopfield.

Si incrementa l'intensità delle sinapsi che connettono neuroni nello stesso stato, e invece si decrementa l'intensità di quelle che connettono neuroni in stati opposti.

Considerando i neuroni spenti e quelli accesi come {r`0`} e {r`1`} rispettivamente, si ha che per ogni pattern:

{r` \Delta w_{ik} = (2 \cdot A_i - 1)(2 \cdot A_k - 1) `} Così facendo, si insegna sia il pattern normale sia il suo complementare!

Applicando l'apprendimento hebbiano al modello di Hopfield si ottengono sinapsi simmetriche.

Se è valida questa proprietà, si può dimostrare che l'energia del sistema è sempre decrescente, e che quindi che tenderà a un punto fisso!

Il numero di neuroni attivati in entrambi i pattern.

{r` Q(A, B) = \sum_{i = 1}^n A_i B_i `}

Più pattern vengono imparati da un modello, più è facile che essi interferiscano tra loro.

In caso di pattern completamente scorrelati tra loro, il limite di pattern imparabili è circa:

{r`0.14 \cdot N`}

Per minimizzare l'interferenza tra pattern, è possibile insegnare al modello un archetipo: si insegna più volte il pattern originale applicandoci una minima quantità di interferenza casuale.

Un modello di rete neurale che supporta l'apprendimento e che presenta più strati di neuroni.

Ha costi computazionali molto più bassi del modello di Hopfield.

Simbolo Descrizione
{r`N`} Numero totale di neuroni nel sistema
{r`n`} Numero di un neurone specifico
{r`w_{nm}`} Intensità della sinapsi diretta da {r`n`} verso {r`m`}
{r`x_n`} Emissione del neurone {r`n`}
{r`H(v)`} Funzione che restituisce lo stato di un neurone dato un valore di input
{r`\sum_1^N ( w_n \cdot x_n )`} Somma degli input di un neurone
{r`b`} Bias di un neurone

Una rete neurale che viene incapsulata all'interno di un singolo neurone.

La sua emissione è determinata dalla sua funzione di emissione {r`H`}:

{r` x_n = H \left( \sum_1^N ( w_n \cdot x_n + b) \right) `}

{r`b`} è una costante configurabile, detta bias, che rappresenta il valore di partenza della somma degli input.

Un percettrone la cui funzione di emissione è:

{r` \begin{cases} 1 \qquad se\ v > 0\\ 0 \qquad se\ v = 0\\ -1 \qquad se\ v < 0 \end{cases} `}

Si parte da intensità casuali delle sinapsi.

Si prova a classificare degli esempi pre-classificati: se un esempio viene classificato nel modo sbagliato, si alterano le intensità delle sinapsi in direzione della sua classificazione corretta.

Nel caso che vi siano più strati di neuroni, allora sarà necessario ricorrere alla backpropagation, che stima l'errore di classificazione di ogni singolo neurone e li corregge di conseguenza.

Un modello a percettroni in cui non si presentano cicli.

Alcuni dei neuroni che vi sono all'interno saranno dunque dei neuroni sorgente e dei neuroni pozzo.

} export default Page