2020-06-18 17:46:40 +00:00
import { Panel , Markdown } from "bluelib" ;
2020-05-28 17:58:41 +00:00
const r = String . raw ;
2020-06-18 17:46:40 +00:00
2020-05-28 17:58:41 +00:00
export default function ( props ) {
return (
< div >
2020-06-10 23:02:26 +00:00
< Panel title = { "Disperazione di Steffo" } >
aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa tutte le formule in latex si sono rotteeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeee
< / P a n e l >
2020-05-28 17:58:41 +00:00
< Panel >
< Markdown > { r `
# Algoritmi e Strutture Dati
Docente : [ * * Manuela Montangero * * ] ( mailto : manuela . montangero @ unimore . it )
Crediti : * * 9 CFU * * ( 72 ore di lezione )
Orario di ricevimento : * * Giovedì dalle 14 : 30 alle 16 : 30 * *
_Mandare una mail prima , altrimenti potrebbe andarsene _
# # # # Regole particolari per le email
- Oggetto "ASD"
- Mail * * firmata * * con * * nome e cognome * *
- Mail spedita dall ' * * account Unimore * *
# # # Materiale
Libri :
- * * Introduzione agli Algoritmi e Strutture Dati * * di _T . H . Cormen , C . E . Leiserson , R . L . Rivest , C . Stein _
* * [ Dolly ( FIM ) ] ( https : //dolly.fim.unimore.it/2018/course/view.php?id=26)**
# # # Tutorato
Tutor : [ * * Gianluca d ' Addese * * ] ( mailto : tutoratoalgoritmi @ gmail . com )
Cosa : * * Esercizi sugli argomenti visti a lezione * * e * * preparatori all ' esame * *
Quando : * * Mercoledì dalle 09 : 00 alle 11 : 00 * * ... ?
# # # Esame
Per iscriversi all ' esame , bisogna aver passato :
- Analisi matematica ( propedeutica )
- Programmazione I
Formato :
- Prima prova scritta
- Risolvere problemi con algoritmi proposti a lezione
- E ' un test sulla preparazione
- Dura 1 h30m
- Non si può usare nessun tipo di materiale
- Seconda prova scritta
- Proponi soluzioni per nuovi problemi non studiati a lezione
- Domande teoriche sugli argomenti studiati
- Dura 2 h
- E ' il giorno dopo la prima prova
- Si può utilizzare qualsiasi materiale , ma non deve permettere di comunicare
- Orale facoltativo
- Solo per chi supera entrambi gli scritti
- Domande su quello che abbiamo visto a lezione ( "perchè gli algoritmi funzionano?" )
- Informare via email entro 3 giorni dalla pubblicazione degli esiti della seconda prova
- L ' orale potrebbe migliorare o peggiorare il voto ( anche "molto" )
* * Attenzione : * * Vengono verbalizzati anche i voti insufficienti ; ricordarsi di rifiutarli !
Ci sono i seguenti appelli :
- 3 appelli tra Giugno e Luglio
- 1 appello a Settembre
- 2 appelli a Gennaio e Febbraio
Vale il salto di appello se :
- Uno studente regolarmente iscritto * * non si presenta * * all ' appello e non ha avvisato via email almeno il giorno prima .
- Uno studente ha riportato una * * grave insufficienza * * in uno dei due scritti , e l ' appello successivo è nella stessa sessione
# # # Note
Il corso è ben collegato con quello di Programmazione 2.
Dormire non fa bene !
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Il nome del corso
# # Cosa sono gli algoritmi ?
Gli algoritmi sono modi sistematici per risolvere problemi .
Sono fondamentali per sviluppare software , in quanto i computer sono eccellenti esecutori di algoritmi .
# # Come si sviluppa un algoritmo ?
Innanzitutto , bisogna conoscere gli _input _ e gli _output _ del problema , rispettivamente i dati di partenza e i dati di arrivo di esso ; si ha quindi una fase di * * ricerca * * .
Poi , si deve trovare un procedimento che ci faccia risolvere il nostro problema : è quello che faremo in questa materia !
Infine , bisogna scrivere la soluzione in un modo che possa essere eseguita da un computer : questa è la * * programmazione * * .
# # Che tipo di problemi possiamo risolvere ?
Un algoritmo risolve problemi di tipo generale , non ci interessa sapere _il risultato di 123 + 456_ , ma vogliamo sapere _il risultato di x + y _ , dove x e y sono due numeri naturali qualsiasi .
Un problema può essere quindi considerato circa come una * * funzione matematica * * , che connette ogni input a un output corrispondente .
# # Che caratteristiche ha un algoritmo ?
Per prima cosa , ripetendo l ' algoritmo più volte con lo stesso ingresso deve dare sempre la stessa uscita come * * risultato * * , finendo in un * * tempo finito * * .
Deve essere * * ben ordinato * * : cambiando l ' ordine in cui vengono effettuate le operazioni , è probabile che anche il risultato cambi !
Le sue istruzioni devono essere * * non ambigue * * , cioè che non possano essere interpretate in più modi , e * * effettivamente realizzabili * * , cioè realizzabili con l 'esecutore che vogliamo usare per eseguire l' algoritmo .
# # Esistono algoritmi equivalenti ?
* * Sì ! * * Possono esserci due algoritmi che dati gli stessi input , hanno gli stessi output , e quindi risolvono lo stesso problema .
In compenso , possono avere un numero di operazioni diverse , e quindi essere * * uno più veloce * * ( da eseguire ) dell ' altro .
# # Come si verifica la correttezza di un algoritmo ?
L ' algoritmo deve essere * * valido per tutti gli input * * , anche se questi sono infiniti .
Possiamo effettuare prove matematiche per verificarne la correttezza ; il * * principio di induzione * * è dunque una dei teoremi fondamentali dell ' algoritmica .
Possiamo però verificare la _non correttezza _ di un algoritmo trovando un singolo controesempio .
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Efficienza degli algoritmi
Un buon algoritmo deve essere * * efficiente * * , ovvero deve usare il minimo delle risorse necessarie , come _usare il minimo di tempo possibile _ .
# # Come misuriamo il tempo necessario ?
Cerchiamo di astrarre il tempo dal particolare esecutore , e andiamo a contare il numero di operazioni elementari richieste per eseguire il nostro algoritmo nel caso peggiore .
Un algoritmo efficiente , infatti , all ' aumentare dei dati in ingresso , diventerà sempre più veloce rispetto a uno non efficiente , anche su computer più lenti !
> Il [ Bubble Sort ] ( https : //en.wikipedia.org/wiki/Bubble_sort) è sempre più lento di un [Tree Sort](https://en.wikipedia.org/wiki/Tree_sort), anche su computer più lenti, perchè, dovendo ordinare liste sempre più lunghe, prima o poi si raggiunge un punto in cui il primo è più veloce (in termini di tempo) dell'altro.
Dobbiamo andare a vedere , quindi , _il numero di operazioni richieste per ottenere il risultato nel caso peggiore _ .
Consideriamo operazioni sia operazioni aritmetiche sia operazioni logiche , e diciamo che ciascuna costa 1.
> L '[algoritmo di Euclide](https://it.wikipedia.org/wiki/Algoritmo_di_Euclide) per l' MCD costa \ ` 3 \` per ogni iterazione (un giro del ciclo \` while \` ). Diciamo, allora, che costa \` 3n \` , dove \` n \` è il numero più alto dei due, perchè nel caso peggiore (uno dei due numeri è 1) l'algoritmo compie \` n \` iterazioni.
# # Altri parametri ottimizzabili
È possibile che alcuni algoritmi per vari motivi cerchino di ottimizzare altri parametri diversi dal tempo , come ad esempio _la dimensione dell ' input _ o la _memoria utilizzata _ .
> Generalmente , questo viene fatto sui dispositivi embedded , con memoria molto limitata .
# # # Criteri di costo di memoria
Ci sono vari criteri con cui stimare la memoria richiesta da un dato : è possibile che il costo risultante vari in base al criterio scelto !
# # # # Criterio di costo logaritmico
Un dato costa il numero di bit necessari per rappresentarlo .
> Un int che contiene il numero \ ` n \` costa \` log_2(n) \` .
> Un array di \ ` [n] \` numeri tutti uguali costa \` n log_2(n) \` .
# # # # Criterio di costo uniforme
Un dato costa il numero di elementi che lo costituiscono .
> Un int che contiene il numero \ ` n \` costa \` 1 \` .
> Un array di \ ` [n] \` numeri costa \` n \` .
> Una matrice \ ` [m][n] \` costa \` m*n \` .
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Modelli algoritmici
Per progettare un algoritmo , abbiamo bisogno di sapere le proprietà del nostro esecutore , ovvero il suo _modello algoritmico _ .
> Ad esempio , dobbiamo sapere quali istruzioni è in grado di eseguire , e quanto tempo queste istruzioni richiedono .
# # Il modello RAM
Il modello in uso su tutti i computer attuali è il _modello RAM _ :
- In ogni cella di memoria può essere archiviato un dato .
- Il * * tempo di accesso * * alle celle è * * costante * * per tutte le celle .
- La * * memoria * * principale è * * infinita * * .
- Si ha * * un solo processore * * .
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Notazione asintotica
La _notazione asintotica _ è un sistema per * * stimare * * velocemente il costo di un algoritmo complesso .
Ci permette di * * confrontare velocemente il caso peggiore * * degli algoritmi .
In particolare , consideriamo il _rapporto tra il numero di operazioni nel caso peggiore e la dimensione dell ' input _ .
# # Limiti
Possiamo dare a questa stima dei limiti , superiore e inferiore , che rappresenteranno rispettivamente un costo che non sarà * * mai superato * * e un costo che verrà * * sempre superato * * .
Chiameremo questi limiti _upper bound _ e _lower bound _ ; la loro combinazione darà un _tight bound _ .
L 'obiettivo sarà di _ricavare i bound più precisi possibile_ per un dato algoritmo, ovvero l' * * upper bound più basso * * e il * * lower bound più alto * * .
# # # O grande
> "O grande"
> O di g ( n )
> "big-O"
Per rappresentare la stima , useremo una notazione particolare , detta _O grande _ , con la seguente proprietà :
- Date due funzioni \ ` f(n) : N -> R \` e \` g(n) : N -> R \` , diremo che \` f(n) ∈ O(g(n)) \` se e soltanto se \` ∃ c > 0, n ≥ n_0 \` tali che \` ∀ n ≥ 0, f(n) ≤ c * g(n) \`
Quando una funzione è O grande di un altra , significa che * * asintoticamente , la funzione in O grande è sempre maggiore di quella che sta venendo stimata * * .
> * * Ipotesi * *
> - \ ` f(n) = 2n² + 3n + 6 \`
> - \ ` g(n) = n² \`
>
> * * Tesi * *
> - \ ` f(n) ∈ O(n²) \` .
>
> * * Svolgimento * *
> Scrivo una disequazione , lasciando intatto il termine noto :
> 1. \ ` 2n² + 3n + 6 ≤ 2n² + 3n² + 6 \`
> 2. \ ` n² ≤ 2n² + 3n² + n² = 6n² \` per \` n ≥ 3 \`
>
> Sappiamo , allora , che \ ` 2n² + 3n + 6 ≤ 6n² \` .
# # # # Espressioni di O grande
Questa tabella rappresenta le espressioni di O grande più comunemente utilizzate , in ordine * * dalla più forte alla più debole * * .
> Più forte significa che , per ogni riga della tabella , tutte le righe sottostanti sono contenute nell ' espressione .
>
> Ad esempio , \ ` O(n) ∈ O(1) \` .
| Espressione O ( ) | Nome |
| -- -- -- -- -- -- -- -- - | -- -- -- |
| \ ` O(1) \` | Costante |
| \ ` O(log log n) \` | loglog |
| \ ` O(log n) \` | Logaritmica |
2020-06-10 23:02:26 +00:00
| \ ` Ω(n^{1/c}) \` (per c ≥ 1) | Sublineare |
2020-05-28 17:58:41 +00:00
| \ ` O(n) \` | Lineare |
| \ ` O(n log n) \` | nlogn |
| \ ` O(n²) \` | Quadratica |
| \ ` O(n³) \` | Cubica |
| \ ` O(n^k) \` (per k ≥ 1) | Polinomiale |
| \ ` O(a^n) \` (per a ≥ 1) | Esponenziale |
| \ ` O(n!) \` | Fattoriale |
# # # # Polinomiale
Molto spesso , noteremo che il tempo richiesto da una funzione è O grande di un polinomio di grado K , ovvero \ ` f(n) ∈ O(n^k) \` .
Notiamo che in questi casi , possiamo semplificare l ' O grande al grado massimo del polinomio .
> Ad esempio , \ ` O(n² + n + 1) = O(n²) \` .
# # # # # Dimostrazione
Per \ ` n > 0 \\ and 0 ≤ i ≤ k \` :
! [ LaTeX ] ( https : //latex.codecogs.com/png.latex?a_k%20n^k%20+%20a_{k-1}%20n^{k-1}%20+%20%E2%80%A6%20+%20a_1%20n%20+%20a_0%20%E2%89%A4%20|a_k|%20n^k%20+%20|a_{k-1}|%20n^k%20+%20%E2%80%A6%20+%20|a_1|%20n^k%20+%20|a_0|%20n^k%20=%20(|a_k|%20+%20|a_{k-1}|%20+%20%E2%80%A6%20+%20|a_1|%20+%20|a_0|)%20n^k)
# # # # Proprietà di O grande
1. \ ` f(n) ∈ O(g(n)) -> ∀ a > 0, a * f(n) ∈ O(g(n)) \` .
2. \ ` f(n) ∈ O(g(n)), d(n) ∈ O(h(n)) -> f(n) + d(n) ∈ O(g(n) + h(n)) -> O(max \\ {g(n), h(n) \\ }) \`
3. \ ` f(n) ∈ O(g(n)), d(n) ∈ O(h(n)) -> f(n) * d(n) ∈ O(g(n) * h(n)) \`
In pratica , se una funzione è la _somma di più termini _ , basta guardare l '**\`O()\` più grande** tra tutti i suoi termini; se invece una funzione è un _prodotto di più termini_, si possono **omettere le costanti**, e l' \ ` O() \` finale sarà dato dal **prodotto degli \` O() \` ** dei termini.
# # Lower bound
Possiamo anche stimare il _lower bound _ , il limite inferiore : il * * numero minimo di operazioni * * che viene effettuato * * nel caso migliore * * con la * * massima dimensione dell ' ingresso * * .
# # # Ω ( )
> "Omega"
> Omega di g ( n )
> "big-Omega"
Esiste un equivalente di O grande per il lower bound : è detto _Omega grande _ , o più semplicemente _Omega _ , e funziona nello stesso identico modo , solo ... al contrario .
Diremo che \ ` f(n) ∈ Ω(g(n)) \` se e solo se \` ∃ c > 0, n_0 ≥ 0 : ∀ n ≥ n_0 f(n) ≥ c * g(n) \` .
# # # # Espressioni di Ω ( )
Anche in questa tabella le espressioni sono * * dalla più forte alla più debole * * .
| Espressione Ω ( ) | Nome |
| -- -- -- -- -- -- -- -- - | -- -- -- |
| \ ` Ω(n!) \` | Fattoriale |
| \ ` Ω(a^n) \` (per a ≥ 1) | Esponenziale |
| \ ` Ω(n^k) \` (per k ≥ 1) | Polinomiale |
| \ ` Ω(n³) \` | Cubica |
| \ ` Ω(n²) \` | Quadratica |
| \ ` Ω(n log n) \` | nlogn |
| \ ` Ω(n) \` | Lineare |
2020-06-10 23:02:26 +00:00
| \ ` Ω(n^{1/c}) \` (per c ≥ 1) | Sublineare |
2020-05-28 17:58:41 +00:00
| \ ` Ω(log n) \` | Logaritmica |
| \ ` Ω(log log n) \` | loglog |
| \ ` Ω(1) \` | Costante |
# # Tight bound
Quando * * upper e lower bound coincidono * * , allora otteniamo un _tight bound _ .
# # # θ ( )
> "Theta"
> Theta di g ( n )
> "big-Theta"
Anche per il tight bound abbiamo una notazione equivalente a O grande e Omega grande : _Theta grande _ !
Diciamo che \ ` f(n) ∈ θ(g(n)) \` se e solo se \` ∃ c_1, c_2 > 0, n_0 ≥ 0 : ∀ n ≥ n_0, c_1 * g(n) ≤ f(n) ≤ c_2 * g(n) \` .
Ha la particolarità che non valgono tutte le proprietà degli altri due : va usata quindi con cautela !
# # Risorse utili
[ khanacademy . org ] ( https : //www.khanacademy.org/computing/computer-science/algorithms/asymptotic-notation/a/big-big-theta-notation)
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Problemi algoritmici
Un _problema algoritmico _ è un problema matematico che si vuole provare a risolvere con un algoritmo .
> Dati 10 numeri , voglio sapere se sono in ordine crescente oppure no .
# # Caterigorizzazione
I problemi algoritmici si dividono in tre categorie : problemi _trattabili _ , problemi _intrattabili _ e problemi _irrisolvibili _ .
# # # Problema trattabile
Perchè un problema algoritmico sia _trattabile _ , deve avere * * almeno un algoritmo con upper bound polinomiale * * .
> Questo significa che il tempo impiegato da un computer per risolvere il problema rimane ragionevole , e che quindi può essere utilizzato in maniera efficiente .
La trattabilità è un campo ancora parecchio aperto : esistono anche tanti problemi di cui non si è ancora dimostrata la trattabilità o intrattabilità .
> La [ fattorizzazione ] ( https : //it.wikipedia.org/wiki/Fattorizzazione) è uno di questi problemi: l'assenza di una dimostrazione è ciò che la rende uno dei pilastri della sicurezza informatica moderna.
# # # Problema intrattabile
Se * * un problema non ha nessun algoritmo con upper bound polinomiale * * , allora si dice che è * * intrattabile * * .
# # # Problema irrisolvibile
Se * * non esistono algoritmi per risolvere un problema * * , allora questo si dice * * irrisolvibile * * .
> [ Dato un algoritmo con certi input , riusciamo a capire con un algoritmo se la sua esecuzione termina o no ? ] ( https : //en.wikipedia.org/wiki/Halting_problem)
# # # Upper e lower bound di problemi
Si può anche trovare un _upper bound _ e un _lower bound _ per un problema , ma bisogna generalizzare di più .
L '**upper bound di un problema** è il minimo upper bound di tutti gli algoritmi che lo risolvono; deve esistere almeno un algoritmo che lo risolva che abbia lo stesso _upper bound_. E' praticamente il tempo migliore per risolvere il problema dato .
Il * * lower bound di un problema * * è il minimo lower bound di tutti gli algoritmi che lo risolvono ; non deve esistere nemmeno un algoritmo che abbia un lower bound migliore . E ' il numero assolutamente minimo di operazioni richieste , non si può fare meglio di così .
In particolare , abbiamo che l '_upper bound di un algoritmo_ -> l' _upper bound del suo problema _ ,
e il _lower bound di un problema _ - > il _lower bound di un suo algoritmo _ .
Generalmente , il _lower bound di un problema _ è una rappresentazione abbastanza accurata della sua difficoltà .
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Ricerca binaria
Non credo di aver bisogno di studiare la ricerca binaria , quindi non ho preso appunti a riguardo .
Se non siete me , e state cercando informazioni a riguardo , andate a vedere su Wikipedia !
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Divide et impera
Un modo efficace per risolvere un problema è di usare il metodo _divide et impera ( et combina ) _ .
- _Divide _ : Divido il problema in * * tanti sottoproblemi * * .
- _Impera _ : * * Risolvo indipendentemente dal resto * * ciascuno dei sottoproblemi .
- _Combina _ : * * Combino * * i risultati dei sottoproblemi per * * risolvere il problema principale * * .
# # Ricorsione
Un algoritmo ( o funzione ) si dice _ricorsivo _ quando durante l ' esecuzione * * richiama sè stesso * * .
Dato che tutti gli algoritmi devono avere termine entro un tempo finito , se scriviamo una funzione ricorsiva è fondamentale finire con un * * caso base * * , che non chiami ulteriormente la ricorsione .
Se esiste una funzione ricorsiva , allora esiste _sempre _ una _funzione iterativa _ che darà lo stesso risultato .
> Sul pratico , una funzione ricorsiva tipicamente è * * più costosa * * del suo equivalente iterativo : se possibile , quindi , la ricorsione andrebbe evitata .
# # # # Pseudocodice di esempio
\ ` \` \` python
def fattoriale ( n ) :
# Caso base ; la ricorsione finisce e dà un risultato fisso
if n <= 1 :
return 1
# Caso ricorsivo ; la funzione restituisce il risultato di sè stessa ( ma con parametri diversi )
else :
return n * fattoriale ( n - 1 )
\ ` \` \`
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Master Theorem
Il _Master Theorem _ è uno dei teoremi più importanti dell ' algoritmica .
Esso permette di * * calcolare l ' upper bound di un algoritmo ricorsivo * * in modo piuttosto semplice .
# # Ipotesi
Dato un algoritmo :
- Con uno o più casi base
- Che richiama la funzione ricorsiva un numero n di volte
# # Tesi
Allora , il suo upper bound avrà la formula :
! [ ] ( https : //quicklatex.com/cache3/89/ql_08d29a7e55d561a900570bc83b93ff89_l3.png)
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Caso particolare del Master Theorem
# # Ipotesi
Se :
! [ ] ( https : //quicklatex.com/cache3/57/ql_e34dc27b42831d3c3ff671b0f3861257_l3.png)
Ovvero , se la dimensione dell ' input viene divisa ad ogni ciclo da una costante b , è polinomiale e il caso base è costante ...
# # Tesi
Allora :
! [ ] ( https : //quicklatex.com/cache3/ca/ql_26e3557a6ca2d6ac4b8481e7c5263fca_l3.png)
> In pratica , se il costo dominante è quello della parte "fissa" dell ' algoritmo , esso sarà \ ` O(n^d) \` , mentre se il costo dominante è quello delle chiamate ricorsive, esso sarà \` O(n^{log_b e}) \` .
> Se nessuno dei due è dominante ... si dividono circa in parti uguali , creando un costo di \ ` O(n^d log n) \` .
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Ordinamento
Un problema molto frequente nell 'informatica consiste nell' * * ordinare efficientemente grandi quantità di elementi * * .
Esistono [ tantissimi ] ( https : //it.wikipedia.org/wiki/Algoritmo_di_ordinamento) algoritmi per effettuare l'ordinamento.
L '**efficienza** di ciascuno **varia** di caso in caso: alcuni sono estremamente efficienti se quasi tutti i numeri sono già nell' ordine giusto ; altri , invece , potrebbero impiegare tantissimo tempo .
In termini matematici , abbiamo :
- * * Input : * * A [ n ]
- * * Output : * * B , ∀ i < n , A [ i ] ≤ A [ i + 1 ]
# # Ordinamento tramite confronto
L 'ordinamento "tradizionale" è detto _ordinamento tramite confronto_: funziona sempre, e **non ha altri modi di ottenere informazioni** se non con l' operazione logica di confronto tra i dati .
# # # Limiti
E ' un problema risolto: è dimostrabile che il suo **lower bound** è **\`Ω(n log n)\`**; possiamo quindi dire che qualsiasi algoritmo di ordinamento è in \`Ω(n log n)\`, e se riusciamo a trovare un algoritmo di ordinamento in \`O(n log n)\` siamo riusciti a raggiungere il massimo dell' efficienza .
# # # # Dimostrazione
Consideriamo * * tutte le possibili permutazioni * * della sequenza da ordinare : sono \ ` n! \` .
Per ogni confronto che effettuiamo , * * riduciamo la quantità di permutazioni * * correttamente ordinate ; prima o poi , rimarrà * * una sola possibilità * * .
* * TODO , non trovo la spiegazione corretta ! * *
# # # Esempi
Algoritmi che effettuano l ' ordinamento tramite confronto sono :
- _Bubble sort _
- _Merge sort _
- _Insertion sort _
- _Quick sort _
- _Heap sort _
- E tanti , tanti altri !
# # Ordinamento con altri mezzi
Esistono algoritmi che ricavano informazioni in altri modi , diversi dal confronto .
Essi possono avere un lower bound più basso di \ ` O(n log n) \` , però hanno spesso limitazioni sul loro utilizzo.
# # # Esempi
- _Counting sort _ , indicizza i valori da ordinare
- _Radix sort _ , guarda singolarmente le cifre dei valori
- _Sleep sort _ , sfrutta i thread e la funzione sleep per ordinare valori
- E altri ancora !
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Insertion sort
L '_insertion sort_ è una soluzione **iterativa** all' ordinamento per confronto .
# # Funzionamento
Considero la sequenza divisa in * * due parti * * : una parte * * ordinata * * e una parte * * non ordinata * * .
Parto dal primo elemento della lista : è sempre ordinato con sè stesso .
Poi , aggiungo uno alla volta i numeri della parte non ordinata a quella ordinata ; prima trovo in quale posizione dovrò andare a mettere il numero , poi * * faccio slittare tutti i numeri dopo quella posizione * * avanti di 1 , in modo da * * creare lo spazio * * in cui infine * * inserirò * * il numero .
# # Costo computazionale
| Categoria | Upper bound | Lower bound | Tight bound |
| -- -- -- -- -- - | -- -- -- -- -- -- - | -- -- -- -- -- -- - | -- -- -- -- -- -- - |
| Tempo | \ ` O(n²) \` | \` Ω(n) \` | - |
Nel _caso migliore _ ( * * lista già ordinata * * ) , il numero da inserire è già nella posizione giusta , quindi non devo effettuare altri confronti oltre il primo , rendendo il lower bound dell ' algoritmo \ ` Ω(n) \` .
Nel _caso peggiore _ ( * * lista nell 'ordine inverso**), dobbiamo confrontare il numero da inserire con tutti gli altri nella parte ordinata: dobbiamo allora eseguire \`1+2+3+4+5+… = \\frac{(n-1)(n)}{2}\` confronti; ciò significa che l' upper bound è \ ` O(n²) \` !
# # Pseudocodice
\ ` \` \` python
def insertion _sorted ( lista ) :
# Itero su tutti i numeri della lista , dal primo all ' ultimo .
for divisore _ord in range ( len ( lista ) ) :
# Partendo dalla posizione attuale , creo l ' indice di divisione numeri ordinati maggiori e minori
divisore _magg = divisore _ord
# Faccio slittare avanti i numeri maggiori di quello che stiamo inserendo
# Se l ' indice divisore _magg raggiunge 0 , vuol dire che tutti i numeri della lista sono maggiori del numero attuale
while divisore _magg >= 0 and lista [ divisore _magg - 1 ] > lista [ divisore _magg ] :
# Scambio la posizione dei due elementi con gli indici specificati
# Funzione inventata
lista [ divisore _magg ] , lista [ divisore _magg - 1 ] = lista [ divisore _magg - 1 ] , lista [ divisore _magg ]
# Diminuisco il separatore di 1
divisore _magg -= 1
\ ` \` \`
# # Visualizzazione
[ visualgo . net ] ( https : //visualgo.net/bn/sorting)
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Merge sort
Il _merge sort _ è una soluzione * * ricorsiva * * all ' ordinamento per confronto .
# # Funzionamento
Per questo algoritmo , utilizziamo la tecnica del * * divide et impera * * .
1. _Divide _ : Divido A in * * due parti * * .
2. _Impera _ : Metto * * separatamente in ordine * * le parti .
3. _Unisci _ : * * Unisco * * le due parti .
Consideriamo come * * caso base * * della ricorsione una parte composta da un numero , che ovviamente è già ordinata con sè stessa .
# # # Merge
Per * * unire le due parti * * usiamo una funzione detta \ ` merge() \` .
Costruiamo una nuova sequenza uguale alla sequenza 1 , ma * * aggiungiamo alla fine un valore sentinella * * sempre maggiore di tutti gli elementi contenuti .
> \ ` \` \`
> | 1 | 3 | 7 | 8 | ∞ |
> \ ` \` \`
Facciamo * * la stessa cosa * * per la sequenza due .
> \ ` \` \`
> | 2 | 4 | 5 | 6 | ∞ |
> \ ` \` \`
Prendo i primi numeri delle due sequenze e * * metto il più piccolo nella sequenza iniziale * * .
> \ ` \` \`
> | 1 | 2 | 3 | | | | | |
> | | | 7 | 8 | ∞ |
> | | 4 | 5 | 6 | ∞ |
> \ ` \` \`
* * Continuo * * finchè non ho messo tutti i numeri ; * * grazie alla sentinella non usciremo mai dalla sequenza * * , in quanto essa è sempre maggiore di tutti gli altri numeri .
> \ ` \` \`
> | 1 | 2 | 3 | 4 | 5 | 6 | | |
> | | | 7 | 8 | ∞ |
> | | | | | ∞ |
> \ ` \` \`
Quando * * rimangono solo le sentinelle * * significa che abbiamo aggiunto tutti gli elementi , e quindi abbiamo finito .
> \ ` \` \`
> | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
> | | | | | ∞ |
> | | | | | ∞ |
> \ ` \` \`
# # Costo computazionale
| Categoria | Upper bound | Lower bound | Tight bound |
| -- -- -- -- -- - | -- -- -- -- -- -- - | -- -- -- -- -- -- - | -- -- -- -- -- -- - |
| Tempo | \ ` O(n log n) \` | \` Ω(n log n) \` | ** \` θ(n log n) \` ** |
Il merge sort è un algoritmo ricorsivo con un * * caso base in tempo costante * * e che * * richiama sè stesso 2 volte * * .
\ ` \` \` latex
T ( n ) = \ \ \ \
\ \ \ \
Θ ( 1 ) \ \ qquad n = 1 \ \ \ \
2 T ( \ \ frac { n } { 2 } ) + Θ ( n ) \ \ qquad n \ \ neq 1
\ ` \` \`
Applicando il * * caso particolare del Master Theorem * * , otteniamo :
\ ` \` \` latex
T ( n ) = \ \ \ \
\ \ \ \
Θ ( 1 ) \ \ qquad n = 1 \ \ \ \
Θ ( n log n ) \ \ qquad n \ \ neq 1
\ ` \` \`
# # Pseudocodice
\ ` \` \` python
def merge _sorted ( part ) :
# Caso base
if len ( part ) == 1 :
return part
# Divide
middle = len ( part ) // 2
part _a = part [ : middle ]
part _b = part [ middle : ]
# Impera
sort _a = merge _sorted ( part _a )
sort _b = merge _sorted ( part _b )
# Combina
return merge ( sort _a , sort _b )
\ ` \` \`
# # Visualizzazione
[ hackerearth . com ] ( https : //www.hackerearth.com/practice/algorithms/sorting/merge-sort/visualize/)
[ visualgo . net ] ( https : //visualgo.net/bn/sorting) (Nota: visualizza solo la fase _Unisci_ del sort)
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Quick sort
Il _quick sort _ è un altro approccio * * ricorsivo * * all ' ordinamento per confronto .
# # Funzionamento
Anche qui , applichiamo il * * divide et impera * * .
1. _Divide _ : Scelgo un * * pivot * * qualsiasi all ' interno della lista . Metto alla sua * * sinistra tutti i numeri minori * * e alla sua * * destra tutti i numeri maggiori * * .
2. _Impera _ : Eseguo un * * quick sort su entrambe le sottoliste * * .
# # # Esempi
# # # # Iterazione con partizioni bilanciate
Osserviamo come si formi una partizione con tre elementi e una con quattro .
\ ` \` \`
| ¦ [ 2 ] 8 7 1 3 5 6 { 4 }
2 | ¦ [ 8 ] 7 1 3 5 6 { 4 }
2 | 8 ¦ [ 7 ] 1 3 5 6 { 4 }
2 | 8 ¦ [ 7 ] 1 3 5 6 { 4 }
2 | 8 7 ¦ [ 1 ] 3 5 6 { 4 }
2 1 | 7 8 ¦ [ 3 ] 5 6 { 4 }
2 1 3 | 8 7 ¦ [ 5 ] 6 { 4 }
2 1 3 | 8 7 5 ¦ [ 6 ] { 4 }
2 1 3 | 8 7 5 6 ¦ [ { 4 } ]
[ 2 1 3 ] { 4 } [ 8 5 6 7 ]
\ ` \` \`
# # # # Iterazione con partizioni sbilanciate
Osserviamo come si formi una partizione con * * zero elementi * * e una con tre .
\ ` \` \`
| ¦ [ 4 ] 7 3 { 1 }
| 4 ¦ [ 7 ] 3 { 1 }
| 4 7 | ¦ [ 3 ] { 1 }
| 4 7 3 | ¦ [ { 1 } ]
[ ] { 1 } [ 4 7 3 ]
\ ` \` \`
# # Costo computazionale
| Categoria | Upper bound | Lower bound | Tight bound |
| -- -- -- -- -- - | -- -- -- -- -- -- - | -- -- -- -- -- -- - | -- -- -- -- -- -- - |
| Tempo | \ ` O(n²) \` | \` Ω(n log n) \` | - |
Il costo della funzione è dato dalla somma del costo per * * dividere in due partizioni * * con il costo per realizzare il * * Quick sort delle due sottopartizioni * *
Possiamo applicare allora il * * Master Theorem generale * * :
\ ` \` \` latex
T ( n ) \ \ \ \
= \ \ \ \
Θ ( 1 ) \ \ qquad per \ \ n = 1 \ \ \ \
T ( q ) + T ( dim _lista - pivot - 1 ) + Θ ( n ) \ \ qquad per \ \ n > 1
\ ` \` \`
# # # Il caso migliore
Se il pivot \ ` q \` è la **mediana della partizione** che stiamo ordinando, si vengono a creare due _sottopartizioni bilanciate_, e sostituendo otteniamo:
\ ` \` \` latex
T ( n ) \ \ \ \
= \ \ \ \
Θ ( 1 ) \ \ qquad per \ \ n = 1 \ \ \ \
2 T ( \ \ frac { n } { 2 } ) + Θ ( n ) \ \ qquad per \ \ n > 1
\ ` \` \`
Possiamo allora applicare il * * Master Theorem particolare * * :
\ ` \` \` latex
T ( n ) \ \ \ \
= \ \ \ \
Θ ( 1 ) \ \ qquad per \ \ n = 1 \ \ \ \
Θ ( n log n ) \ \ qquad per \ \ n > 1
\ ` \` \`
# # # Il caso peggiore
Se il pivot è uno degli * * estremi dell ' array * * , si creano due _partizioni sbilanciate _ : una delle due sottoliste è sempre vuota !
Allora :
\ ` \` \` latex
T ( n ) = T ( n - 1 ) + Θ ( n ) \ \ \ \
= T ( n - 2 ) + Θ ( n - 1 ) + Θ ( n ) \ \ \ \
= T ( n - 3 ) + Θ ( n - 2 ) + Θ ( n - 1 ) + Θ ( n ) \ \ \ \
= …
∈ Θ ( n ^ 2 )
\ ` \` \`
> "Non date da mangiare sequenze ordinate al Quicksort, gli sono indigeste."
# # Pseudocodice
\ ` \` \` python
def partition ( partizione , inizio , fine ) :
"" " Dividi una partizione in due , usando l ' ultimo elemento come pivot .
Note utili :
partizione [ fine ] è il pivot
partizione [ maggiori ] è il primo numero dei maggiori
partizione [ non _iterati ] è l ' elemento su cui si sta iterando al momento "" "
# Crea il primo separatore ( la | pipe nell ' esempio )
maggiori = inizio
# Crea il secondo separatore ( la ¦ broken pipe nell ' esempio )
non _iterati = inizio
# Itera su ogni numero tra inizio e fine ( escluso ! )
while non _iterati < fine :
# Se l ' elemento su cui stiamo iterando è minore del pivot
if partizione [ non _iterati ] <= partizione [ fine ] :
# Mettilo nell ' insieme dei minori , scambiandolo con il primo numero dei maggiori e incrementando il primo separatore
partizione [ maggiori ] , partizione [ non _iterati ] = partizione [ non _iterati ] , partizione [ maggiori ]
maggiori += 1
# Incrementa sempre il secondo separatore
non _iterati += 1
# Inserisci il pivot tra le due sottopartizioni create ,
partizione [ fine ] , partizione [ non _iterati ] = partizione [ non _iterati ] , partizione [ fine ]
return maggiori
\ ` \` \`
# # Visualizzazione
[ visualgo . net ] ( https : //visualgo.net/bn/sorting) (Nota: invece che prendere l'ultimo numero come pivot prende il primo, cambiando leggermente l'algoritmo.)
# # Note per l ' esame
> La domanda che fa sempre è * * "Qual è la sequenza di pivot utilizzata?" * *
> Elementi da soli _non _ vengono presi come pivot !
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Counting sort
Il _counting sort _ è un approccio diverso all ' ordinamento : * * non usa il confronto * * !
# # Requisiti
Il counting sort può essere utilizzato solo su * * sequenze di numeri interi * * , e solo se * * siamo a conoscenza del minimo e del massimo * * dei numeri contenuti nell 'array, ed essi non sono troppo distanti uno dall' altro .
( La memoria occupata dal counting sort aumenta linearmente con la differenza tra minimo e massimo ! )
Per semplicità , consideriamo il * * minimo \ ` 0 \` **.
L ' input allora sarà una sequenza di interi \ ` A \` , e il valore del **massimo \` k \` **, tale che \` ∀ n ∈ A, 0 \\ leq n \\ leq K \` .
# # Funzionamento
Il counting sort * * conta le ripetizioni * * delle chiavi nella sequenza originale e in seguito * * sovrascrive i valori * * della sequenza con i valori ordinati ripetuti il numero di volte che sono stati individuati nella sequenza .
> \ ` \` \`
> 1 4 5 3 4 1 4 2 5 1
> \ ` \` \`
>
> L ' \ ` 1 \` appare 3 volte, il \` 2 \` 1 volta, il \` 3 \` 1 volta, il \` 4 \` tre volte e il \` 5 \` due volte.
>
> La sequenza viene quindi così sovrascritta :
> \ ` \` \`
> 1 1 1 3 4 1 4 2 5 1 # Sovrascriviamo la sequenza con 1 ripetuto 3 volte
> 1 1 1 2 3 4 4 4 5 1 # Sovrascriviamo la sequenza con 2 , 3 , 4 ripetuti rispettivamente 1 1 e 3 volte
> 1 1 1 2 3 4 4 4 5 5 # Sovrascriviamo la sequenza con 5 ripetuto 2 volte : abbiamo finito !
> \ ` \` \`
Esiste anche una * * versione stabile * * del counting sort che , invece che sovrascrivere , * * sposta i valori * * , mantenendo le informazioni aggiuntive nel caso invece che interi fossero altri tipi di dati .
# # Costo computazionale
| Categoria | Upper bound | Lower bound | Tight bound |
| -- -- -- -- -- - | -- -- -- -- -- -- - | -- -- -- -- -- -- - | -- -- -- -- -- -- - |
| Tempo | \ ` O(k + n) \` | \` Ω(k + n) \` | ** \` θ(k + n) \` ** |
L ' algoritmo è composto da quattro parti :
- Ricerca del minimo e massimo ( in \ ` θ(n) \` )
- Inizializzazione dell ' indice ( in \ ` θ(k) \` )
- Conteggio dei numeri ( in \ ` θ(n) \` )
- Sovrascrittura dei numeri ( in \ ` θ(k + n) \` )
\ ` 2 + O(k) + O(n) + O(k + n) -> O(k + n) \`
Notiamo che \ ` k \` è costante, l'algoritmo è \` O(n) \` , estremamente efficiente.
# # Pseudocodice
\ ` \` \` python
def counting _sort ( lista : typing . List [ int ] ) :
"" "Ordina in-place una lista con il counting sort." ""
# Trovo la dimensione della lista
dim = len ( lista )
# Trovo il massimo e il minimo all ' interno della lista
minimo = min ( lista )
massimo = max ( lista )
# Creo l ' indice dei numeri , in modo che sia lungo k e pieno di 0
indice = [ 0 for _ in range ( minimo , massimo + 1 ) ]
# Conto i numeri presenti , scorrendo su lista e aggiungendo 1 al numero corrispondente
for i in range ( dim ) :
indice [ lista [ i ] ] += 1
# Sovrascrivo i numeri nella lista
count = 0
for pos , val in enumerate ( indice ) :
for _ in range ( val ) :
indice [ count ] = pos
count += 1
def stable _counting _sorted ( lista : typing . List [ int ] , k : int ) - > typing . List [ int ] :
"" "Ordina stabilmente una lista con il counting sort stabile, e restituiscila." ""
# Trovo la dimensione della lista
dim = len ( lista )
# Trovo il massimo e il minimo all ' interno della lista
minimo = min ( lista )
massimo = max ( lista )
# Creo l ' indice dei numeri , in modo che sia lungo k e pieno di 0
indice = [ 0 for _ in range ( minimo , massimo + 1 ) ]
# Conto i numeri presenti , scorrendo su lista e aggiungendo 1 al numero corrispondente
for i in range ( dim ) :
indice [ lista [ i ] ] += 1
# Faccio diventare l ' indice "il numero di numeri \\leq i"
for i in range ( len ( indice ) ) :
if i == 0 :
continue
indice [ i ] += indice [ i - 1 ]
assert indice [ - 1 ] == dim
# Creo una nuova lista , che sarà quella che verrà restituita
nuova = [ None for _ in range ( dim ) ]
# Inizio a posizionare i numeri , al contrario
for i in range ( 0 , dim , - 1 ) :
nuova [ indice [ lista [ i ] ] ] = lista [ i ]
indice [ lista [ i ] ] -= 1
return nuova
\ ` \` \`
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# # Introduzione alle Strutture Dati
Una _struttura dati _ è un modo in cui si possono organizzare i dati di un programma .
Si possono definire in due modi : * * elementari * * e * * astratte * * .
# # # Strutture dati elementari
Le strutture _elementari _ dipendono strettamente dal modo in cui vengono memorizzati i dati .
> * * Array * * e * * liste * * sono strutture dati elementari : sono definite dicendo come sono memorizzati i dati , rispettivamente , in celle contigue di memoria e da una serie di nodi con un valore e che puntano al successivo .
# # # Strutture dati astratte
Le strutture _astratte _ sono separate dal modo in cui vengono memorizzati i dati , sono più ad alto livello , e si definiscono descrivendo le * * proprietà * * della struttura e i * * metodi * * che su di essa possono essere effettuate .
> Una _classe _ in un qualsiasi linguaggio di programmazione è una struttura dati astratta .
> Una _pila _ astratta :
> - memorizza dati tutti dello stesso tipo
> - \ ` pop() \` , estrae dalla pila l'ultimo valore inserito
> - \ ` push(val) \` , aggiunge alla pila un valore
> - \ ` top() \` , permette di vedere l'ultimo valore inserito nella pila
> - \ ` vuota() \` , dice se la pila è vuota oppure no.
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Array
Un _array _ è sequenza di dati di * * lunghezza conosciuta * * , tutti dello * * stesso tipo * * e di una * * dimensione fissa * * , immagazzinata in * * blocchi di memoria contigui * * .
# # Proprietà
- E ' possibile accedere a tutti i blocchi di memoria conoscendo la loro * * posizione relativa al primo * * elemento .
# # Metodi
\ ` \` \` python
class Array :
def _ _init _ _ ( self , size , type = int ) : "Crea un array di dimensione size di elementi di tipo int."
def _ _getitem _ _ ( self , index ) : "Restituisci il valore alla posizione index."
def _ _setitem _ _ ( self , index , value ) : "Cambia il valore alla posizione index."
\ ` \` \`
# # # Costo computazionale
Tutte le operazioni su un array sono in * * accesso immediato \ ` O(1) \` **!
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Lista
Una _lista _ è una sequenza di dati immagazzinata in * * blocchi di memoria qualsiasi * * .
# # Proprietà
Ogni dato ha un * * riferimento * * alla collocazione di memoria * * successiva * * ( un puntatore ) : insieme , sono detti un _nodo _ .
E ' di * * natura ricorsiva * * : qualsiasi nodo di una lista può essere visto come inizio della lista con sè stesso e i suoi successivi .
# # Metodi
\ ` \` \` python
class LinkedList :
def _ _init _ _ ( self , value , next : typing . Optional [ Node ] = None ) :
self . value = value
self . next : typing . Optional [ Node ] = next
def is _empty ( self ) - > bool : "Restituisce se la lista è vuota o no."
def is _full ( self ) - > bool : " Restituisce se la lista è piena o no .
def append ( self , value ) : "Aggiunge un nuovo elemento in testa alla lista."
def insert ( self , value , index ) : "Inserisce un elemento dopo il nodo in posizione index."
def insert _node ( self , value , node ) : "Inserisce un nuovo elemento subito dopo un dato nodo."
def find ( self , node ) - > int : "Trova l'indice del nodo."
def delete ( self , value ) : "Elimina il primo nodo con quel valore dalla lista."
def delete _node ( self , node ) : "Elimina il nodo dalla lista."
def forward ( self , index ) - > Node : "Restituisce il nodo in posizione index."
\ ` \` \`
# # # Costo computazionale
# # # # \ ` List.forward(index) \`
Per raggiungere l ' \ ` n \` -esimo elemento, bisogna _scorrere tutti gli elementi prima di esso_: è dunque un **accesso sequenziale** in ** \` O(n) \` **.
# # Visualizzazione
[ visualgo . net ] ( https : //visualgo.net/en/list)
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Coda ( Queue )
Una _coda _ è come una pila , ma segue la strategia * * First In , First Out * * ( il primo inserito sarà il primo a essere estratto ) .
# # Proprietà
- I dati vi possono essere aggiunti solo tramite il * * metodo \ ` enqueue() \` **
- I dati possono essere estratti solo tramite il * * metodo \ ` dequeue() \` **
- Verranno restituiti i valori inseriti secondo la strategia * * First In , First Out * * ( il primo inserito sarà il primo a essere estratto ) .
> Hai presente quando fai la fila per pagare al supermercato ? Beh , è quello , però non si possono superare le altre persone in nessun modo .
# # Metodi
\ ` \` \` python
class Queue :
def _ _init _ _ ( self ) : "Crea una nuova coda."
def is _empty ( self ) - > bool : "Restituisce vero se la coda è vuota."
def enqueue ( self , data ) : "Aggiunge un dato alla coda."
def first ( self ) - > ... : "Restituisce il primo dato della coda."
def dequeue ( self ) - > ... : "Restituisce il primo dato della coda e lo rimuove."
\ ` \` \`
# # Implementazione tramite lista
Posso implementare la coda con una lista , ma per realizzare l 'implementazione più efficiente devo tenere anche un puntatore all' ultimo elemento della coda , in modo da non doverla scorrere ogni volta che voglio effettuare un ' operazione .
Chiamiamo i due puntatori \ ` head \` e \` tail \` rispettivamente.
# # Visualizzazione
[ visualgo . net ] ( https : //visualgo.net/en/list)
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Pila ( Stack )
Una _pila _ è una struttura dati contenente * * valori omogenei * * .
# # Proprietà
- I dati vi possono essere aggiunti solo tramite il * * metodo \ ` push() \` **
- I dati possono essere estratti solo tramite il * * metodo \ ` pop() \` **
- Verranno restituiti i valori inseriti secondo la strategia * * Last In , First Out * * ( l ' ultimo inserito sarà il primo a essere estratto ) .
> Ci si può immaginare una pila di libri , da cui si può solo prendere un libro alla volta , quello più in alto .
# # Metodi
\ ` \` \` python
class Stack :
def _ _init _ _ ( self ) : "Crea una nuova pila."
def is _empty ( self ) - > bool : "Restituisce vero se la pila è vuota."
def push ( self , data ) : "Aggiunge un dato alla pila."
def top ( self ) - > ... : "Restituisce il primo dato della pila."
def pop ( self ) - > ... : "Restituisce il primo dato della pila e lo rimuove."
\ ` \` \`
# # Implementazione tramite lista
Utilizzando una lista possiamo realizzare una pila !
La direzione dei puntatori sarà dall ' ultimo al primo , che non punterà più a nessuno .
Il costo di tutti i metodi è \ ` Θ(1) \` !
# # Visualizzazione
[ visualgo . net ] ( https : //visualgo.net/en/list)
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Albero radicato
Un _albero radicato _ è una struttura dati di * * natura ricorsiva * * che organizza i dati in maniera * * non - lineare * * .
# # Proprietà
- Ogni nodo dell 'albero ha un **unico genitore**: \`∀ (padre, figlio), (padre' figlio ) ∈ E \ \ implies padre = padre ' \ `
- Ogni nodo dell ' albero può avere * * un numero qualsiasi di figli * * .
<!-- -- >
- I * * nodi superiori al padre * * vengono chiamati _antenati _ .
- I * * nodi inferiori ai figli * * vengono chiamati _discendenti _ .
<!-- -- >
- Nodi * * senza padre * * sono detti _radice _ : \ ` \\ notexists (padre, radice) ∈ E \`
- Nodi * * con padre e figli * * sono detti _rami _ o interni .
- Nodi * * senza figli * * sono detti _foglie _ .
<!-- -- >
- La * * distanza * * tra il nodo radice e i suoi discendenti è detta _livello _ :
- I figli immediati sono di livello 1.
- I "nipoti" ( figli dei figli ) sono di livello 2.
- I figli dei nipoti sono livello 3.
- E così via .
- Il * * livello massimo * * all ' interno di un albero è detto _altezza _ , _profondità _ oppure _h _ , ed è sempre \ ` 1 ≤ h ≤ n-1 \` .
<!-- -- >
- Un albero ha sempre \ ` n-1 \` archi.
# # Alberi particolari
# # # Alberi \ ` d \` -ari
Un albero _ \ ` d \` -ario_ è un particolare tipo di albero che **limita il numero massimo di figli di un nodo** a \` d \` .
> Un albero _binario _ può avere * * massimo 2 figli * * per ogni nodo ; un albero _ternario _ ne può avere * * 3 * * ; un albero _ \ ` 17 \` -ario_ ne potrà avere **17**
# # # # Alberi completi
Un albero \ ` d \` -ario si dice _completo_ se **tutti i nodi hanno 0 o \` d \` figli**, e mai una numero in mezzo.
# # # # Alberi bilanciati
Un albero \ ` d \` -ario si dice _bilanciato_ se **tutti i livelli eccetto l'ultimo** hanno il numero massimo di figli.
# # # # Alberi perfettamente bilanciati
Un albero \ ` d \` -ario si dice _perfettamente bilanciato_ se **tutti i livelli incluso l'ultimo** hanno il numero massimo di figli.
# # # # # Particolarità degli alberi binari perfettamente bilanciati
Si può dimostrare per induzione che :
- Hanno sempre \ ` 2^h \` foglie.
- Hanno sempre \ ` 2^{h+1}-1 \` ( \` \\ sum_i=0^n 2^i \` ) nodi.
- L ' altezza è in \ ` Θ(log n) \` .
# # Implementazione degli alberi
Possiamo scegliere se usare una rappresentazione con array o con nodi e puntatori : ognuna ha vantaggi e svantaggi diversi .
# # # Implementazione tramite array
E ' suggerito se l' albero è regolare ; più è simile a un albero d - ario completo , meglio è .
# # # Implementazione tramite nodi e puntatori
Più adatta ad alberi irregolari .
Se l ' albero è regolare , creiamo il numero esatto di campi :
- Valore
- Figlio1
- Figlio2
- _Opzionale : _ Padre
Se un albero è irregolare , creiamo una specie di lista :
- Valore
- Primo figlio
- Prossimo fratello
- _Opzionale : _ Padre
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# # # # Breadth - first search ( BFS )
La _breadth - first search _ è un algoritmo che visita * * ogni livello * * dell ' albero in ordine , dal più basso al più alto .
# # Funzionamento
> 1. _ _Visita radice _ _
> 2. _ _Visita figli _ _
> 3. _ _Visita nipoti _ _
> 4. _ _Visita pronipoti _ _
Si può implementare con una coda , in cui verranno inseriti i figli del nodo visitato da visitare ed estratti dopo avere completato la visita del livello attuale .
# # Pseudocodice
\ ` \` \` python
def bfs ( radice ) :
c = Queue ( )
c . enqueue ( radice )
while not c . is _empty ( ) :
nodo = c . dequeue ( )
print ( nodo )
for figlio in nodo . figli :
nodo . enqueue ( figlio )
\ ` \` \`
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Depth - First Search
La _depth - first search _ è un algoritmo che visita * * tutti i sottoalberi di un figlio * * prima di passare ad un altro sfruttando la natura ricorsiva degli alberi .
# # Funzionamento
Ci sono diverse versioni della depth - first search : ognuna visita la radice in un momento diverso .
# # # DFS previsita ( pre - order )
La _DFS pre - visita _ visita la * * radice per prima * * , poi tutti i sottoalberi formati dai figli uno dopo l ' altro .
> 1. _ _Visita radice _ _
> 2. dfs _pre _order ( figlio1 )
> 3. dfs _pre _order ( figlio2 )
# # # Postvisita ( post - order )
La _DFS postvisita _ visita prima tutti i sottoalberi dei figli , e * * alla fine la radice * * .
> 1. dfs _post _order ( figlio1 )
> 2. dfs _post _order ( figlio2 )
> 3. _ _Visita radice _ _
# # # Invisita ( in - order )
La _DFS invisita _ visita * * un certo numero di figli * * , poi la radice , e infine i figli restanti .
> 1. dfs _in _order ( figlio1 , 1 )
> 2. _ _Visita radice _ _
> 3. dfs _in _order ( figlio2 , 1 )
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Albero binario di ricerca
# # Proprietà
- Albero * * binario * *
- Chiavi appartenenti ad un * * insieme totalmente ordinato * * ( N , Q , R , ma non C )
<!-- -- >
- Per ogni nodo con valore \ ` x \` , se un valore \` v \` è nel sottoalbero di sinistra allora \` v ≤ x \` , mentre se è nel sottoalbero di destra allora \` v > x \` .
# # Costo computazionale
- Trovare un valore : \ ` O(h) \`
- Ordinare i valori : \ ` O(n) \`
- Trovare il minimo : \ ` O(h) \`
- Trovare il massimo : \ ` O(h) \`
- Inserire un elemento : \ ` O(h) \`
- Cancellare un elemento : \ ` O(h) \`
\ ` h \` vale \` log n \` in un albero perfettamente bilanciato, e più l'albero diventa sbilanciato, più si avvicina a \` n \` , raggiungendola nel caso l'albero sia una lista.
# # Pseudocodice
# # # Cancellazione ricorsiva
\ ` \` \` python
def delete ( tree , key ) :
if tree is not None :
# Se ho trovato il nodo che cercavo ...
if tree . key == key :
# E c ' è una sola diramazione ...
# Semplicemente stacca il nodo come in una lista .
if tree . left is None :
return tree . right
if tree . right is None :
return tree . left
# Altrimenti , diventa il minimo dell ' albero di destra
tree . key = tree . right . min ( )
# Ed eliminalo dal sottoalbero
tree . right = delete ( tree . right , tree . key )
# Se la chiave attuale è diversa da quella che cerchiamo , continuo a navigare l ' albero
elif tree . key < key :
tree . left = delete ( tree . left , key )
else :
tree . right = delete ( tree . right , key )
return tree
\ ` \` \`
# # Visualizzazione
[ visualgo . net ] ( https : //visualgo.net/en/bst)
# # Approfondimenti
Esistono alberi più avanzati che mantengono le proprietà degli alberi binari di ricerca , ma che si autobilanciano , come il [ Red Black Tree ] ( https : //it.wikipedia.org/wiki/RB-Albero).
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Heap binario
L ' _heap binario _ è un * * albero binario bilanciato a sinistra * * .
# # Proprietà
- _Proprietà strutturale _ :
- L 'albero è **perfettamente bilanciato** in tutti i livelli tranne l' ultimo
- Nell ' ultimo livello , le foglie occupano le * * posizioni più a sinistra * * possibili
- _Proprietà di ordinamento _ :
- La chiave di un qualsiasi nodo è * * più piccola * * di tutte quelle dei nodi * * del suo sottoalbero * *
# # Metodi
\ ` \` \` python
class Heap :
def _ _init _ _ ( self , H ) : ...
def _heapify _ancestors ( self , i ) : "Ripristina le proprietà dell'heap per il nodo all'indice specificato e i suoi genitori."
def minimum ( self ) : "Restituisce la chiave con il valore minimo in H."
def decrease _value ( self , index , new _value ) : "Diminuisce il valore della chiave all'indice index a new_value."
def insert ( self , value ) : "Inserisci un nuovo valore nell'albero."
def _heapify _children ( self , i ) : "Ripristina le proprietà dell'heap per il nodo all'indice specificato e i suoi figli."
def pop ( self ) : "Restituisce la chiave con il valore minimo, e la elimina."
def from _list ( l ) : "Crea un heap da una lista."
\ ` \` \`
# # Implementazione con un array
Possiamo implementare l 'albero utilizzando un array con le chiavi dell' albero memorizzate nell ' ordine _breadth - first _ .
L 'indice del figlio sinistro può essere trovato a \`2i+1\`, mentre l' indice del figlio sinistro può essere trovato a \ ` 2i+2 \` ; il genitore è a \` i//2-1 \` .
# # # Pseudocodice
\ ` \` \` python
class Heap :
def _ _init _ _ ( self , size ) :
self . array = Array ( size ) # Il tipo Array non esiste ; consideriamolo pseudocodice
self . next _value = 0
def _heapify _ancestors ( self , index )
"" " Ripristina le proprietà dell 'heap per il nodo all' indice specificato e i suoi genitori .
Costo :
O ( log n ) "" "
# Trovo l ' indice del genitore
parent = index // 2 - 1
# Controllo se viene mantenuta la proprietà di ordinamento dell ' heap
if self . array [ index ] < self . array [ parent ] :
# Scambio i valori dei due nodi
self . array [ index ] , self . array [ parent ] = self . array [ parent ] , self . array [ index ]
# Faccio la stessa cosa con il genitore
self . _heapify ( parent )
def minimum ( self ) :
"" " Restituisce la chiave con il valore minimo in H .
Costo :
O ( 1 ) "" "
return self . array [ 0 ]
def decrease _value ( self , index , new _value ) :
"" " Diminuisce il valore della chiave all ' indice index a new _value .
Costo :
O ( log n ) "" "
# Diminuisco il valore del nodo
self . array [ index ] = new _value
# Aggiorno l ' heap
self . _heapify ( index )
def insert ( self , value ) :
"" " Inserisci un nuovo valore nell ' albero .
Costo :
O ( log n ) "" "
# Trovo l ' indice in cui inserire il valore
index = self . next _index
# Aggiungo il valore in fondo
self . array [ index ] = value
# Aggiorno l ' heap
self . _heapify ( index )
def _heapify _children ( self , index ) :
"" " Ripristina le proprietà dell 'heap per il nodo all' indice specificato e i suoi figli .
Costo :
O ( log n ) "" "
# Trovo l ' indice dei figli
left = index * 2 + 1
right = index * 2 + 2
# Mi assicuro che i figli esistano
try :
# Guardo quale dei figli è maggiore
if self . array [ left ] > self . array [ right ] :
# Scambio i valori
self . array [ left ] , self . array [ index ] = self . array [ index ] , self . array [ left ]
# Ripeto la procedura sul figlio modificato
self . _heapify _children ( left )
else :
# Scambio i valori
self . array [ right ] , self . array [ index ] = self . array [ index ] , self . array [ right ]
# Ripeto la procedura sul figlio modificato
self . _heapify _children ( left )
except IndexError :
# La foglia non ha figli : ho finito !
return
def pop ( self ) :
"" " Restituisce la chiave con il valore minimo , e la elimina .
Costo :
O ( log n ) "" "
# Mi salvo il valore della radice
value = self . array [ 0 ]
# Sostituisco la radice con l ' ultima foglia a destra
self . array [ 0 ] , self . array [ self . next _value ] = self . array [ self . next _value ] , self . array [ 0 ]
# # # Non bisognerebbe eliminare la foglia ... ?
# Riordino l ' heap
self . _heapify _children ( 0 )
return value
@ staticmethod
def from _list ( l ) :
"" " Crea un heap da una lista .
Costo :
O ( n log n ) , ma si può abbassare "" "
heap = Heap ( len ( l ) ) )
heap . array = Array . from _list ( l ) # Pseudocodice
heap . next _value = len ( l )
# Cominciamo a riordinare l ' heap dalla fine , in modo che rispetti le proprietà
for index in range ( heap . next _value , 0 , - 1 ) :
heap . _heapify _children ( index )
\ ` \` \`
# # Visualizzazione
[ visualgo . net ] ( https : //visualgo.net/en/heap)
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Coda con priorità
La _coda con priorità _ è una struttura dati dal funzionamento molto simile a quello di una coda , ma invece che restituire il primo elemento inserito , essa restituisce l ' * * elemento con il valore di priorità minore * * .
# # Proprietà
- Ogni elemento è una coppia costituita da * * valore * * e * * priorità * * ( un numero intero ) .
- Nuovi elementi possono essere aggiunti solo tramite il * * metodo \ ` insert() \` **
- Gli elementi possono essere estratti solo tramite il * * metodo \ ` pop() \` **
- Verranno restituiti i valori inseriti secondo la strategia * * Lower Priority * * ( l ' elemento con la priorità minore sarà il primo ad essere restituito ) .
- E ' possibile diminuire la priorità di un elemento ( e quindi anticipare la sua estrazione )
# # Metodi
\ ` \` \` python
class PriorityQueue :
def _ _init _ _ ( self ) : ...
def insert ( self , new _elem : Element ) : ...
def minimum ( self ) - > Element : ...
def pop ( self ) - > Element : ...
def decrease _priority _for ( self , elem : Element , priority : int ) : ...
\ ` \` \`
# # Implementazione con lista
E ' possibile implementare la coda con priorità tramite una **lista**: l' inserimento di nuovi valori diventerà molto efficiente , ma tutte le altre operazioni saranno linearmente lente .
# # # Costo computazionale
- * insert ( ) * : \ ` O(1) \`
- * minimum ( ) * : \ ` O(n) \`
- * pop ( ) * : \ ` O(n) \`
- * decrease _priority _for ( ) * : \ ` O(n) \`
# # Implementazione con lista ordinata
Implementando la coda con priorità con una * * lista ordinata * * si avrà un costo di ordinamento elevato negli inserimenti e modifiche alla priorità , ma costi costanti nell ' estrazione di un elemento .
# # # Costo computazionale
- * insert ( ) * : \ ` O(n) \`
- * minimum ( ) * : \ ` O(1) \`
- * pop ( ) * : \ ` O(1) \`
- * decrease _priority _for ( ) * : \ ` O(n) \`
# # Implementazione con heap
La * * soluzione migliore * * è quella di implementare la coda con priorità tramite un * * heap * * : tutti i costi saranno logaritmici , eccetto l ' inserimento che sarà costante .
- \ ` insert() \` costa \` O(1) \`
- \ ` minimum() \` costa \` O(log n) \`
- \ ` pop() \` costa \` O(log n) \`
- \ ` decrease_priority_for() \` costa \` O(log n) \`
# # Approfondimenti
Esistono code con priorità che restituiscono * * l ' elemento con priorità maggiore * * , invece che quello minore .
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Heap sort
L ' _heap sort _ è un algoritmo di ordinamento per confronto * * iterativo * * .
# # Funzionamento
Per effettuare un heap sort , creiamo un * * heap massimo * * in cui inseriamo tutti i valori che vogliamo ordinare .
Una volta applicate le proprietà dell 'heap, chiamiamo una versione particolare di \`heap.pop()\` che invece che rimuovere dall' array i valori estratti li posiziona nello spazio creatosi in fondo .
# # Costo computazionale
| Categoria | Upper bound | Lower bound | Tight bound |
| -- -- -- -- -- - | -- -- -- -- -- -- - | -- -- -- -- -- -- - | -- -- -- -- -- -- - |
| Tempo | \ ` O(n log n) \` | \` Ω(n log n) \` | ** \` θ(n log n) \` ** |
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Grafo
Un _grafo _ è una struttura dati che rappresenta elementi interconnessi tra loro .
Esistono due tipi di grafi : _orientati _ e _non orientati _ .
Per semplicità , consideriamo i nostri nodi numerati da 1 a \ ` n \` .
# # Proprietà
- Gli elementi sono rappresentati tramite _nodi _ .
- Il loro _grado _ è dato dal * * numero degli archi * * che vi incidono .
- Se il grafo è orientato , hanno anche un _in - degree _ ( * * numero di archi entranti * * ) e un _out - degree _ ( * * numero di archi uscenti * * ) .
- Le connessioni tra elementi sono rappresentate tramite _archi _ .
- Un arco _incide _ esattamente su * * due nodi * * .
- Se il grafo è orientato , sono _uscenti _ da uno dei due nodi ed _entranti _ nell ' altro .
- Sono matematicamente meno del * * quadrato dei nodi * * .
# # Grafi particolari
# # # Catena
Una _catena _ è un * * grafo non orientato * * composto da una * * sequenza di nodi * * aventi un * * grado massimo di 2 * * tutti collegati tra loro .
# # # Cammino
Un _cammino _ è un * * grafo orientato * * composto da una * * sequenza di nodi * * aventi un * * in - degree * * e un * * out - degree * * * * massimo di 1 * * , collegati tra loro in modo che partendo dal primo e seguendo gli archi sia possibile arrivare all ' ultimo .
# # # Cricca
Una _cricca _ è un grafo in cui * * tutti i nodi sono collegati tra loro * * .
Se il grafo è * * non orientato * * , la cricca ha \ ` ((n-1)n)/2 \` archi.
Se il grafo è * * orientato * * , ha per ogni coppia un arco in entrambe le direzioni , quindi ha \ ` (n-1)n \` archi.
# # # Direct Acyclic Graph
Un _DAG _ è un grafo diretto che non contiene nessun ciclo .
Su di esso possiamo effettuare un ordinamento , detto _linearizzazione _ , tra i nodi : otteniamo l ' _ordine topologico _ .
I primi elementi dei DAG sono detti _Source _ ( _Sorgente _ ) , mentre gli ultimi sono detti _Sink _ ( _Pozzo _ ) .
# # # # Albero
Un * * albero * * può essere considerato un DAG con una * * sorgente singola * * e le * * foglie come pozzi * * .
# # # Grafo fortemente connesso
Un insieme di nodi \ ` V \` di un **grafo diretto** \` G \` si dice una _componente fortemente connessa_ se:
1. Per ogni coppia di nodi \ ` ∀ u, v ∈ V' : ∃ un cammino u->v in G' \`
2. Massimale ( non può diventare più grande )
> Praticamente una componente fortemente connessa è un gruppo di nodi tra i quali si può viaggiare liberamente da e a qualsiasi nodo al suo interno .
Un grafo si dice _fortemente connesso _ se l 'insieme \`V\` coincide con l' insieme dei nodi del grafo \ ` G \` .
> Se partendo da qualsiasi nodo di un grafo riesco ad arrivare a qualsiasi altro nodo , allora il grafo è fortemente connesso .
Inoltre , se creiamo un nuovo grafo , in cui * * ogni nodo rappresenta una componente fortemente connessa * * del nostro grafo iniziale , * * otteniamo un DAG * * , perchè tutti i cicli sono stati integrati nella componente .
# # # Trasposto di un grafo
Il _trasposto _ di un * * grafo diretto * * \ ` G \` è il grafo stesso con gli archi che però vanno nella **direzione opposta**.
# # # Grafo pesato
Un _grafo pesato _ è un particolare grafo che associa a ciascun arco un * * costo * * per attraversarlo .
# # # # Costi negativi
I costi possono anche essere negativi : rappresenteranno allora un * * guadagno * * ottenuto attraversando il nodo .
# # # Minimum spanning tree
Un _minimum spanning tree _ è il * * sottoinsieme degli archi * * di un * * grafo non diretto * * che * * connettono tutti i nodi * * con il * * minor costo possibile * * .
I MST hanno [ molte proprietà ] ( https : //en.wikipedia.org/wiki/Minimum_spanning_tree#Properties); sono troppe da scrivere qui, e probabilmente non ci interesseranno nemmeno.
# # Implementazione tramite matrice di adiacenza
Possiamo implementare un grafo creando una * * matrice di \ ` bool \` di dimensione \` n * n \` ** in cui le **caselle collegate sono vere** e le caselle non collegate sono false.
> Ad esempio , possiamo implementare un grafo non orientato in questo modo ( \ ` █ \` indica l'esistenza di un collegamento e \` \` indica la sua assenza):
>
> | | 1 | 2 | 3 |
> | - | - | - | - |
> | 1 | ░ | ░ | ░ |
> | 2 | █ | ░ | ░ |
> | 3 | █ | | ░ |
>
> Esistono gli archi \ ` 1-2 \` e \` 1-3 \` , ma non esiste un collegamento \` 2-3 \` .
> Un grafo orientato invece si può implementare così :
>
> | | 1 | 2 | 3 |
> | - | - | - | - |
> | 1 | ░ | █ | |
> | 2 | █ | ░ | |
> | 3 | █ | | ░ |
>
> Esistono gli archi \ ` 1->2 \` , \` 2->1 \` e \` 3->1 \` , ma non ci sono collegamenti \` 2->3 \` , \` 1->3 \` e \` 3->2 \` .
# # # Costo computazionale
# # # # Tempo
Le matrici di adiacenza portano alla realizzazione di algoritmi molto veloci : verificare l ' esistenza di un arco è in \ ` O(1) \` !
Abbiamo però penalità significative quando vogliamo effettuare operazioni sugli archi : ad esempio , trovare il trasposto di un grafo implementato con una matrice di adiacenza è in \ ` O(nodi²) \` .
# # # # Memoria
E ' poco efficiente in quanto a memoria: l' upper bound è in \ ` O(n^2) \` .
# # Implementazione tramite liste di adiacenza
Un 'alternativa alla matrice di adiacenza è quella di creare un' * * array di liste * * , le quali contengono i * * vicini di ciascun nodo * * .
> | Posizione | Lista |
> | - | - |
> | 1 | [ 2 , 3 ] |
> | 2 | [ ] |
> | 3 | [ 1 ] |
>
> Esistono gli archi \ ` 1->2 \` , \` 1->3 \` , e \` 3->1 \` , ma non esistono \` 2->1 \` , \` 2->3 \` e \` 3->2 \` .
# # # Costo computazionale
# # # # Tempo
Utilizzando le liste di adiacenza , il tempo richiesto per verificare l ' esistenza di un arco sale a \ ` O(max-out-degree) \` .
E ' efficace però quando il problema che vogliamo risolvere riguarda operazioni su archi : trovare la trasposta è in \ ` O(archi) \` .
# # # # Memoria
La memoria richiesta dalle liste di adiacenza è minore di quella delle matrici : l ' upper bound è in \ ` O(nodi + archi) \` .
# # Visualizzazione
[ visualgo . net ] ( https : //visualgo.net/en/graphds)
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Visitare un grafo
Come per gli alberi radicati , esistono due modi per visitare un grafo : _depth - first search _ e _breadth - first search _ .
In entrambi i casi , non visito mai due volte lo stesso nodo , e come risultato ottengo * * molteplici alberi * * , il cui insieme viene detto _foresta di copertura _ .
Se il grafo che vogliamo visitare è diretto , allora dobbiamo * * considerare come vicini solo gli archi uscenti * *
# # Depth - first search
La DFS ci può risultare utile per * * identificare le componenti connesse * * di un grafo e * * identificare eventuali cicli * * .
# # # Funzionamento
Posso utilizzare la DFS per classificare gli archi di un grafo in quattro categorie :
- _Tree _ , archi che ci fanno * * scoprire un nuovo nodo * *
- _Forward _ , archi che ci portano a un * * discendente * *
- _Back _ , archi che ci portano ad un * * antenato * *
- _Cross _ , archi che * * connettono due sottoalberi * * diversi
Usiamo due array inizializzati a 0 chiamati \ ` pre \` e \` post \` , grandi quanto il numero di archi del grafo, che ci indicano rispettivamente quando un nodo è stato scoperto e quando è terminata la visita.
Inoltre , creiamo una variabile \ ` clock \` che avanza ad ogni evento.
Alla scoperta di un nuovo nodo , mettiamo il valore attuale di \ ` clock \` all'interno di \` pre[n] \` .
Alla fine della visita di un nodo invece mettiamo il valore di \ ` clock \` in \` post[n] \` .
* * Durante la visita * * , gli archi avranno i seguenti valori :
- _Tree _ : \ ` pre[dst] == 0 \`
- _Forward _ : \ ` pre[src] < pre[dst] && post[dst] > 0 \`
- _Back _ : \ ` pre[dst] < pre[src] && post[dst] == 0 \`
- _Cross _ : Tutti gli altri ( \ ` post[dst] < pre[src] \` )
* * A fine visita * * , gli archi avranno i seguenti valori :
- _Tree _ : \ ` pre[dst] < pre[dst] < post[dst] < pre[src] \`
- _Forward _ : \ ` pre[dst] < pre[dst] < post[dst] < pre[src] \`
- _Back _ : \ ` pre[src] < pre[dst] < post[dst] < post[src] \`
- _Cross _ : \ ` pre[dst] < post[dst] < pre[src] < post[src] \`
Se un * * grafo non diretto * * contiene degli * * archi Back * * , allora esso * * conterrà un ciclo * * .
# # # # DFS nel grafo trasposto
Se effettuo una DFS sul trasposto di un grafo , posso * * scoprire i nodi che hanno un cammino verso l ' origine * * .
# # # # DFS nella componente fortemente connessa
Se effettuo una DFS in una componente fortemente connessa e nella sua trasposta , il * * \ ` post \` della trasposta sarà sempre minore** del \` post \` della componente originale.
# # # Costo computazionale
| Categoria | Upper bound | Lower bound | Tight bound |
| -- -- -- -- -- - | -- -- -- -- -- -- - | -- -- -- -- -- -- - | -- -- -- -- -- -- - |
| Tempo | \ ` O(nodi + archi) \` | \` Ω(nodi + archi) \` | ** \` θ(nodi + archi) \` ** |
| Memoria | \ ` O(nodi) \` | \` Ω(nodi) \` | ** \` θ(nodi) \` ** |
# # # Visualizzazione
[ visualgo . net ] ( https : //visualgo.net/en/dfsbfs)
# # Breadth - first search
La BFS ci può risultare utile per * * trovare tutti i nodi a una certa distanza * * da un ' origine .
# # # Costo computazionale
| Categoria | Upper bound | Lower bound | Tight bound |
| -- -- -- -- -- - | -- -- -- -- -- -- - | -- -- -- -- -- -- - | -- -- -- -- -- -- - |
| Tempo | \ ` O(nodi + archi) \` | \` Ω(nodi + archi) \` | ** \` θ(nodi + archi) \` ** |
| Memoria | \ ` O(nodi + archi) \` | \` Ω(nodi + archi) \` | ** \` θ(nodi + archi) \` ** |
# # # Pseudocodice
Come per gli alberi , la implementiamo in modo * * iterativo * * :
\ ` \` \` python
queue = [ starting _node ]
parents = [ None for node in graph . nodes ]
distance = [ - 1 for node in graph . nodes ]
# TODO : controllami quando sei più sveglio
while queue :
node , source , distance = queue . pop ( 0 )
parents [ node . number ] = source
distance [ node . number ] = distance
for neighbour in node . neighbours :
queue . append ( ( neighbour , node , distance + 1 ) )
\ ` \` \`
> Nella coda , la distanza massima tra un nodo e l ' altro è 1.
# # # Visualizzazione
[ visualgo . net ] ( https : //visualgo.net/en/dfsbfs)
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Algoritmi greedy
Un modo per risolvere problemi algoritmici può essere usare una * * tecnica * * _greedy _ .
Le tecniche greedy consistono nel effettuare tanti piccoli passi , ed effettuare una * * scelta * * in base ai dati * * locali al passo attuale * * .
> Scegli il numero di monete più piccole possibili per comporre € 1.12 .
>
> L ' algoritmo cerca di scegliere sempre la moneta più grande possibile compatibile con il prezzo in quel momento , quindi :
> | Moneta scelta | Rimanente |
> | -- -- -- -- -- -- -- - | -- -- -- -- -- - |
> | € 1.00 | € 0.12 |
> | € 0.10 | € 0.02 |
> | € 0.02 | € 0.00 |
# # Esempi
Sono algoritmi greedy :
- L ' _Algoritmo di Dijkstra _
- L ' _Algoritmo di Kruskal _
- L ' _Algoritmo di Prim _
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Percorso più breve
Trovare il _percorso più breve _ ( o _cammino minimo _ ) tra due nodi di un * * grafo pesato * * è un problema frequente nell ' informatica ; per questo , sono stati sviluppati [ numerosi algoritmi ] ( https : //en.wikipedia.org/wiki/Shortest_path_problem) per risolverlo.
> Ad esempio , il pathfinding dei nemici nei videogiochi , oppure Google Maps !
# # Percorso più breve da una sorgente singola
Una sottocategoria del problema del percorso più breve è il caso in cui ci interessa sapere i percorsi più brevi che * * partono da uno specifico nodo del grafo * * : è detto problema del _percorso più breve da una sorgente singola _ , o _single - source shortest path _ .
Si può notare che se il grafo contiene * * costi negativi * * allora è possibile che il percorso più breve non esista , in quanto diventa possibile la comparsa di * * cicli di costo infinitamente negativo * * .
Possiamo notare che , se il percorso più breve tra \ ` A \` e \` D \` è \` A-B-C-D \` , allora il cammino minimo tra \` B \` e \` D \` passerà obbligatoriamente per \` C \` ( \` B-C-D \` ).
Diremo più avanti che il percorso più breve ha una * * sottostruttura ottimale * * .
# # # Esempi
Alcuni algoritmi che trovano il percorso più breve sono :
- L ' _Algoritmo di Dijkstra _
- L ' _Algoritmo di Bellman - Ford _
- La [ _ricerca A * _ ] ( https : //en.wikipedia.org/wiki/A*_search_algorithm)
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Algoritmo di Dijkstra
L ' _Algoritmo di [ Dijkstra ] ( https : //upload.wikimedia.org/wikipedia/commons/8/85/Dijkstra.ogg)_ è un algoritmo che risolve il problema del **percorso più breve da una sorgente singola** per grafi con pesi **reali positivi** \`\\mathbb{R}^+\`.
L ' algoritmo trova tutti i percorsi più brevi per raggiungere qualsiasi nodo del grafo partendo da un dato nodo , assieme al costo richiesto per farlo .
# # Funzionamento
1. Separiamo tutti i nodi del grafo in due gruppi : * * visitati * * e * * non visitati * * .
- Tutti i nodi partono da * * non visitati * * .
2. Per ogni nodo , manteniamo un valore "**costo richiesto per raggiungerlo**" , che verrà cambiato man mano che l ' algoritmo avanza .
- Il costo di partenza è \ ` +∞ \` .
- Il costo sarà * * definitivo per i nodi visitati * * , e * * provvisorio per i non visitati * * .
3. Creiamo un insieme detto _frontiera _ che conterrà tutti i * * nodi non visitati adiacenti * * a quelli visitati .
4. Prendiamo il nodo iniziale , che avrà un * * costo di \ ` 0 \` **, e definiamolo il nodo _attuale_.
5. Finchè ci sono dei nodi non sono stati visitati , ripetiamo il seguente ciclo :
1. Aggiungiamo i nodi adiacenti al nodo attuale alla frontiera .
- Il costo per raggiungerli sarà il * * costo per il nodo attuale sommato al costo dell ' arco * * che li connette al nodo attuale .
Se questo * * costo * * risulta essere * * minore del costo provvisorio * * precedente , esso * * diventerà il nuovo costo * * .
- Questa operazione è detta _rilassamento dell ' arco _ .
2. Facciamo diventare * * visitato * * il nodo attuale .
- Il percorso che abbiamo fatto per raggiungerlo è obbligatoriamente il più breve .
3. Il prossimo nodo attuale sarà il nodo di frontiera con un costo più basso .
- Per questo , è possibile definire l ' algoritmo di Dijkstra come un * * algoritmo greedy * * .
# # # Non funziona se ...
L ' algoritmo smette di funzionare nel caso in cui siano presenti * * costi negativi * * e il grafo non sia * * aciclico * * , in quanto non saremmo mai in grado di rendere visitato un nodo .
# # Costo computazionale
| Categoria | Upper bound |
| -- -- -- -- -- - | -- -- -- -- -- -- - |
| Tempo | \ ` O(nodi + archi) log nodi) \` |
# # # Scomposizione
- Inizializzazione : \ ` O(nodi) \`
- Creazione coda priorità : \ ` O(nodi log nodi) \`
- Ciclo : \ ` O((nodi + archi) log nodi) \`
# # Pseudocodice
\ ` \` \` python
import math
class Info :
def _ _init _ _ ( self , distance = math . inf , previous = None ) :
self . distance = distance
self . previous = previous
def dijkstra ( graph , start ) :
data = [ Info ( ) for node in graph . nodes ]
queue = PriorityQueue ( [ start ] )
while queue :
node = queue . pop ( )
for arc in node . connections :
other = arc . other ( node )
if data [ node . number ] . distance + arc . cost < data [ other ] . distance :
data [ other ] . distance = data [ node . number ] . distance + arc . cost
queue . decrease _priority _for ( other , data [ other ] . distance )
data [ v ] . previous = node
return data
\ ` \` \`
# # Visualizzazione
[ Visualgo ] ( https : //visualgo.net/en/sssp)
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Algoritmo di Bellman - Ford
L '_Algoritmo di Bellman-Ford_ è un algoritmo che, come l' Algoritmo di Dijkstra , risolve il problema del * * percorso più breve da una sorgente singola * * , però , a differenza da quest 'ultimo, l' Algoritmo di Bellman - Ford accetta in input anche grafi con pesi * * reali * * \ ` \\ mathbb{R} \` (sia positivi, sia negativi).
# # Funzionamento
L 'approccio dell' algoritmo è simile a quello di Dijkstra : entrambi usano il * * rilassamento * * degli archi per ottenere un costo provvisorio per il raggiungimento di un nodo , ma invece che rilassare solo l ' arco con costo inferiore , questo algoritmo * * rilassa tutti gli archi * * ripetutamente , eliminando la frontiera e il problema dei nodi negativi .
L 'operazione di rilassamento è ripetuta \`nodi - 1\` volte, ovvero la **lunghezza massima** di un cammino aciclico all' interno di un grafo .
Possiamo individuare dopo i rilassamenti se è presente un nodo con un * * ciclo negativo * * : ci basta controllare se esiste un arco che connette due nodi con una distanza incompatibile : se \ ` a.distanza + arco.costo < b.distanza \` , allora è presente un ciclo negativo.
# # Costo computazionale
| Categoria | Upper bound |
| -- -- -- -- -- - | -- -- -- -- -- -- - |
| Tempo | \ ` O(nodi * archi) \` |
# # Pseudocodice
> TODO
# # Visualizzazione
[ Visualgo ] ( https : //visualgo.net/en/sssp)
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Disjoint set
Il _disjoint set _ è una struttura dati che rappresenta elementi di un insieme raggruppati in * * sottoinsiemi disgiunti * * .
# # Metodi
\ ` \` \` python
class DisjointNode :
def _ _init _ _ ( self ) : ...
def find _set ( self ) : "Trova il rappresentante dell'elemento."
def union ( self , other ) : "Unisce i sottoinsiemi che contengono questo nodo e \`other\`."
\ ` \` \`
# # Implementazione tramite array
Possiamo implementare il disjoint set con due array : uno per l '**indice del rappresentante** e uno per il **rango dell' insieme * * .
Un singoletto avrà * * sè stesso come rappresentante * * e * * rango \ ` 0 \` **.
# # # Costo computazionale
- * create _set ( ) * : \ ` O(1) \`
- * find _set ( ) * : \ ` O(h) \`
- * union ( ) * : \ ` O(h) \`
# # # Pseudocodice
\ ` \` \` python
class DisjointNode :
def _ _init _ _ ( self ) :
self . parent = self
self . rank = 0
def find _set ( self ) :
element = self
while self . parent != element :
element = self . parent
return element
def union ( self , other ) :
repres _self = self . find _set ( )
repres _other = other . find _set ( )
if repres _self == repres _other :
return
if repres _self . rank < repres _other . rank :
repres _greater = repres _other
repres _lesser = repres _self
else :
repres _greater = repres _self
repres _lesser = repres _other
repres _lesser . parent = repres _greater
if repres _greater . rank == repres _lesser . rank :
repres _greater . rank += 1
\ ` \` \`
# # # Visualizzazione
[ cs . usfca . edu ] ( https : //www.cs.usfca.edu/~galles/JavascriptVisual/DisjointSets.html)
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Trovare il minimum spanning tree
Un altro problema ricorrente riguardante i grafi è trovare il _minimum spanning tree _ di un dato grafo non diretto .
> E ' utile per trovare il modo più efficiente per connettere le cose : ad esempio , per decidere la struttura di una rete internet !
# # Esempi
Gli algoritmi principali che risolvono il problema sono due , ed entrambi sono * * algoritmi greedy * * :
- L ' _Algoritmo di Kruskal _
- L ' _Algoritmo di Prim _
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Algoritmo di Kruskal
L ' _Algoritmo di Kruskal _ è un algoritmo * * greedy * * che * * trova il minimum spanning tree * * di un grafo .
# # Funzionamento
1. Ripetiamo questa procedura finchè tutti i nodi non sono connessi :
1. Prendiamo ad ogni passo * * l 'arco meno costoso** del grafo non ancora aggiunto all' insieme .
2. Assicuriamoci che * * non si creino cicli * * : se non se ne verrebbero a creare , possiamo * * aggiungere l 'arco all' insieme * * .
- Gli archi devono quindi connettere nodi in * * componenti connesse diverse * * .
- Possiamo rappresentare le componenti connesse con un * * Disjoint Set * * .
# # Costo computazionale
| Categoria | Upper bound |
| -- -- -- -- -- - | -- -- -- -- -- -- - |
| Tempo | \ ` O(archi²) \` |
# # # Scomposizione
- DisjointSet . _ _init _ _ ( ) : \ ` O(archi) \`
- Per ogni ciclo : \ ` O(archi²) \`
- DisjointSet . find _set ( ) : \ ` O(1) \`
- DisjointSet . union ( ) : \ ` O(archi) \`
# # Pseudocodice
\ ` \` \` python
def minimum _spanning _tree _kruskal ( graph ) :
ds = DisjointSet ( )
for node in graph . nodes :
ds . create _set ( node )
arcs = [ ]
sorted _arcs = sorted ( graph . arcs , key = lambda arc : arc . cost )
for arc in sorted _arcs :
if ds . find _set ( node . start ) != ds . find _set ( node . end ) :
arcs . append ( arc )
ds . union ( node . start , node . end )
return arcs
\ ` \` \`
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Algoritmo di Prim
L ' _Algoritmo di Prim _ è un altro algoritmo * * greedy * * che * * trova il minimum spanning tree * * di un grafo .
# # Funzionamento
Creo una * * coda con priorità * * in cui inserisco tutti gli archi visibili dal mio albero , in cui la chiave è il * * costo dell ' arco * * .
Per trovare l 'arco con costo più piccolo posso **estrarre un arco** dalla coda: la priorità ci garantisce che esso è l' * * arco meno costoso * * .
Aggiungo allora un nuovo nodo all ' albero , e con esso , * * aggiungo alla coda * * tutti gli * * archi che scoprono un nuovo nodo * * .
# # Costo computazionale
| Categoria | Upper bound |
| -- -- -- -- -- - | -- -- -- -- -- -- - |
| Tempo | \ ` O(archi + nodi log nodi) \` |
# # Pseudocodice
\ ` \` \` python
import math
def minimum _spanning _tree _prim ( graph , cost _array , start _node ) :
# E ' un Array di bool: se l' indice corrispondente al nodo è uguale a true , vuol dire che il ( nodo è contenuto nell ' albero .
contains = [ False for _ in range ( len ( graph ) ) ]
# Contiene il precedente di ogni nodo
prev = [ None for _ in range ( len ( graph ) ) ]
# Contiene il costo per arrivare a quel nodo
cost = [ math . inf for _ in range ( len ( graph ) ) ]
# Creo la priority queue
pq = PriorityQueue ( graph . arcs , key = lambda arc : arc . cost )
# Parto dal nodo \ ` start_index \`
# Il costo dell ' origine è 0.
cost [ start _node . index ] = 0
contains [ start _node . index ] = True
while not pq . is _empty ( ) :
new _node = pq . pop ( )
contains [ new _node . index ] = True
for arc in new _node . connections :
other _node = arc . other ( new _node )
if not contains [ other _node . index ] and cost [ other _node . index ] > arc . cost :
cost [ other _node . index ] = arc . cost
prev [ other _node . index ] = new _node
pq . decrease _priority _for ( other _node , arc . cost )
# L ' array di prev rappresenta un albero .
return prev
\ ` \` \` _
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Compressione
_Comprimere _ un file significa * * ridurne le dimensioni * * senza modificarne il significato .
# # Categorie
# # # Compressione lossless
Nella _compressione lossless _ , i dati possono essere decompressi riottenendo una copia identica dell ' originale .
> Immaginiamo un file che contiene solo le lettere \ ` a, b, c, d, e, f \` .
>
> Le lettere compaiono con questa frequenza :
> | a | b | c | d | e | f |
> | 45 % | 13 % | 12 % | 16 % | 9 % | 5 % |
>
> Possiamo codificare le lettere nel seguente modo :
> | a | b | c | d | e | f |
> | \ ` 0b0 \` | \` 0b100 \` | \` 0b101 \` | \` 0b111 \` | \` 0b1100 \` | \` 0b1101 \` |
>
> Scrivere \ ` abacadae \` richiederebbe 64 bits con la codifica ASCII estesa, ma in questo modo riusciamo a scriverlo con soli 17 bits!
Le codifiche di un file compresso devono rispettare la proprietà del _Codice a prefisso _ , che dice che * * nessun codice deve essere il prefisso di un altro codice * * ; altrimenti , si avrebbero ambiguità nella decodifica .
> a = \ ` 1 \`
> b = \ ` 11 \`
>
> \ ` 111 \` è \` ab \` , \` ba \` oppure \` aaa \` ?
Creiamo allora un _albero di decodifica _ : un * * albero binario * * che , leggendo uno ad uno i bit codificati , ci permette di arrivare al * * valore del codice presente sulle foglie * * dell ' albero .
Gli alberi di decodifica sono sempre * * completi * * .
> Un albero di decodifica incompleto sarebbe non ottimizzato !
# # # # Esempi
- . png
- . flac
- . zip
- ...
# # # Compressione lossy
Nella _compressione lossy _ , alcuni dati [ solitamente ] ( http : //needsmorejpeg.com/) irrilevanti vengono perduti: non si può, dunque, ricostruire l'originale.
# # # # Esempi
- . jpeg
- . mp3
- ...
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Algoritmo di Huffman
L ' _Algoritmo di Huffman _ è un * * algoritmo greedy * * per la * * costruzione di un albero di decodifica * * .
# # Funzionamento
1. Costruisco * * un albero * * ( con un solo nodo ) * * per ogni elemento dell ' alfabeto * * .
2. Associo ad * * ogni albero la frequenza dell ' elemento * * da cui è stato creato , per poi inserire tutti gli elementi in una coda con priorità .
3. Finchè non ho * * un albero solo * * :
1. Estraggo dalla coda i * * due alberi con frequenza minore * * .
2. * * Li rendo fratelli * * , creando un nuovo nodo in cui sono uno figlio destro e uno figlio sinistro .
3. Associo al nuovo nodo la * * somma delle frequenze dei due alberi * * , e inserisco il nuovo albero nella coda .
> È molto raro che venga un albero "dritto" ; se succede , probabilmente c ' è qualcosa che non va .
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Dizionario
Un _dizionario _ è una struttura dati che * * associa dei valori a delle chiavi * * .
# # Proprietà
- Ogni elemento del dizionario è un * * valore * * che è stato * * associato a una chiave * * .
- Possiamo aggiungere nuovi elementi con il * * metodo \ ` add(chiave, valore) \` **.
- Posiamo estrarre elementi con il * * metodo \ ` get(chiave) \` **, che restituirà il valore associato a \` chiave \` .
- E ' possibile rimuovere elementi con il * * metodo \ ` delete(chiave) \` **.
- Due elementi con * * chiavi diverse * * non devono * * mai restituire lo stesso valore * * .
# # Metodi
Beh ... Non ha molto senso in questo caso ...
\ ` \` \` python
dict ( )
\ ` \` \`
# # Implementazione con tabella hash
Una _tabella hash _ è un 'array di coppie **chiave-valore**, che formano l' insieme _universo _ .
Per determinare l '**indice dell' array * * in cui inserire una coppia , usiamo una [ funzione _hash _ ] ( https : //it.wikipedia.org/wiki/Hash#Algoritmo_di_hash) sulla chiave, che restituirà **numeri da \`0\` a \`len(hash_table)\`**.
# # # Risoluzione collisioni
Potrebbe capitare però che * * due chiavi diverse abbiano lo stesso indice * * . Dobbiamo allora usare un metodo di _risoluzione collisioni _ , che mi permetta di distinguere tra chiavi diverse .
# # # # Lista di trabocco
Possiamo salvare nell ' array * * liste di coppie * * chiave - valore ; in caso di collisione , * * aggiungo un nuovo elemento alla lista * * .
In media , ciascuna di queste liste conterrà \ ` elementi_inseriti / dimensione_tabella \` elementi.
# # # # Indirizzamento aperto
Possiamo decidere di mettere le coppie che non trovano posto nel loro indice in * * un altro indirizzo vuoto * * dell ' array .
Ci sono diversi modi in cui decidere il nuovo indirizzo , ognuno con vantaggi e svantaggi : si può scegliere quello successivo , oppure il primo vuoto dell ' array , oppure un indirizzo casuale .
> Python , nei \ ` dict \` , usa indirizzamento aperto pseudorandom.
# # # Costo computazionale
- Aggiungere una chiave : \ ` O(n) \`
- Trovare una chiave : \ ` O(n) \`
- Eliminare una chiave : \ ` O(n) \`
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Programmazione dinamica
La _programmazione dinamica _ è una * * tecnica * * di programmazione che prevede l ' * * estensione di una soluzione ottima precedente * * .
Tutti i problemi in cui si può applicare si possono risolvere anche con la * * ricorsione * * , ma a differenza della ricorsione , questa tecnica riesce ad evitare di ricalcolare la soluzione per ogni chiamata ricorsiva , ottenendo quindi tempi molto migliori .
Si può applicare solo se un problema ha una * * sottostruttura ottimale * * , ovvero se la soluzione ottima di un sottoproblema è inclusa nella soluzione ottima del problema .
# # Esempi
- _Problema dello zaino _
- ...
> Il cammino minimo per raggiungere un nodo in un DAG è dato da \ ` arco.costo + arco.primo_nodo.costo_cammino_minimo() \` .
>
> \ ` \` \` python
> def SPD _PD ( graph , start ) :
> distance = [ float ( inf ) for node in graph . nodes ] :
> distance [ start ] = 0
> # I nodi devono essere in ordine di linearizzazione
> for node in graph . nodes :
> distance [ node ] = min ( [ ( arc . cost + distance [ arc . other ( node ) ] for arc in node . connections ] )
> \ ` \` \`
> Ho una sequenza di interi da \ ` a_1 \` a \` a_n \` . Voglio trovare la sottosequenza crescente più lunga.
>
> 5 2 3 4 7 3 6 3 1 6
>
> Trovo tutte le sequenze lunghe 1 , e le rendo nodi di un grafo diretto .
>
> Da ogni nodo , creo una connessione verso i suoi maggiori .
>
> Infine , cerco i cammini massimi del grafo .
>
> Essi saranno la soluzione del problema .
> Trova la lunghezza della sottosequenza più lunga che termina con \ ` j \` .
>
> \ ` L[j] \` = lunghezza della sottosequenza più lunga che termina in \` j \`
>
> \ ` \` \` python
> L [ j ] = max ( [ 1 + L [ node ] for arc in node . connections ) ]
> \ ` \` \`
>
> Esempio :
> \ ` \` \` python
> L [ 9 ] = max ( [ 1 + L [ 8 ] , 1 + L [ 3 ] , 1 + L [ 6 ] ] )
> \ ` \` \`
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Problema dello zaino
Il problema dello zaino è un problema _pseudo - trattabile _ : non abbiamo dimostrazioni di se sia trattabile o intrattabile .
# # Descrizione
> Sei un ladro , e devi mettere * * più refurtiva possibile * * nello zaino per scappare .
> Lo zaino può portare * * al massimo \ ` dim \` kili**.
>
> * * Quali * * ( e quanti ) oggetti scegli ?
| Input | Output |
| -- -- -- - | -- -- -- -- |
| \ ` dim \` ensione_zaino, \` n \` umero_oggetti, \` oggetto.peso \` , \` oggetto.valore \` | \` profitto_massimo \` |
# # Categorie
# # # Problema con ripetizione
Puoi prendere * * tutte le copie che vuoi * * di un oggetto .
# # # # Soluzione
\ ` K(dim) \` è il valore massimo ottenibile con uno zaino di capacità \` dim \` .
> Se \ ` i \` appartenesse alla soluzione ottima, allora \` K(dim) = i.valore + K(dim - i.peso) \` ...
Possiamo dire che \ ` K(dim) = max(i.valore + K(dim - i.peso)) \` .
Inoltre , \ ` K(0) = 0 \` .
Ci salviamo tutte le soluzioni da \ ` K(0) \` a \` K(dim) \` , e le usiamo per calcolare il massimo in seguito.
Calcolare \ ` K(dim) \` avrà allora un costo di \` O(n * dim) \` :
- \ ` n \` , perchè trovare il massimo è un'operazione lineare
- \ ` dim \` , perchè \` dim \` sono tutti i casi tra i quali devo andare a provare
Il costo computazionale , allora , è in \ ` O(n * dim) \` .
Però , il * * tempo richiesto * * dal nostro algoritmo dipende non dalla lunghezza dell 'input, bensì dal **valore numerico** di \`dim\`, che corrisponde alla dimensione dell' array delle soluzioni .
Allora , si dice che l ' algoritmo è in * * tempo _pseudo - polinomiale _ * * .
# # # Problema senza ripetizione
Si può prendere * * ogni oggetto una volta sola * * .
# # # # Soluzione _bruteforce _
Scelgo se prendere o no l ' item 1.
Si creano due percorsi :
- Non prendo l ' oggetto : \ ` valore = 0, peso = 0 \`
- Prendo l ' oggetto : \ ` valore = oggetto.valore, peso = oggetto.peso \`
Continuo a creare percorsi , creando una specie di albero binario .
Se a un certo punto vedo che \ ` valore = x, peso = K \` e \` valore < x, peso = K \` , allora posso escludere automaticamente tutto il sottoalbero destro, perchè non può essere migliore del sinistro: allora, sarò riuscito a ridurre il numero dei casi rispetto alla ricorsione.
# # # Problema in due variabili
\ ` K(j, w) \` = massimo valore ottenibile con uno zaino di capacità \` w \` scegliendo gli item da \` 1 \` a \` j \` .
Non possiamo più applicare la soluzione bruteforce , perchè abbiamo due variabili , \ ` j \` e \` w \` .
Allora , prendo l 'elemento \`j\`. Esso può essere o non essere nella soluzione: mi calcolo entrambe le alternative, e mi tengo l' alternativa dal valore più alto .
Se \ ` j \` non è nella soluzione, il risultato diventerà \` K(j-1, w) \` ; se invece è nella soluzione, il risultato sarà \` j.valore + K(j-1, w-j.peso) \` .
In pratica , prendiamo
\ ` \` \` latex
K ( j , w ) = max
\ \ begin { cases }
V _j + K ( j - 1 , w - w _j )
K ( j - 1 , w )
\ \ end { cases }
\ ` \` \`
Costruisco allora una matrice con \ ` j \` su un asse e \` w \` sull'altro.
Riempio le caselle con il valore di \ ` K(j, w) \` .
Nella casella con \ ` K(j, w) \` avremo la soluzione ottima.
Il tempo necessario per riempire tutte le caselle è nuovamente \ ` O(n * w) \` , ancora **pseudopolinomiale**.
Per sapere che oggetti ho messo o no devo tenere traccia in qualche modo della catena del calcolo , usando , ad esempio , una pila .
` }</Markdown>
< / P a n e l >
< Panel >
< Markdown > { `
# Problemi intrattabili
# # Problema di Set - Cover
# # # Input
\ ` U \` niverso di \` e \` lementi
\ ` S \` ottoinsieme di \` s \` ottoinsiemi di elementi di \` U \`
# # # Output
Il minimo \ ` S' \` ottoinsieme di \` s \` ottoinsiemi che copra completamente \` U \` .
# # # Soluzione in \ ` O(n^d) \`
Non c ' è .
# # # Non - soluzione alternativa
Faccio una scelta greedy , ma non posso dimostrare in alcun modo che la soluzione ottenuta sia quella ottima .
Infatti , l ' algoritmo non dà sempre la soluzione ottima , ma dà una soluzione accettabile in tempo polinomiale .
Seleziono sempre il sottoinsieme che copre più elementi mancanti possibili .
# # # # Costo computazionale
\ ` Costo greedy <= log(numero_elementi) * Costo ottimo \`
` }</Markdown>
< / P a n e l >
< / d i v >
) ;
}