mirror of
https://github.com/Steffo99/unisteffo.git
synced 2024-11-30 03:44:19 +00:00
79 lines
No EOL
127 KiB
JavaScript
Generated
79 lines
No EOL
127 KiB
JavaScript
Generated
(window.webpackJsonp=window.webpackJsonp||[]).push([[2],{w9qZ:function(n,e,i){"use strict";i.r(e),function(n){var o=i("mbOI");let a,r=n=>n;const t=String.raw;e.default=function(){return n("div",null,n(o.q,{title:"Disperazione di Steffo"},"aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa tutte le formule in latex si sono rotteeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeee"),n(o.q,null,n(o.o,null,t(a||(a=r`
|
|
# Algoritmi e Strutture Dati
|
|
|
|
Docente: [**Manuela Montangero**](mailto:manuela.montangero@unimore.it)
|
|
|
|
Crediti: **9 CFU** (72 ore di lezione)
|
|
|
|
Orario di ricevimento: **Giovedì dalle 14:30 alle 16:30**
|
|
_Mandare una mail prima, altrimenti potrebbe andarsene_
|
|
|
|
|
|
#### Regole particolari per le email
|
|
|
|
- Oggetto "ASD"
|
|
- Mail **firmata** con **nome e cognome**
|
|
- Mail spedita dall'**account Unimore**
|
|
|
|
### Materiale
|
|
|
|
Libri:
|
|
- **Introduzione agli Algoritmi e Strutture Dati** di _T.H. Cormen, C. E. Leiserson, R. L. Rivest, C. Stein_
|
|
|
|
**[Dolly (FIM)](https://dolly.fim.unimore.it/2018/course/view.php?id=26)**
|
|
|
|
### Tutorato
|
|
|
|
Tutor: [**Gianluca d'Addese**](mailto:tutoratoalgoritmi@gmail.com)
|
|
|
|
Cosa: **Esercizi sugli argomenti visti a lezione** e **preparatori all'esame**
|
|
|
|
Quando: **Mercoledì dalle 09:00 alle 11:00**...?
|
|
|
|
### Esame
|
|
|
|
Per iscriversi all'esame, bisogna aver passato:
|
|
|
|
- Analisi matematica (propedeutica)
|
|
- Programmazione I
|
|
|
|
Formato:
|
|
|
|
- Prima prova scritta
|
|
- Risolvere problemi con algoritmi proposti a lezione
|
|
- E' un test sulla preparazione
|
|
- Dura 1h30m
|
|
- Non si può usare nessun tipo di materiale
|
|
- Seconda prova scritta
|
|
- Proponi soluzioni per nuovi problemi non studiati a lezione
|
|
- Domande teoriche sugli argomenti studiati
|
|
- Dura 2h
|
|
- E' il giorno dopo la prima prova
|
|
- Si può utilizzare qualsiasi materiale, ma non deve permettere di comunicare
|
|
- Orale facoltativo
|
|
- Solo per chi supera entrambi gli scritti
|
|
- Domande su quello che abbiamo visto a lezione ("perchè gli algoritmi funzionano?")
|
|
- Informare via email entro 3 giorni dalla pubblicazione degli esiti della seconda prova
|
|
- L'orale potrebbe migliorare o peggiorare il voto (anche "molto")
|
|
|
|
**Attenzione:** Vengono verbalizzati anche i voti insufficienti; ricordarsi di rifiutarli!
|
|
|
|
Ci sono i seguenti appelli:
|
|
|
|
- 3 appelli tra Giugno e Luglio
|
|
- 1 appello a Settembre
|
|
- 2 appelli a Gennaio e Febbraio
|
|
|
|
Vale il salto di appello se:
|
|
|
|
- Uno studente regolarmente iscritto **non si presenta** all'appello e non ha avvisato via email almeno il giorno prima.
|
|
- Uno studente ha riportato una **grave insufficienza** in uno dei due scritti, e l'appello successivo è nella stessa sessione
|
|
|
|
|
|
### Note
|
|
|
|
Il corso è ben collegato con quello di Programmazione 2.
|
|
|
|
Dormire non fa bene!
|
|
`)))),n(o.q,null,n(o.o,null,"\n # Il nome del corso\n\n ## Cosa sono gli algoritmi?\n\n Gli algoritmi sono modi sistematici per risolvere problemi.\n\n Sono fondamentali per sviluppare software, in quanto i computer sono eccellenti esecutori di algoritmi.\n\n ## Come si sviluppa un algoritmo?\n\n Innanzitutto, bisogna conoscere gli _input_ e gli _output_ del problema, rispettivamente i dati di partenza e i dati di arrivo di esso; si ha quindi una fase di **ricerca**.\n\n Poi, si deve trovare un procedimento che ci faccia risolvere il nostro problema: è quello che faremo in questa materia!\n\n Infine, bisogna scrivere la soluzione in un modo che possa essere eseguita da un computer: questa è la **programmazione**.\n\n ## Che tipo di problemi possiamo risolvere?\n\n Un algoritmo risolve problemi di tipo generale, non ci interessa sapere _il risultato di 123+456_, ma vogliamo sapere _il risultato di x+y_, dove x e y sono due numeri naturali qualsiasi.\n\n Un problema può essere quindi considerato circa come una **funzione matematica**, che connette ogni input a un output corrispondente.\n\n ## Che caratteristiche ha un algoritmo?\n\n Per prima cosa, ripetendo l'algoritmo più volte con lo stesso ingresso deve dare sempre la stessa uscita come **risultato**, finendo in un **tempo finito**.\n\n Deve essere **ben ordinato**: cambiando l'ordine in cui vengono effettuate le operazioni, è probabile che anche il risultato cambi!\n\n Le sue istruzioni devono essere **non ambigue**, cioè che non possano essere interpretate in più modi, e **effettivamente realizzabili**, cioè realizzabili con l'esecutore che vogliamo usare per eseguire l'algoritmo.\n\n ## Esistono algoritmi equivalenti?\n\n **Sì!** Possono esserci due algoritmi che dati gli stessi input, hanno gli stessi output, e quindi risolvono lo stesso problema.\n\n In compenso, possono avere un numero di operazioni diverse, e quindi essere **uno più veloce** (da eseguire) dell'altro.\n\n ## Come si verifica la correttezza di un algoritmo?\n\n L'algoritmo deve essere **valido per tutti gli input**, anche se questi sono infiniti.\n\n Possiamo effettuare prove matematiche per verificarne la correttezza; il **principio di induzione** è dunque una dei teoremi fondamentali dell'algoritmica.\n\n Possiamo però verificare la _non correttezza_ di un algoritmo trovando un singolo controesempio.\n ")),n(o.q,null,n(o.o,null,"\n # Efficienza degli algoritmi\n \n Un buon algoritmo deve essere **efficiente**, ovvero deve usare il minimo delle risorse necessarie, come _usare il minimo di tempo possibile_.\n \n ## Come misuriamo il tempo necessario?\n \n Cerchiamo di astrarre il tempo dal particolare esecutore, e andiamo a contare il numero di operazioni elementari richieste per eseguire il nostro algoritmo nel caso peggiore.\n \n Un algoritmo efficiente, infatti, all'aumentare dei dati in ingresso, diventerà sempre più veloce rispetto a uno non efficiente, anche su computer più lenti!\n \n > Il [Bubble Sort](https://en.wikipedia.org/wiki/Bubble_sort) è sempre più lento di un [Tree Sort](https://en.wikipedia.org/wiki/Tree_sort), anche su computer più lenti, perchè, dovendo ordinare liste sempre più lunghe, prima o poi si raggiunge un punto in cui il primo è più veloce (in termini di tempo) dell'altro.\n \n Dobbiamo andare a vedere, quindi, _il numero di operazioni richieste per ottenere il risultato nel caso peggiore_.\n \n Consideriamo operazioni sia operazioni aritmetiche sia operazioni logiche, e diciamo che ciascuna costa 1.\n \n > L'[algoritmo di Euclide](https://it.wikipedia.org/wiki/Algoritmo_di_Euclide) per l'MCD costa `3` per ogni iterazione (un giro del ciclo `while`). Diciamo, allora, che costa `3n`, dove `n` è il numero più alto dei due, perchè nel caso peggiore (uno dei due numeri è 1) l'algoritmo compie `n` iterazioni.\n \n ## Altri parametri ottimizzabili\n \n È possibile che alcuni algoritmi per vari motivi cerchino di ottimizzare altri parametri diversi dal tempo, come ad esempio _la dimensione dell'input_ o la _memoria utilizzata_. \n \n > Generalmente, questo viene fatto sui dispositivi embedded, con memoria molto limitata.\n \n ### Criteri di costo di memoria\n \n Ci sono vari criteri con cui stimare la memoria richiesta da un dato: è possibile che il costo risultante vari in base al criterio scelto!\n \n #### Criterio di costo logaritmico\n \n Un dato costa il numero di bit necessari per rappresentarlo.\n \n > Un int che contiene il numero `n` costa `log_2(n)`. \n > Un array di `[n]` numeri tutti uguali costa `n log_2(n)`.\n \n #### Criterio di costo uniforme\n \n Un dato costa il numero di elementi che lo costituiscono.\n \n > Un int che contiene il numero `n` costa `1`. \n > Un array di `[n]` numeri costa `n`. \n > Una matrice `[m][n]` costa `m*n`.\n ")),n(o.q,null,n(o.o,null,"\n # Modelli algoritmici\n\n Per progettare un algoritmo, abbiamo bisogno di sapere le proprietà del nostro esecutore, ovvero il suo _modello algoritmico_.\n \n > Ad esempio, dobbiamo sapere quali istruzioni è in grado di eseguire, e quanto tempo queste istruzioni richiedono.\n \n ## Il modello RAM\n \n Il modello in uso su tutti i computer attuali è il _modello RAM_: \n \n - In ogni cella di memoria può essere archiviato un dato.\n - Il **tempo di accesso** alle celle è **costante** per tutte le celle.\n - La **memoria** principale è **infinita**.\n - Si ha **un solo processore**.\n ")),n(o.q,null,n(o.o,null,'\n # Notazione asintotica\n \n La _notazione asintotica_ è un sistema per **stimare** velocemente il costo di un algoritmo complesso.\n \n Ci permette di **confrontare velocemente il caso peggiore** degli algoritmi.\n \n In particolare, consideriamo il _rapporto tra il numero di operazioni nel caso peggiore e la dimensione dell\'input_.\n \n ## Limiti\n \n Possiamo dare a questa stima dei limiti, superiore e inferiore, che rappresenteranno rispettivamente un costo che non sarà **mai superato** e un costo che verrà **sempre superato**.\n \n Chiameremo questi limiti _upper bound_ e _lower bound_; la loro combinazione darà un _tight bound_.\n \n L\'obiettivo sarà di _ricavare i bound più precisi possibile_ per un dato algoritmo, ovvero l\'**upper bound più basso** e il **lower bound più alto**.\n \n ### O grande\n \n > "O grande" \n > O di g(n)\n > "big-O"\n \n Per rappresentare la stima, useremo una notazione particolare, detta _O grande_, con la seguente proprietà:\n - Date due funzioni `f(n) : N -> R` e `g(n) : N -> R`, diremo che `f(n) ∈ O(g(n))` se e soltanto se `∃ c > 0, n ≥ n_0` tali che `∀ n ≥ 0, f(n) ≤ c * g(n)`\n \n Quando una funzione è O grande di un altra, significa che **asintoticamente, la funzione in O grande è sempre maggiore di quella che sta venendo stimata**.\n \n > **Ipotesi** \n > - `f(n) = 2n² + 3n + 6` \n > - `g(n) = n²`\n >\n > **Tesi** \n > - `f(n) ∈ O(n²)`.\n >\n > **Svolgimento** \n > Scrivo una disequazione, lasciando intatto il termine noto: \n > 1. `2n² + 3n + 6 ≤ 2n² + 3n² + 6` \n > 2. `n² ≤ 2n² + 3n² + n² = 6n²` per `n ≥ 3`\n >\n > Sappiamo, allora, che `2n² + 3n + 6 ≤ 6n²`.\n \n #### Espressioni di O grande\n \n Questa tabella rappresenta le espressioni di O grande più comunemente utilizzate, in ordine **dalla più forte alla più debole**.\n \n > Più forte significa che, per ogni riga della tabella, tutte le righe sottostanti sono contenute nell\'espressione.\n >\n > Ad esempio, `O(n) ∈ O(1)`.\n \n | Espressione O() | Nome |\n |-----------------|------|\n | `O(1)` | Costante |\n | `O(log log n)` | loglog |\n | `O(log n)` | Logaritmica |\n | `Ω(n^{1/c})` (per c ≥ 1) | Sublineare |\n | `O(n)` | Lineare |\n | `O(n log n)` | nlogn |\n | `O(n²)` | Quadratica |\n | `O(n³)` | Cubica |\n | `O(n^k)` (per k ≥ 1) | Polinomiale |\n | `O(a^n)` (per a ≥ 1) | Esponenziale |\n | `O(n!)` | Fattoriale |\n \n #### Polinomiale\n \n Molto spesso, noteremo che il tempo richiesto da una funzione è O grande di un polinomio di grado K, ovvero `f(n) ∈ O(n^k)`.\n \n Notiamo che in questi casi, possiamo semplificare l\'O grande al grado massimo del polinomio.\n \n > Ad esempio, `O(n² + n + 1) = O(n²)`.\n \n ##### Dimostrazione\n \n Per `n > 0 \\and 0 ≤ i ≤ k`: \n ![LaTeX](https://latex.codecogs.com/png.latex?a_k%20n^k%20+%20a_{k-1}%20n^{k-1}%20+%20%E2%80%A6%20+%20a_1%20n%20+%20a_0%20%E2%89%A4%20|a_k|%20n^k%20+%20|a_{k-1}|%20n^k%20+%20%E2%80%A6%20+%20|a_1|%20n^k%20+%20|a_0|%20n^k%20=%20(|a_k|%20+%20|a_{k-1}|%20+%20%E2%80%A6%20+%20|a_1|%20+%20|a_0|)%20n^k)\n \n #### Proprietà di O grande\n \n 1. `f(n) ∈ O(g(n)) -> ∀ a > 0, a * f(n) ∈ O(g(n))`.\n 2. `f(n) ∈ O(g(n)), d(n) ∈ O(h(n)) -> f(n) + d(n) ∈ O(g(n) + h(n)) -> O(max\\{g(n), h(n)\\})`\n 3. `f(n) ∈ O(g(n)), d(n) ∈ O(h(n)) -> f(n) * d(n) ∈ O(g(n) * h(n))`\n \n In pratica, se una funzione è la _somma di più termini_, basta guardare l\'**`O()` più grande** tra tutti i suoi termini; se invece una funzione è un _prodotto di più termini_, si possono **omettere le costanti**, e l\'`O()` finale sarà dato dal **prodotto degli `O()`** dei termini.\n \n ## Lower bound\n \n Possiamo anche stimare il _lower bound_, il limite inferiore: il **numero minimo di operazioni** che viene effettuato **nel caso migliore** con la **massima dimensione dell\'ingresso**.\n \n ### Ω()\n \n > "Omega" \n > Omega di g(n)\n > "big-Omega"\n \n Esiste un equivalente di O grande per il lower bound: è detto _Omega grande_, o più semplicemente _Omega_, e funziona nello stesso identico modo, solo... al contrario.\n \n Diremo che `f(n) ∈ Ω(g(n))` se e solo se `∃ c > 0, n_0 ≥ 0 : ∀ n ≥ n_0 f(n) ≥ c * g(n)`.\n \n #### Espressioni di Ω()\n \n Anche in questa tabella le espressioni sono **dalla più forte alla più debole**.\n \n | Espressione Ω() | Nome |\n |-----------------|------|\n | `Ω(n!)` | Fattoriale |\n | `Ω(a^n)` (per a ≥ 1) | Esponenziale |\n | `Ω(n^k)` (per k ≥ 1) | Polinomiale |\n | `Ω(n³)` | Cubica |\n | `Ω(n²)` | Quadratica |\n | `Ω(n log n)` | nlogn |\n | `Ω(n)` | Lineare |\n | `Ω(n^{1/c})` (per c ≥ 1) | Sublineare |\n | `Ω(log n)` | Logaritmica |\n | `Ω(log log n)` | loglog |\n | `Ω(1)` | Costante |\n \n ## Tight bound\n \n Quando **upper e lower bound coincidono**, allora otteniamo un _tight bound_.\n \n ### θ()\n \n > "Theta" \n > Theta di g(n)\n > "big-Theta"\n \n Anche per il tight bound abbiamo una notazione equivalente a O grande e Omega grande: _Theta grande_!\n \n Diciamo che `f(n) ∈ θ(g(n))` se e solo se `∃ c_1, c_2 > 0, n_0 ≥ 0 : ∀ n ≥ n_0, c_1 * g(n) ≤ f(n) ≤ c_2 * g(n)`.\n \n Ha la particolarità che non valgono tutte le proprietà degli altri due: va usata quindi con cautela!\n \n ## Risorse utili\n \n [khanacademy.org](https://www.khanacademy.org/computing/computer-science/algorithms/asymptotic-notation/a/big-big-theta-notation)\n ')),n(o.q,null,n(o.o,null,"\n # Problemi algoritmici\n \n Un _problema algoritmico_ è un problema matematico che si vuole provare a risolvere con un algoritmo.\n \n > Dati 10 numeri, voglio sapere se sono in ordine crescente oppure no.\n \n ## Caterigorizzazione\n \n I problemi algoritmici si dividono in tre categorie: problemi _trattabili_, problemi _intrattabili_ e problemi _irrisolvibili_.\n \n ### Problema trattabile\n \n Perchè un problema algoritmico sia _trattabile_, deve avere **almeno un algoritmo con upper bound polinomiale**.\n \n > Questo significa che il tempo impiegato da un computer per risolvere il problema rimane ragionevole, e che quindi può essere utilizzato in maniera efficiente.\n \n La trattabilità è un campo ancora parecchio aperto: esistono anche tanti problemi di cui non si è ancora dimostrata la trattabilità o intrattabilità.\n \n > La [fattorizzazione](https://it.wikipedia.org/wiki/Fattorizzazione) è uno di questi problemi: l'assenza di una dimostrazione è ciò che la rende uno dei pilastri della sicurezza informatica moderna.\n \n ### Problema intrattabile\n \n Se **un problema non ha nessun algoritmo con upper bound polinomiale**, allora si dice che è **intrattabile**.\n \n ### Problema irrisolvibile\n \n Se **non esistono algoritmi per risolvere un problema**, allora questo si dice **irrisolvibile**.\n \n > [Dato un algoritmo con certi input, riusciamo a capire con un algoritmo se la sua esecuzione termina o no?](https://en.wikipedia.org/wiki/Halting_problem)\n \n ### Upper e lower bound di problemi\n \n Si può anche trovare un _upper bound_ e un _lower bound_ per un problema, ma bisogna generalizzare di più.\n \n L'**upper bound di un problema** è il minimo upper bound di tutti gli algoritmi che lo risolvono; deve esistere almeno un algoritmo che lo risolva che abbia lo stesso _upper bound_. E' praticamente il tempo migliore per risolvere il problema dato.\n \n Il **lower bound di un problema** è il minimo lower bound di tutti gli algoritmi che lo risolvono; non deve esistere nemmeno un algoritmo che abbia un lower bound migliore. E' il numero assolutamente minimo di operazioni richieste, non si può fare meglio di così.\n \n In particolare, abbiamo che l'_upper bound di un algoritmo_ -> l'_upper bound del suo problema_, \n e il _lower bound di un problema_ -> il _lower bound di un suo algoritmo_.\n \n Generalmente, il _lower bound di un problema_ è una rappresentazione abbastanza accurata della sua difficoltà.\n ")),n(o.q,null,n(o.o,null,"\n # Ricerca binaria\n \n Non credo di aver bisogno di studiare la ricerca binaria, quindi non ho preso appunti a riguardo.\n \n Se non siete me, e state cercando informazioni a riguardo, andate a vedere su Wikipedia!\n ")),n(o.q,null,n(o.o,null,"\n # Divide et impera\n \n Un modo efficace per risolvere un problema è di usare il metodo _divide et impera (et combina)_.\n \n - _Divide_: Divido il problema in **tanti sottoproblemi**.\n - _Impera_: **Risolvo indipendentemente dal resto** ciascuno dei sottoproblemi.\n - _Combina_: **Combino** i risultati dei sottoproblemi per **risolvere il problema principale**.\n \n ## Ricorsione\n \n Un algoritmo (o funzione) si dice _ricorsivo_ quando durante l'esecuzione **richiama sè stesso**.\n \n Dato che tutti gli algoritmi devono avere termine entro un tempo finito, se scriviamo una funzione ricorsiva è fondamentale finire con un **caso base**, che non chiami ulteriormente la ricorsione.\n \n Se esiste una funzione ricorsiva, allora esiste _sempre_ una _funzione iterativa_ che darà lo stesso risultato.\n \n > Sul pratico, una funzione ricorsiva tipicamente è **più costosa** del suo equivalente iterativo: se possibile, quindi, la ricorsione andrebbe evitata.\n \n #### Pseudocodice di esempio\n \n ```python\n def fattoriale(n):\n # Caso base; la ricorsione finisce e dà un risultato fisso\n if n <= 1:\n return 1\n # Caso ricorsivo; la funzione restituisce il risultato di sè stessa (ma con parametri diversi)\n else:\n return n * fattoriale(n - 1)\n ```\n ")),n(o.q,null,n(o.o,null,"\n # Master Theorem\n \n Il _Master Theorem_ è uno dei teoremi più importanti dell'algoritmica.\n \n Esso permette di **calcolare l'upper bound di un algoritmo ricorsivo** in modo piuttosto semplice.\n \n ## Ipotesi\n \n Dato un algoritmo:\n - Con uno o più casi base\n - Che richiama la funzione ricorsiva un numero n di volte\n \n ## Tesi\n \n Allora, il suo upper bound avrà la formula:\n \n ![](https://quicklatex.com/cache3/89/ql_08d29a7e55d561a900570bc83b93ff89_l3.png)\n ")),n(o.q,null,n(o.o,null,"\n # Caso particolare del Master Theorem\n \n ## Ipotesi\n \n Se: \n ![](https://quicklatex.com/cache3/57/ql_e34dc27b42831d3c3ff671b0f3861257_l3.png)\n \n Ovvero, se la dimensione dell'input viene divisa ad ogni ciclo da una costante b, è polinomiale e il caso base è costante...\n \n ## Tesi\n \n Allora: \n ![](https://quicklatex.com/cache3/ca/ql_26e3557a6ca2d6ac4b8481e7c5263fca_l3.png)\n \n > In pratica, se il costo dominante è quello della parte \"fissa\" dell'algoritmo, esso sarà `O(n^d)`, mentre se il costo dominante è quello delle chiamate ricorsive, esso sarà `O(n^{log_b e})`. \n > Se nessuno dei due è dominante... si dividono circa in parti uguali, creando un costo di `O(n^d log n)`.\n ")),n(o.q,null,n(o.o,null,"\n # Ordinamento\n \n Un problema molto frequente nell'informatica consiste nell'**ordinare efficientemente grandi quantità di elementi**.\n \n Esistono [tantissimi](https://it.wikipedia.org/wiki/Algoritmo_di_ordinamento) algoritmi per effettuare l'ordinamento. \n L'**efficienza** di ciascuno **varia** di caso in caso: alcuni sono estremamente efficienti se quasi tutti i numeri sono già nell'ordine giusto; altri, invece, potrebbero impiegare tantissimo tempo.\n \n In termini matematici, abbiamo:\n \n - **Input:** A[n]\n - **Output:** B, ∀ i < n, A[i] ≤ A[i+1]\n \n ## Ordinamento tramite confronto\n \n L'ordinamento \"tradizionale\" è detto _ordinamento tramite confronto_: funziona sempre, e **non ha altri modi di ottenere informazioni** se non con l'operazione logica di confronto tra i dati.\n \n ### Limiti\n \n E' un problema risolto: è dimostrabile che il suo **lower bound** è **`Ω(n log n)`**; possiamo quindi dire che qualsiasi algoritmo di ordinamento è in `Ω(n log n)`, e se riusciamo a trovare un algoritmo di ordinamento in `O(n log n)` siamo riusciti a raggiungere il massimo dell'efficienza.\n \n #### Dimostrazione\n \n Consideriamo **tutte le possibili permutazioni** della sequenza da ordinare: sono `n!`.\n \n Per ogni confronto che effettuiamo, **riduciamo la quantità di permutazioni** correttamente ordinate; prima o poi, rimarrà **una sola possibilità**.\n \n **TODO, non trovo la spiegazione corretta!**\n \n ### Esempi\n \n Algoritmi che effettuano l'ordinamento tramite confronto sono:\n - _Bubble sort_\n - _Merge sort_\n - _Insertion sort_\n - _Quick sort_\n - _Heap sort_\n - E tanti, tanti altri!\n \n ## Ordinamento con altri mezzi\n \n Esistono algoritmi che ricavano informazioni in altri modi, diversi dal confronto.\n \n Essi possono avere un lower bound più basso di `O(n log n)`, però hanno spesso limitazioni sul loro utilizzo.\n \n ### Esempi\n \n - _Counting sort_, indicizza i valori da ordinare\n - _Radix sort_, guarda singolarmente le cifre dei valori\n - _Sleep sort_, sfrutta i thread e la funzione sleep per ordinare valori\n - E altri ancora!\n ")),n(o.q,null,n(o.o,null,"\n # Insertion sort\n \n L'_insertion sort_ è una soluzione **iterativa** all'ordinamento per confronto.\n \n ## Funzionamento\n \n Considero la sequenza divisa in **due parti**: una parte **ordinata** e una parte **non ordinata**.\n \n Parto dal primo elemento della lista: è sempre ordinato con sè stesso. \n Poi, aggiungo uno alla volta i numeri della parte non ordinata a quella ordinata; prima trovo in quale posizione dovrò andare a mettere il numero, poi **faccio slittare tutti i numeri dopo quella posizione** avanti di 1, in modo da **creare lo spazio** in cui infine **inserirò** il numero.\n \n ## Costo computazionale\n \n | Categoria | Upper bound | Lower bound | Tight bound |\n |-----------|-------------|-------------|-------------|\n | Tempo | `O(n²)` | `Ω(n)` | - |\n \n Nel _caso migliore_ (**lista già ordinata**), il numero da inserire è già nella posizione giusta, quindi non devo effettuare altri confronti oltre il primo, rendendo il lower bound dell'algoritmo `Ω(n)`.\n \n Nel _caso peggiore_ (**lista nell'ordine inverso**), dobbiamo confrontare il numero da inserire con tutti gli altri nella parte ordinata: dobbiamo allora eseguire `1+2+3+4+5+… = \\frac{(n-1)(n)}{2}` confronti; ciò significa che l'upper bound è `O(n²)`!\n \n ## Pseudocodice\n \n ```python\n def insertion_sorted(lista):\n # Itero su tutti i numeri della lista, dal primo all'ultimo.\n for divisore_ord in range(len(lista)):\n # Partendo dalla posizione attuale, creo l'indice di divisione numeri ordinati maggiori e minori\n divisore_magg = divisore_ord\n # Faccio slittare avanti i numeri maggiori di quello che stiamo inserendo\n # Se l'indice divisore_magg raggiunge 0, vuol dire che tutti i numeri della lista sono maggiori del numero attuale \n while divisore_magg >= 0 and lista[divisore_magg-1] > lista[divisore_magg]:\n # Scambio la posizione dei due elementi con gli indici specificati\n # Funzione inventata \n lista[divisore_magg], lista[divisore_magg-1] = lista[divisore_magg-1], lista[divisore_magg]\n # Diminuisco il separatore di 1\n divisore_magg -= 1\n ```\n \n ## Visualizzazione\n \n [visualgo.net](https://visualgo.net/bn/sorting)\n ")),n(o.q,null,n(o.o,null,"\n # Merge sort\n \n Il _merge sort_ è una soluzione **ricorsiva** all'ordinamento per confronto.\n \n ## Funzionamento\n \n Per questo algoritmo, utilizziamo la tecnica del **divide et impera**.\n \n 1. _Divide_: Divido A in **due parti**.\n 2. _Impera_: Metto **separatamente in ordine** le parti.\n 3. _Unisci_: **Unisco** le due parti.\n \n Consideriamo come **caso base** della ricorsione una parte composta da un numero, che ovviamente è già ordinata con sè stessa.\n \n ### Merge\n \n Per **unire le due parti** usiamo una funzione detta `merge()`.\n \n Costruiamo una nuova sequenza uguale alla sequenza 1, ma **aggiungiamo alla fine un valore sentinella** sempre maggiore di tutti gli elementi contenuti.\n \n > ```\n > | 1 | 3 | 7 | 8 | ∞ |\n > ```\n \n Facciamo **la stessa cosa** per la sequenza due.\n \n > ```\n > | 2 | 4 | 5 | 6 | ∞ |\n > ```\n \n Prendo i primi numeri delle due sequenze e **metto il più piccolo nella sequenza iniziale**.\n \n > ```\n > | 1 | 2 | 3 | | | | | | \n > | | | 7 | 8 | ∞ | \n > | | 4 | 5 | 6 | ∞ | \n > ```\n \n **Continuo** finchè non ho messo tutti i numeri; **grazie alla sentinella non usciremo mai dalla sequenza**, in quanto essa è sempre maggiore di tutti gli altri numeri.\n \n > ```\n > | 1 | 2 | 3 | 4 | 5 | 6 | | | \n > | | | 7 | 8 | ∞ | \n > | | | | | ∞ |\n > ```\n \n Quando **rimangono solo le sentinelle** significa che abbiamo aggiunto tutti gli elementi, e quindi abbiamo finito.\n \n > ```\n > | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | \n > | | | | | ∞ | \n > | | | | | ∞ | \n > ```\n \n \n ## Costo computazionale\n \n | Categoria | Upper bound | Lower bound | Tight bound |\n |-----------|-------------|-------------|-------------|\n | Tempo | `O(n log n)` | `Ω(n log n)` | **`θ(n log n)`** |\n \n Il merge sort è un algoritmo ricorsivo con un **caso base in tempo costante** e che **richiama sè stesso 2 volte**.\n \n ```latex\n T(n) =\\\\\n \\\\\n Θ(1) \\qquad n=1\\\\\n 2 T(\\frac{n}{2}) + Θ(n) \\qquad n \\neq 1\n ```\n \n Applicando il **caso particolare del Master Theorem**, otteniamo:\n \n ```latex\n T(n) =\\\\\n \\\\\n Θ(1) \\qquad n=1\\\\\n Θ(n log n) \\qquad n \\neq 1\n ```\n \n ## Pseudocodice\n \n ```python\n def merge_sorted(part):\n # Caso base\n if len(part) == 1:\n return part\n # Divide\n middle = len(part) // 2\n part_a = part[:middle]\n part_b = part[middle:]\n # Impera\n sort_a = merge_sorted(part_a)\n sort_b = merge_sorted(part_b)\n # Combina\n return merge(sort_a, sort_b)\n ```\n \n ## Visualizzazione\n \n [hackerearth.com](https://www.hackerearth.com/practice/algorithms/sorting/merge-sort/visualize/)\n \n [visualgo.net](https://visualgo.net/bn/sorting) (Nota: visualizza solo la fase _Unisci_ del sort)\n ")),n(o.q,null,n(o.o,null,"\n # Quick sort\n \n Il _quick sort_ è un altro approccio **ricorsivo** all'ordinamento per confronto.\n \n ## Funzionamento\n \n Anche qui, applichiamo il **divide et impera**.\n \n 1. _Divide_: Scelgo un **pivot** qualsiasi all'interno della lista. Metto alla sua **sinistra tutti i numeri minori** e alla sua **destra tutti i numeri maggiori**.\n 2. _Impera_: Eseguo un **quick sort su entrambe le sottoliste**.\n \n ### Esempi\n \n #### Iterazione con partizioni bilanciate\n \n Osserviamo come si formi una partizione con tre elementi e una con quattro. \n \n ```\n |¦ [2] 8 7 1 3 5 6 {4}\n 2 |¦ [8] 7 1 3 5 6 {4}\n 2 |8 ¦ [7] 1 3 5 6 {4}\n 2 |8 ¦ [7] 1 3 5 6 {4}\n 2 |8 7 ¦ [1] 3 5 6 {4}\n 2 1 |7 8 ¦ [3] 5 6 {4}\n 2 1 3 |8 7 ¦ [5] 6 {4}\n 2 1 3 |8 7 5 ¦ [6] {4}\n 2 1 3 |8 7 5 6 ¦ [{4}]\n [2 1 3] {4} [8 5 6 7]\n ```\n \n #### Iterazione con partizioni sbilanciate\n \n Osserviamo come si formi una partizione con **zero elementi** e una con tre.\n \n ```\n |¦ [4] 7 3 {1}\n |4 ¦ [7] 3 {1}\n |4 7 |¦ [3] {1}\n |4 7 3 |¦ [{1}]\n [] {1} [4 7 3]\n ```\n \n ## Costo computazionale\n \n | Categoria | Upper bound | Lower bound | Tight bound |\n |-----------|-------------|-------------|-------------|\n | Tempo | `O(n²)` | `Ω(n log n)` | - |\n \n Il costo della funzione è dato dalla somma del costo per **dividere in due partizioni** con il costo per realizzare il **Quick sort delle due sottopartizioni**\n \n Possiamo applicare allora il **Master Theorem generale**:\n \n ```latex\n T(n)\\\\\n =\\\\\n Θ(1) \\qquad per\\ n = 1\\\\\n T(q) + T(dim_lista - pivot - 1) + Θ(n) \\qquad per\\ n > 1\n ```\n \n ### Il caso migliore\n \n Se il pivot `q` è la **mediana della partizione** che stiamo ordinando, si vengono a creare due _sottopartizioni bilanciate_, e sostituendo otteniamo:\n \n ```latex\n T(n)\\\\\n =\\\\\n Θ(1) \\qquad per\\ n = 1\\\\\n 2 T(\\frac{n}{2}) + Θ(n) \\qquad per\\ n > 1\n ``` \n \n Possiamo allora applicare il **Master Theorem particolare**:\n \n ```latex\n T(n)\\\\\n =\\\\\n Θ(1) \\qquad per\\ n = 1\\\\\n Θ(n log n) \\qquad per\\ n > 1\n ```\n \n ### Il caso peggiore\n \n Se il pivot è uno degli **estremi dell'array**, si creano due _partizioni sbilanciate_: una delle due sottoliste è sempre vuota! \n Allora:\n \n ```latex\n T(n) = T(n-1) + Θ(n)\\\\\n = T(n-2) + Θ(n-1) + Θ(n)\\\\\n = T(n-3) + Θ(n-2) + Θ(n-1) + Θ(n)\\\\\n = …\n ∈ Θ(n^2)\n ```\n \n > \"Non date da mangiare sequenze ordinate al Quicksort, gli sono indigeste.\"\n \n ## Pseudocodice\n \n ```python\n def partition(partizione, inizio, fine):\n \"\"\"Dividi una partizione in due, usando l'ultimo elemento come pivot.\n \n Note utili:\n partizione[fine] è il pivot\n partizione[maggiori] è il primo numero dei maggiori\n partizione[non_iterati] è l'elemento su cui si sta iterando al momento\"\"\"\n # Crea il primo separatore (la | pipe nell'esempio)\n maggiori = inizio\n # Crea il secondo separatore (la ¦ broken pipe nell'esempio)\n non_iterati = inizio\n # Itera su ogni numero tra inizio e fine (escluso!)\n while non_iterati < fine:\n # Se l'elemento su cui stiamo iterando è minore del pivot\n if partizione[non_iterati] <= partizione[fine]:\n # Mettilo nell'insieme dei minori, scambiandolo con il primo numero dei maggiori e incrementando il primo separatore\n partizione[maggiori], partizione[non_iterati] = partizione[non_iterati], partizione[maggiori]\n maggiori += 1\n # Incrementa sempre il secondo separatore\n non_iterati += 1\n # Inserisci il pivot tra le due sottopartizioni create, \n partizione[fine], partizione[non_iterati] = partizione[non_iterati], partizione[fine]\n return maggiori\n ```\n \n ## Visualizzazione\n \n [visualgo.net](https://visualgo.net/bn/sorting) (Nota: invece che prendere l'ultimo numero come pivot prende il primo, cambiando leggermente l'algoritmo.)\n \n ## Note per l'esame\n \n > La domanda che fa sempre è **\"Qual è la sequenza di pivot utilizzata?\"**\n \n > Elementi da soli _non_ vengono presi come pivot!\n ")),n(o.q,null,n(o.o,null,'\n # Counting sort\n\n Il _counting sort_ è un approccio diverso all\'ordinamento: **non usa il confronto**!\n \n ## Requisiti\n \n Il counting sort può essere utilizzato solo su **sequenze di numeri interi**, e solo se **siamo a conoscenza del minimo e del massimo** dei numeri contenuti nell\'array, ed essi non sono troppo distanti uno dall\'altro. \n (La memoria occupata dal counting sort aumenta linearmente con la differenza tra minimo e massimo!)\n \n Per semplicità, consideriamo il **minimo `0`**. \n L\'input allora sarà una sequenza di interi `A`, e il valore del **massimo `k`**, tale che `∀ n ∈ A, 0 \\leq n \\leq K`.\n \n ## Funzionamento\n \n Il counting sort **conta le ripetizioni** delle chiavi nella sequenza originale e in seguito **sovrascrive i valori** della sequenza con i valori ordinati ripetuti il numero di volte che sono stati individuati nella sequenza.\n \n > ```\n > 1 4 5 3 4 1 4 2 5 1\n > ```\n >\n > L\'`1` appare 3 volte, il `2` 1 volta, il `3` 1 volta, il `4` tre volte e il `5` due volte.\n >\n > La sequenza viene quindi così sovrascritta:\n > ```\n > 1 1 1 3 4 1 4 2 5 1 # Sovrascriviamo la sequenza con 1 ripetuto 3 volte\n > 1 1 1 2 3 4 4 4 5 1 # Sovrascriviamo la sequenza con 2, 3, 4 ripetuti rispettivamente 1 1 e 3 volte\n > 1 1 1 2 3 4 4 4 5 5 # Sovrascriviamo la sequenza con 5 ripetuto 2 volte: abbiamo finito!\n > ``` \n \n Esiste anche una **versione stabile** del counting sort che, invece che sovrascrivere, **sposta i valori**, mantenendo le informazioni aggiuntive nel caso invece che interi fossero altri tipi di dati.\n \n ## Costo computazionale\n \n | Categoria | Upper bound | Lower bound | Tight bound |\n |-----------|-------------|-------------|-------------|\n | Tempo | `O(k + n)` | `Ω(k + n)` | **`θ(k + n)`** |\n \n L\'algoritmo è composto da quattro parti:\n - Ricerca del minimo e massimo (in `θ(n)`)\n - Inizializzazione dell\'indice (in `θ(k)`)\n - Conteggio dei numeri (in `θ(n)`)\n - Sovrascrittura dei numeri (in `θ(k + n)`)\n \n `2 + O(k) + O(n) + O(k + n) -> O(k + n)`\n \n Notiamo che `k` è costante, l\'algoritmo è `O(n)`, estremamente efficiente.\n \n ## Pseudocodice\n \n ```python\n def counting_sort(lista: typing.List[int]):\n """Ordina in-place una lista con il counting sort."""\n # Trovo la dimensione della lista\n dim = len(lista)\n # Trovo il massimo e il minimo all\'interno della lista\n minimo = min(lista)\n massimo = max(lista)\n # Creo l\'indice dei numeri, in modo che sia lungo k e pieno di 0\n indice = [0 for _ in range(minimo, massimo+1)]\n # Conto i numeri presenti, scorrendo su lista e aggiungendo 1 al numero corrispondente\n for i in range(dim):\n indice[lista[i]] += 1\n # Sovrascrivo i numeri nella lista\n count = 0\n for pos, val in enumerate(indice):\n for _ in range(val):\n indice[count] = pos\n count += 1\n \n def stable_counting_sorted(lista: typing.List[int], k: int) -> typing.List[int]:\n """Ordina stabilmente una lista con il counting sort stabile, e restituiscila."""\n # Trovo la dimensione della lista\n dim = len(lista)\n # Trovo il massimo e il minimo all\'interno della lista\n minimo = min(lista)\n massimo = max(lista)\n # Creo l\'indice dei numeri, in modo che sia lungo k e pieno di 0\n indice = [0 for _ in range(minimo, massimo+1)]\n # Conto i numeri presenti, scorrendo su lista e aggiungendo 1 al numero corrispondente\n for i in range(dim):\n indice[lista[i]] += 1\n # Faccio diventare l\'indice "il numero di numeri \\leq i"\n for i in range(len(indice)):\n if i == 0:\n continue\n indice[i] += indice[i-1]\n assert indice[-1] == dim\n # Creo una nuova lista, che sarà quella che verrà restituita\n nuova = [None for _ in range(dim)]\n # Inizio a posizionare i numeri, al contrario\n for i in range(0, dim, -1):\n nuova[indice[lista[i]]] = lista[i]\n indice[lista[i]] -= 1\n return nuova\n ```\n ')),n(o.q,null,n(o.o,null,"\n ## Introduzione alle Strutture Dati\n\n Una _struttura dati_ è un modo in cui si possono organizzare i dati di un programma.\n \n Si possono definire in due modi: **elementari** e **astratte**.\n \n ### Strutture dati elementari\n \n Le strutture _elementari_ dipendono strettamente dal modo in cui vengono memorizzati i dati.\n \n > **Array** e **liste** sono strutture dati elementari: sono definite dicendo come sono memorizzati i dati, rispettivamente, in celle contigue di memoria e da una serie di nodi con un valore e che puntano al successivo.\n \n ### Strutture dati astratte\n \n Le strutture _astratte_ sono separate dal modo in cui vengono memorizzati i dati, sono più ad alto livello, e si definiscono descrivendo le **proprietà** della struttura e i **metodi** che su di essa possono essere effettuate.\n \n > Una _classe_ in un qualsiasi linguaggio di programmazione è una struttura dati astratta.\n \n > Una _pila_ astratta:\n > - memorizza dati tutti dello stesso tipo\n > - `pop()`, estrae dalla pila l'ultimo valore inserito\n > - `push(val)`, aggiunge alla pila un valore\n > - `top()`, permette di vedere l'ultimo valore inserito nella pila\n > - `vuota()`, dice se la pila è vuota oppure no.\n ")),n(o.q,null,n(o.o,null,'\n # Array\n\n Un _array_ è sequenza di dati di **lunghezza conosciuta**, tutti dello **stesso tipo** e di una **dimensione fissa**, immagazzinata in **blocchi di memoria contigui**.\n \n ## Proprietà\n \n - E\' possibile accedere a tutti i blocchi di memoria conoscendo la loro **posizione relativa al primo** elemento.\n \n ## Metodi\n \n ```python\n class Array:\n def __init__(self, size, type=int): "Crea un array di dimensione size di elementi di tipo int."\n def __getitem__(self, index): "Restituisci il valore alla posizione index."\n def __setitem__(self, index, value): "Cambia il valore alla posizione index."\n ```\n \n ### Costo computazionale\n \n Tutte le operazioni su un array sono in **accesso immediato `O(1)`**!\n ')),n(o.q,null,n(o.o,null,'\n # Lista\n \n Una _lista_ è una sequenza di dati immagazzinata in **blocchi di memoria qualsiasi**.\n \n ## Proprietà\n \n Ogni dato ha un **riferimento** alla collocazione di memoria **successiva** (un puntatore): insieme, sono detti un _nodo_.\n \n E\' di **natura ricorsiva**: qualsiasi nodo di una lista può essere visto come inizio della lista con sè stesso e i suoi successivi.\n \n ## Metodi\n \n ```python\n class LinkedList:\n def __init__(self, value, next: typing.Optional[Node] = None):\n self.value = value\n self.next: typing.Optional[Node] = next\n \n def is_empty(self) -> bool: "Restituisce se la lista è vuota o no."\n def is_full(self) -> bool: "Restituisce se la lista è piena o no.\n def append(self, value): "Aggiunge un nuovo elemento in testa alla lista."\n def insert(self, value, index): "Inserisce un elemento dopo il nodo in posizione index."\n def insert_node(self, value, node): "Inserisce un nuovo elemento subito dopo un dato nodo."\n def find(self, node) -> int: "Trova l\'indice del nodo."\n def delete(self, value): "Elimina il primo nodo con quel valore dalla lista."\n def delete_node(self, node): "Elimina il nodo dalla lista."\n def forward(self, index) -> Node: "Restituisce il nodo in posizione index."\n ```\n \n ### Costo computazionale\n \n #### `List.forward(index)`\n \n Per raggiungere l\'`n`-esimo elemento, bisogna _scorrere tutti gli elementi prima di esso_: è dunque un **accesso sequenziale** in **`O(n)`**.\n \n ## Visualizzazione\n \n [visualgo.net](https://visualgo.net/en/list)\n ')),n(o.q,null,n(o.o,null,'\n # Coda (Queue)\n\n Una _coda_ è come una pila, ma segue la strategia **First In, First Out** (il primo inserito sarà il primo a essere estratto).\n \n ## Proprietà\n \n - I dati vi possono essere aggiunti solo tramite il **metodo `enqueue()`**\n - I dati possono essere estratti solo tramite il **metodo `dequeue()`**\n - Verranno restituiti i valori inseriti secondo la strategia **First In, First Out** (il primo inserito sarà il primo a essere estratto).\n \n > Hai presente quando fai la fila per pagare al supermercato? Beh, è quello, però non si possono superare le altre persone in nessun modo.\n \n ## Metodi\n \n ```python\n class Queue:\n def __init__(self): "Crea una nuova coda."\n def is_empty(self) -> bool: "Restituisce vero se la coda è vuota."\n def enqueue(self, data): "Aggiunge un dato alla coda."\n def first(self) -> ...: "Restituisce il primo dato della coda."\n def dequeue(self) -> ...: "Restituisce il primo dato della coda e lo rimuove."\n ```\n \n ## Implementazione tramite lista\n \n Posso implementare la coda con una lista, ma per realizzare l\'implementazione più efficiente devo tenere anche un puntatore all\'ultimo elemento della coda, in modo da non doverla scorrere ogni volta che voglio effettuare un\'operazione.\n \n Chiamiamo i due puntatori `head` e `tail` rispettivamente.\n \n ## Visualizzazione\n \n [visualgo.net](https://visualgo.net/en/list)\n ')),n(o.q,null,n(o.o,null,'\n # Pila (Stack)\n\n Una _pila_ è una struttura dati contenente **valori omogenei**.\n \n ## Proprietà\n \n - I dati vi possono essere aggiunti solo tramite il **metodo `push()`**\n - I dati possono essere estratti solo tramite il **metodo `pop()`**\n - Verranno restituiti i valori inseriti secondo la strategia **Last In, First Out** (l\'ultimo inserito sarà il primo a essere estratto).\n \n > Ci si può immaginare una pila di libri, da cui si può solo prendere un libro alla volta, quello più in alto.\n \n ## Metodi\n \n ```python\n class Stack:\n def __init__(self): "Crea una nuova pila."\n def is_empty(self) -> bool: "Restituisce vero se la pila è vuota."\n def push(self, data): "Aggiunge un dato alla pila."\n def top(self) -> ...: "Restituisce il primo dato della pila."\n def pop(self) -> ...: "Restituisce il primo dato della pila e lo rimuove."\n ```\n \n ## Implementazione tramite lista\n \n Utilizzando una lista possiamo realizzare una pila!\n \n La direzione dei puntatori sarà dall\'ultimo al primo, che non punterà più a nessuno.\n \n Il costo di tutti i metodi è `Θ(1)`!\n \n ## Visualizzazione\n \n [visualgo.net](https://visualgo.net/en/list)\n ')),n(o.q,null,n(o.o,null,"\n # Albero radicato\n \n Un _albero radicato_ è una struttura dati di **natura ricorsiva** che organizza i dati in maniera **non-lineare**.\n \n ## Proprietà\n \n - Ogni nodo dell'albero ha un **unico genitore**: `∀ (padre, figlio), (padre' figlio) ∈ E \\implies padre = padre'`\n - Ogni nodo dell'albero può avere **un numero qualsiasi di figli**.\n \x3c!----\x3e\n - I **nodi superiori al padre** vengono chiamati _antenati_.\n - I **nodi inferiori ai figli** vengono chiamati _discendenti_.\n \x3c!----\x3e\n - Nodi **senza padre** sono detti _radice_: `\\notexists (padre, radice) ∈ E`\n - Nodi **con padre e figli** sono detti _rami_ o interni.\n - Nodi **senza figli** sono detti _foglie_.\n \x3c!----\x3e\n - La **distanza** tra il nodo radice e i suoi discendenti è detta _livello_:\n - I figli immediati sono di livello 1.\n - I \"nipoti\" (figli dei figli) sono di livello 2.\n - I figli dei nipoti sono livello 3.\n - E così via.\n - Il **livello massimo** all'interno di un albero è detto _altezza_, _profondità_ oppure _h_, ed è sempre `1 ≤ h ≤ n-1`.\n \x3c!----\x3e\n - Un albero ha sempre `n-1` archi.\n \n ## Alberi particolari\n \n ### Alberi `d`-ari\n \n Un albero _`d`-ario_ è un particolare tipo di albero che **limita il numero massimo di figli di un nodo** a `d`.\n \n > Un albero _binario_ può avere **massimo 2 figli** per ogni nodo; un albero _ternario_ ne può avere **3**; un albero _`17`-ario_ ne potrà avere **17**\n \n #### Alberi completi\n \n Un albero `d`-ario si dice _completo_ se **tutti i nodi hanno 0 o `d` figli**, e mai una numero in mezzo.\n \n #### Alberi bilanciati\n \n Un albero `d`-ario si dice _bilanciato_ se **tutti i livelli eccetto l'ultimo** hanno il numero massimo di figli.\n \n #### Alberi perfettamente bilanciati\n \n Un albero `d`-ario si dice _perfettamente bilanciato_ se **tutti i livelli incluso l'ultimo** hanno il numero massimo di figli.\n \n ##### Particolarità degli alberi binari perfettamente bilanciati\n \n Si può dimostrare per induzione che:\n - Hanno sempre `2^h` foglie.\n - Hanno sempre `2^{h+1}-1` (`\\sum_i=0^n 2^i`) nodi.\n - L'altezza è in `Θ(log n)`.\n \n ## Implementazione degli alberi\n \n Possiamo scegliere se usare una rappresentazione con array o con nodi e puntatori: ognuna ha vantaggi e svantaggi diversi.\n \n ### Implementazione tramite array\n \n E' suggerito se l'albero è regolare; più è simile a un albero d-ario completo, meglio è.\n \n ### Implementazione tramite nodi e puntatori\n \n Più adatta ad alberi irregolari.\n \n Se l'albero è regolare, creiamo il numero esatto di campi:\n \n - Valore\n - Figlio1\n - Figlio2\n - _Opzionale:_ Padre\n \n Se un albero è irregolare, creiamo una specie di lista:\n \n - Valore\n - Primo figlio\n - Prossimo fratello\n - _Opzionale:_ Padre\n ")),n(o.q,null,n(o.o,null,"\n #### Breadth-first search (BFS)\n\n La _breadth-first search_ è un algoritmo che visita **ogni livello** dell'albero in ordine, dal più basso al più alto.\n \n ## Funzionamento\n \n > 1. __Visita radice__\n > 2. __Visita figli__\n > 3. __Visita nipoti__\n > 4. __Visita pronipoti__\n \n Si può implementare con una coda, in cui verranno inseriti i figli del nodo visitato da visitare ed estratti dopo avere completato la visita del livello attuale.\n \n ## Pseudocodice \n \n ```python\n def bfs(radice):\n c = Queue()\n c.enqueue(radice)\n while not c.is_empty():\n nodo = c.dequeue()\n print(nodo)\n for figlio in nodo.figli:\n nodo.enqueue(figlio)\n ```\n ")),n(o.q,null,n(o.o,null,"\n # Depth-First Search\n\n La _depth-first search_ è un algoritmo che visita **tutti i sottoalberi di un figlio** prima di passare ad un altro sfruttando la natura ricorsiva degli alberi.\n \n ## Funzionamento\n \n Ci sono diverse versioni della depth-first search: ognuna visita la radice in un momento diverso.\n \n ### DFS previsita (pre-order)\n \n La _DFS pre-visita_ visita la **radice per prima**, poi tutti i sottoalberi formati dai figli uno dopo l'altro.\n \n > 1. __Visita radice__\n > 2. dfs_pre_order(figlio1)\n > 3. dfs_pre_order(figlio2)\n \n ### Postvisita (post-order)\n \n La _DFS postvisita_ visita prima tutti i sottoalberi dei figli, e **alla fine la radice**.\n \n > 1. dfs_post_order(figlio1)\n > 2. dfs_post_order(figlio2)\n > 3. __Visita radice__\n \n ### Invisita (in-order)\n \n La _DFS invisita_ visita **un certo numero di figli**, poi la radice, e infine i figli restanti.\n \n > 1. dfs_in_order(figlio1, 1)\n > 2. __Visita radice__\n > 3. dfs_in_order(figlio2, 1)\n ")),n(o.q,null,n(o.o,null,"\n # Albero binario di ricerca\n\n ## Proprietà\n \n - Albero **binario**\n - Chiavi appartenenti ad un **insieme totalmente ordinato** (N, Q, R, ma non C)\n \x3c!----\x3e\n - Per ogni nodo con valore `x`, se un valore `v` è nel sottoalbero di sinistra allora `v ≤ x`, mentre se è nel sottoalbero di destra allora `v > x`.\n \n ## Costo computazionale\n \n - Trovare un valore: `O(h)`\n - Ordinare i valori: `O(n)`\n - Trovare il minimo: `O(h)`\n - Trovare il massimo: `O(h)`\n - Inserire un elemento: `O(h)`\n - Cancellare un elemento: `O(h)`\n \n `h` vale `log n` in un albero perfettamente bilanciato, e più l'albero diventa sbilanciato, più si avvicina a `n`, raggiungendola nel caso l'albero sia una lista.\n \n ## Pseudocodice\n \n ### Cancellazione ricorsiva\n \n ```python\n def delete(tree, key):\n if tree is not None:\n # Se ho trovato il nodo che cercavo...\n if tree.key == key:\n # E c'è una sola diramazione...\n # Semplicemente stacca il nodo come in una lista.\n if tree.left is None:\n return tree.right\n if tree.right is None:\n return tree.left\n # Altrimenti, diventa il minimo dell'albero di destra\n tree.key = tree.right.min()\n # Ed eliminalo dal sottoalbero\n tree.right = delete(tree.right, tree.key)\n # Se la chiave attuale è diversa da quella che cerchiamo, continuo a navigare l'albero\n elif tree.key < key:\n tree.left = delete(tree.left, key)\n else:\n tree.right = delete(tree.right, key)\n return tree\n ```\n \n ## Visualizzazione\n \n [visualgo.net](https://visualgo.net/en/bst)\n \n ## Approfondimenti\n \n Esistono alberi più avanzati che mantengono le proprietà degli alberi binari di ricerca, ma che si autobilanciano, come il [Red Black Tree](https://it.wikipedia.org/wiki/RB-Albero).\n ")),n(o.q,null,n(o.o,null,'\n # Heap binario\n \n L\'_heap binario_ è un **albero binario bilanciato a sinistra**.\n \n ## Proprietà\n \n - _Proprietà strutturale_:\n - L\'albero è **perfettamente bilanciato** in tutti i livelli tranne l\'ultimo\n - Nell\'ultimo livello, le foglie occupano le **posizioni più a sinistra** possibili\n - _Proprietà di ordinamento_:\n - La chiave di un qualsiasi nodo è **più piccola** di tutte quelle dei nodi **del suo sottoalbero**\n \n ## Metodi\n \n ```python\n class Heap:\n def __init__(self, H): ...\n def _heapify_ancestors(self, i): "Ripristina le proprietà dell\'heap per il nodo all\'indice specificato e i suoi genitori."\n def minimum(self): "Restituisce la chiave con il valore minimo in H."\n def decrease_value(self, index, new_value): "Diminuisce il valore della chiave all\'indice index a new_value."\n def insert(self, value): "Inserisci un nuovo valore nell\'albero."\n def _heapify_children(self, i): "Ripristina le proprietà dell\'heap per il nodo all\'indice specificato e i suoi figli."\n def pop(self): "Restituisce la chiave con il valore minimo, e la elimina."\n def from_list(l): "Crea un heap da una lista."\n ```\n \n ## Implementazione con un array\n \n Possiamo implementare l\'albero utilizzando un array con le chiavi dell\'albero memorizzate nell\'ordine _breadth-first_.\n \n L\'indice del figlio sinistro può essere trovato a `2i+1`, mentre l\'indice del figlio sinistro può essere trovato a `2i+2`; il genitore è a `i//2-1`.\n \n ### Pseudocodice\n \n ```python\n class Heap:\n def __init__(self, size):\n self.array = Array(size) # Il tipo Array non esiste; consideriamolo pseudocodice\n self.next_value = 0\n \n def _heapify_ancestors(self, index)\n """Ripristina le proprietà dell\'heap per il nodo all\'indice specificato e i suoi genitori.\n \n Costo:\n O(log n)"""\n # Trovo l\'indice del genitore\n parent = index // 2 - 1\n # Controllo se viene mantenuta la proprietà di ordinamento dell\'heap\n if self.array[index] < self.array[parent]:\n # Scambio i valori dei due nodi\n self.array[index], self.array[parent] = self.array[parent], self.array[index]\n # Faccio la stessa cosa con il genitore\n self._heapify(parent)\n \n \n def minimum(self):\n """Restituisce la chiave con il valore minimo in H.\n \n Costo:\n O(1)"""\n return self.array[0]\n \n def decrease_value(self, index, new_value):\n """Diminuisce il valore della chiave all\'indice index a new_value.\n \n Costo:\n O(log n)"""\n # Diminuisco il valore del nodo\n self.array[index] = new_value\n # Aggiorno l\'heap \n self._heapify(index)\n \n def insert(self, value):\n """Inserisci un nuovo valore nell\'albero.\n \n Costo:\n O(log n)"""\n # Trovo l\'indice in cui inserire il valore\n index = self.next_index \n # Aggiungo il valore in fondo\n self.array[index] = value\n # Aggiorno l\'heap\n self._heapify(index)\n \n def _heapify_children(self, index):\n """Ripristina le proprietà dell\'heap per il nodo all\'indice specificato e i suoi figli.\n \n Costo:\n O(log n)"""\n # Trovo l\'indice dei figli\n left = index * 2 + 1\n right = index * 2 + 2\n # Mi assicuro che i figli esistano\n try:\n # Guardo quale dei figli è maggiore\n if self.array[left] > self.array[right]:\n # Scambio i valori\n self.array[left], self.array[index] = self.array[index], self.array[left]\n # Ripeto la procedura sul figlio modificato\n self._heapify_children(left)\n else:\n # Scambio i valori\n self.array[right], self.array[index] = self.array[index], self.array[right]\n # Ripeto la procedura sul figlio modificato\n self._heapify_children(left)\n except IndexError:\n # La foglia non ha figli: ho finito!\n return\n \n def pop(self):\n """Restituisce la chiave con il valore minimo, e la elimina.\n \n Costo:\n O(log n)"""\n # Mi salvo il valore della radice\n value = self.array[0]\n # Sostituisco la radice con l\'ultima foglia a destra\n self.array[0], self.array[self.next_value] = self.array[self.next_value], self.array[0]\n ### Non bisognerebbe eliminare la foglia...?\n # Riordino l\'heap\n self._heapify_children(0)\n return value\n \n @staticmethod\n def from_list(l):\n """Crea un heap da una lista.\n \n Costo:\n O(n log n), ma si può abbassare"""\n heap = Heap(len(l)))\n heap.array = Array.from_list(l) # Pseudocodice\n heap.next_value = len(l)\n # Cominciamo a riordinare l\'heap dalla fine, in modo che rispetti le proprietà\n for index in range(heap.next_value, 0, -1):\n heap._heapify_children(index)\n ```\n \n ## Visualizzazione\n \n [visualgo.net](https://visualgo.net/en/heap)\n ')),n(o.q,null,n(o.o,null,"\n # Coda con priorità\n \n La _coda con priorità_ è una struttura dati dal funzionamento molto simile a quello di una coda, ma invece che restituire il primo elemento inserito, essa restituisce l'**elemento con il valore di priorità minore**.\n \n ## Proprietà\n \n - Ogni elemento è una coppia costituita da **valore** e **priorità** (un numero intero).\n - Nuovi elementi possono essere aggiunti solo tramite il **metodo `insert()`**\n - Gli elementi possono essere estratti solo tramite il **metodo `pop()`**\n - Verranno restituiti i valori inseriti secondo la strategia **Lower Priority** (l'elemento con la priorità minore sarà il primo ad essere restituito).\n - E' possibile diminuire la priorità di un elemento (e quindi anticipare la sua estrazione)\n \n ## Metodi\n \n ```python\n class PriorityQueue:\n def __init__(self): ...\n def insert(self, new_elem: Element): ...\n def minimum(self) -> Element: ...\n def pop(self) -> Element: ...\n def decrease_priority_for(self, elem: Element, priority: int): ...\n ```\n \n ## Implementazione con lista\n \n E' possibile implementare la coda con priorità tramite una **lista**: l'inserimento di nuovi valori diventerà molto efficiente, ma tutte le altre operazioni saranno linearmente lente.\n \n ### Costo computazionale\n \n - *insert()*: `O(1)`\n - *minimum()*: `O(n)`\n - *pop()*: `O(n)`\n - *decrease_priority_for()*: `O(n)`\n \n ## Implementazione con lista ordinata\n \n Implementando la coda con priorità con una **lista ordinata** si avrà un costo di ordinamento elevato negli inserimenti e modifiche alla priorità, ma costi costanti nell'estrazione di un elemento.\n \n ### Costo computazionale\n \n - *insert()*: `O(n)`\n - *minimum()*: `O(1)`\n - *pop()*: `O(1)`\n - *decrease_priority_for()*: `O(n)`\n \n ## Implementazione con heap\n \n La **soluzione migliore** è quella di implementare la coda con priorità tramite un **heap**: tutti i costi saranno logaritmici, eccetto l'inserimento che sarà costante.\n \n - `insert()` costa `O(1)`\n - `minimum()` costa `O(log n)`\n - `pop()` costa `O(log n)`\n - `decrease_priority_for()` costa `O(log n)`\n \n ## Approfondimenti\n \n Esistono code con priorità che restituiscono **l'elemento con priorità maggiore**, invece che quello minore.\n ")),n(o.q,null,n(o.o,null,"\n # Heap sort\n\n L'_heap sort_ è un algoritmo di ordinamento per confronto **iterativo**.\n \n ## Funzionamento\n \n Per effettuare un heap sort, creiamo un **heap massimo** in cui inseriamo tutti i valori che vogliamo ordinare.\n \n Una volta applicate le proprietà dell'heap, chiamiamo una versione particolare di `heap.pop()` che invece che rimuovere dall'array i valori estratti li posiziona nello spazio creatosi in fondo.\n \n ## Costo computazionale\n \n | Categoria | Upper bound | Lower bound | Tight bound |\n |-----------|-------------|-------------|-------------|\n | Tempo | `O(n log n)` | `Ω(n log n)` | **`θ(n log n)`** |\n ")),n(o.q,null,n(o.o,null,"\n # Grafo\n \n Un _grafo_ è una struttura dati che rappresenta elementi interconnessi tra loro.\n \n Esistono due tipi di grafi: _orientati_ e _non orientati_.\n \n Per semplicità, consideriamo i nostri nodi numerati da 1 a `n`.\n \n ## Proprietà\n \n - Gli elementi sono rappresentati tramite _nodi_.\n - Il loro _grado_ è dato dal **numero degli archi** che vi incidono.\n - Se il grafo è orientato, hanno anche un _in-degree_ (**numero di archi entranti**) e un _out-degree_ (**numero di archi uscenti**).\n - Le connessioni tra elementi sono rappresentate tramite _archi_.\n - Un arco _incide_ esattamente su **due nodi**.\n - Se il grafo è orientato, sono _uscenti_ da uno dei due nodi ed _entranti_ nell'altro.\n - Sono matematicamente meno del **quadrato dei nodi**.\n \n ## Grafi particolari\n \n ### Catena\n \n Una _catena_ è un **grafo non orientato** composto da una **sequenza di nodi** aventi un **grado massimo di 2** tutti collegati tra loro.\n \n ### Cammino\n \n Un _cammino_ è un **grafo orientato** composto da una **sequenza di nodi** aventi un **in-degree** e un **out-degree** **massimo di 1**, collegati tra loro in modo che partendo dal primo e seguendo gli archi sia possibile arrivare all'ultimo.\n \n ### Cricca\n \n Una _cricca_ è un grafo in cui **tutti i nodi sono collegati tra loro**.\n \n Se il grafo è **non orientato**, la cricca ha `((n-1)n)/2` archi.\n \n Se il grafo è **orientato**, ha per ogni coppia un arco in entrambe le direzioni, quindi ha `(n-1)n` archi.\n \n ### Direct Acyclic Graph\n \n Un _DAG_ è un grafo diretto che non contiene nessun ciclo.\n \n Su di esso possiamo effettuare un ordinamento, detto _linearizzazione_, tra i nodi: otteniamo l'_ordine topologico_.\n \n I primi elementi dei DAG sono detti _Source_ (_Sorgente_), mentre gli ultimi sono detti _Sink_ (_Pozzo_).\n \n #### Albero\n \n Un **albero** può essere considerato un DAG con una **sorgente singola** e le **foglie come pozzi**.\n \n ### Grafo fortemente connesso\n \n Un insieme di nodi `V` di un **grafo diretto** `G` si dice una _componente fortemente connessa_ se:\n \n 1. Per ogni coppia di nodi `∀ u, v ∈ V' : ∃ un cammino u->v in G'`\n 2. Massimale (non può diventare più grande)\n \n > Praticamente una componente fortemente connessa è un gruppo di nodi tra i quali si può viaggiare liberamente da e a qualsiasi nodo al suo interno.\n \n Un grafo si dice _fortemente connesso_ se l'insieme `V` coincide con l'insieme dei nodi del grafo `G`.\n \n > Se partendo da qualsiasi nodo di un grafo riesco ad arrivare a qualsiasi altro nodo, allora il grafo è fortemente connesso.\n \n Inoltre, se creiamo un nuovo grafo, in cui **ogni nodo rappresenta una componente fortemente connessa** del nostro grafo iniziale, **otteniamo un DAG**, perchè tutti i cicli sono stati integrati nella componente.\n \n ### Trasposto di un grafo\n \n Il _trasposto_ di un **grafo diretto** `G` è il grafo stesso con gli archi che però vanno nella **direzione opposta**.\n \n ### Grafo pesato\n \n Un _grafo pesato_ è un particolare grafo che associa a ciascun arco un **costo** per attraversarlo.\n \n #### Costi negativi\n \n I costi possono anche essere negativi: rappresenteranno allora un **guadagno** ottenuto attraversando il nodo.\n \n ### Minimum spanning tree\n \n Un _minimum spanning tree_ è il **sottoinsieme degli archi** di un **grafo non diretto** che **connettono tutti i nodi** con il **minor costo possibile**.\n \n I MST hanno [molte proprietà](https://en.wikipedia.org/wiki/Minimum_spanning_tree#Properties); sono troppe da scrivere qui, e probabilmente non ci interesseranno nemmeno.\n \n ## Implementazione tramite matrice di adiacenza\n \n Possiamo implementare un grafo creando una **matrice di `bool` di dimensione `n * n`** in cui le **caselle collegate sono vere** e le caselle non collegate sono false.\n \n > Ad esempio, possiamo implementare un grafo non orientato in questo modo (`█` indica l'esistenza di un collegamento e ` ` indica la sua assenza):\n >\n > | |1|2|3|\n > |-|-|-|-|\n > |1|░|░|░|\n > |2|█|░|░|\n > |3|█| |░|\n >\n > Esistono gli archi `1-2` e `1-3`, ma non esiste un collegamento `2-3`.\n \n > Un grafo orientato invece si può implementare così:\n >\n > | |1|2|3|\n > |-|-|-|-|\n > |1|░|█| |\n > |2|█|░| |\n > |3|█| |░|\n >\n > Esistono gli archi `1->2`, `2->1` e `3->1`, ma non ci sono collegamenti `2->3`, `1->3` e `3->2`.\n \n ### Costo computazionale\n \n #### Tempo\n \n Le matrici di adiacenza portano alla realizzazione di algoritmi molto veloci: verificare l'esistenza di un arco è in `O(1)`!\n \n Abbiamo però penalità significative quando vogliamo effettuare operazioni sugli archi: ad esempio, trovare il trasposto di un grafo implementato con una matrice di adiacenza è in `O(nodi²)`.\n \n #### Memoria\n \n E' poco efficiente in quanto a memoria: l'upper bound è in `O(n^2)`. \n \n ## Implementazione tramite liste di adiacenza\n \n Un'alternativa alla matrice di adiacenza è quella di creare un'**array di liste**, le quali contengono i **vicini di ciascun nodo**.\n \n > |Posizione|Lista|\n > |-|-|\n > |1|[2, 3]|\n > |2|[]|\n > |3|[1]|\n >\n > Esistono gli archi `1->2`, `1->3`, e `3->1`, ma non esistono `2->1`, `2->3` e `3->2`.\n \n ### Costo computazionale\n \n #### Tempo\n \n Utilizzando le liste di adiacenza, il tempo richiesto per verificare l'esistenza di un arco sale a `O(max-out-degree)`.\n \n E' efficace però quando il problema che vogliamo risolvere riguarda operazioni su archi: trovare la trasposta è in `O(archi)`.\n \n #### Memoria \n \n La memoria richiesta dalle liste di adiacenza è minore di quella delle matrici: l'upper bound è in `O(nodi + archi)`.\n \n ## Visualizzazione\n \n [visualgo.net](https://visualgo.net/en/graphds)\n ")),n(o.q,null,n(o.o,null,"\n # Visitare un grafo\n \n Come per gli alberi radicati, esistono due modi per visitare un grafo: _depth-first search_ e _breadth-first search_.\n \n In entrambi i casi, non visito mai due volte lo stesso nodo, e come risultato ottengo **molteplici alberi**, il cui insieme viene detto _foresta di copertura_.\n \n Se il grafo che vogliamo visitare è diretto, allora dobbiamo **considerare come vicini solo gli archi uscenti**\n \n ## Depth-first search\n \n La DFS ci può risultare utile per **identificare le componenti connesse** di un grafo e **identificare eventuali cicli**.\n \n ### Funzionamento\n \n Posso utilizzare la DFS per classificare gli archi di un grafo in quattro categorie:\n \n - _Tree_, archi che ci fanno **scoprire un nuovo nodo**\n - _Forward_, archi che ci portano a un **discendente**\n - _Back_, archi che ci portano ad un **antenato**\n - _Cross_, archi che **connettono due sottoalberi** diversi\n \n Usiamo due array inizializzati a 0 chiamati `pre` e `post`, grandi quanto il numero di archi del grafo, che ci indicano rispettivamente quando un nodo è stato scoperto e quando è terminata la visita. \n Inoltre, creiamo una variabile `clock` che avanza ad ogni evento. \n Alla scoperta di un nuovo nodo, mettiamo il valore attuale di `clock` all'interno di `pre[n]`. \n Alla fine della visita di un nodo invece mettiamo il valore di `clock` in `post[n]`.\n \n **Durante la visita**, gli archi avranno i seguenti valori:\n - _Tree_: `pre[dst] == 0`\n - _Forward_: `pre[src] < pre[dst] && post[dst] > 0`\n - _Back_: `pre[dst] < pre[src] && post[dst] == 0`\n - _Cross_: Tutti gli altri (`post[dst] < pre[src]`)\n \n **A fine visita**, gli archi avranno i seguenti valori:\n - _Tree_: `pre[dst] < pre[dst] < post[dst] < pre[src]`\n - _Forward_: `pre[dst] < pre[dst] < post[dst] < pre[src]`\n - _Back_: `pre[src] < pre[dst] < post[dst] < post[src]`\n - _Cross_: `pre[dst] < post[dst] < pre[src] < post[src]`\n \n Se un **grafo non diretto** contiene degli **archi Back**, allora esso **conterrà un ciclo**.\n \n #### DFS nel grafo trasposto\n \n Se effettuo una DFS sul trasposto di un grafo, posso **scoprire i nodi che hanno un cammino verso l'origine**.\n \n #### DFS nella componente fortemente connessa\n \n Se effettuo una DFS in una componente fortemente connessa e nella sua trasposta, il **`post` della trasposta sarà sempre minore** del `post` della componente originale.\n \n ### Costo computazionale\n \n | Categoria | Upper bound | Lower bound | Tight bound |\n |-----------|-------------|-------------|-------------|\n | Tempo | `O(nodi + archi)` | `Ω(nodi + archi)` | **`θ(nodi + archi)`** |\n | Memoria | `O(nodi)` | `Ω(nodi)` | **`θ(nodi)`** |\n \n ### Visualizzazione\n \n [visualgo.net](https://visualgo.net/en/dfsbfs)\n \n ## Breadth-first search\n \n La BFS ci può risultare utile per **trovare tutti i nodi a una certa distanza** da un'origine.\n \n ### Costo computazionale\n \n | Categoria | Upper bound | Lower bound | Tight bound |\n |-----------|-------------|-------------|-------------|\n | Tempo | `O(nodi + archi)` | `Ω(nodi + archi)` | **`θ(nodi + archi)`** |\n | Memoria | `O(nodi + archi)` | `Ω(nodi + archi)` | **`θ(nodi + archi)`** |\n \n ### Pseudocodice\n \n Come per gli alberi, la implementiamo in modo **iterativo**:\n \n ```python\n queue = [starting_node]\n parents = [None for node in graph.nodes]\n distance = [-1 for node in graph.nodes]\n \n # TODO: controllami quando sei più sveglio\n \n while queue:\n node, source, distance = queue.pop(0)\n parents[node.number] = source\n distance[node.number] = distance\n for neighbour in node.neighbours:\n queue.append((neighbour, node, distance+1))\n ```\n \n > Nella coda, la distanza massima tra un nodo e l'altro è 1.\n \n ### Visualizzazione\n \n [visualgo.net](https://visualgo.net/en/dfsbfs)\n ")),n(o.q,null,n(o.o,null,"\n # Algoritmi greedy\n\n Un modo per risolvere problemi algoritmici può essere usare una **tecnica** _greedy_.\n \n Le tecniche greedy consistono nel effettuare tanti piccoli passi, ed effettuare una **scelta** in base ai dati **locali al passo attuale**.\n \n > Scegli il numero di monete più piccole possibili per comporre €1.12.\n >\n > L'algoritmo cerca di scegliere sempre la moneta più grande possibile compatibile con il prezzo in quel momento, quindi:\n > | Moneta scelta | Rimanente |\n > |---------------|-----------|\n > | € 1.00 | € 0.12 |\n > | € 0.10 | € 0.02 |\n > | € 0.02 | € 0.00 |\n \n ## Esempi\n \n Sono algoritmi greedy:\n \n - L'_Algoritmo di Dijkstra_\n - L'_Algoritmo di Kruskal_\n - L'_Algoritmo di Prim_\n ")),n(o.q,null,n(o.o,null,"\n # Percorso più breve\n\n Trovare il _percorso più breve_ (o _cammino minimo_) tra due nodi di un **grafo pesato** è un problema frequente nell'informatica; per questo, sono stati sviluppati [numerosi algoritmi](https://en.wikipedia.org/wiki/Shortest_path_problem) per risolverlo.\n \n > Ad esempio, il pathfinding dei nemici nei videogiochi, oppure Google Maps!\n \n ## Percorso più breve da una sorgente singola\n \n Una sottocategoria del problema del percorso più breve è il caso in cui ci interessa sapere i percorsi più brevi che **partono da uno specifico nodo del grafo**: è detto problema del _percorso più breve da una sorgente singola_, o _single-source shortest path_.\n \n Si può notare che se il grafo contiene **costi negativi** allora è possibile che il percorso più breve non esista, in quanto diventa possibile la comparsa di **cicli di costo infinitamente negativo**.\n \n Possiamo notare che, se il percorso più breve tra `A` e `D` è `A-B-C-D`, allora il cammino minimo tra `B` e `D` passerà obbligatoriamente per `C` (`B-C-D`).\n Diremo più avanti che il percorso più breve ha una **sottostruttura ottimale**.\n \n ### Esempi\n \n Alcuni algoritmi che trovano il percorso più breve sono:\n - L'_Algoritmo di Dijkstra_\n - L'_Algoritmo di Bellman-Ford_\n - La [_ricerca A*_](https://en.wikipedia.org/wiki/A*_search_algorithm)\n ")),n(o.q,null,n(o.o,null,"\n # Algoritmo di Dijkstra\n \n L'_Algoritmo di [Dijkstra](https://upload.wikimedia.org/wikipedia/commons/8/85/Dijkstra.ogg)_ è un algoritmo che risolve il problema del **percorso più breve da una sorgente singola** per grafi con pesi **reali positivi** `\\mathbb{R}^+`.\n \n L'algoritmo trova tutti i percorsi più brevi per raggiungere qualsiasi nodo del grafo partendo da un dato nodo, assieme al costo richiesto per farlo.\n \n ## Funzionamento\n \n 1. Separiamo tutti i nodi del grafo in due gruppi: **visitati** e **non visitati**. \n - Tutti i nodi partono da **non visitati**.\n 2. Per ogni nodo, manteniamo un valore \"**costo richiesto per raggiungerlo**\", che verrà cambiato man mano che l'algoritmo avanza.\n - Il costo di partenza è `+∞`.\n - Il costo sarà **definitivo per i nodi visitati**, e **provvisorio per i non visitati**.\n 3. Creiamo un insieme detto _frontiera_ che conterrà tutti i **nodi non visitati adiacenti** a quelli visitati.\n 4. Prendiamo il nodo iniziale, che avrà un **costo di `0`**, e definiamolo il nodo _attuale_.\n 5. Finchè ci sono dei nodi non sono stati visitati, ripetiamo il seguente ciclo:\n 1. Aggiungiamo i nodi adiacenti al nodo attuale alla frontiera.\n - Il costo per raggiungerli sarà il **costo per il nodo attuale sommato al costo dell'arco** che li connette al nodo attuale. \n Se questo **costo** risulta essere **minore del costo provvisorio** precedente, esso **diventerà il nuovo costo**.\n - Questa operazione è detta _rilassamento dell'arco_.\n 2. Facciamo diventare **visitato** il nodo attuale.\n - Il percorso che abbiamo fatto per raggiungerlo è obbligatoriamente il più breve.\n 3. Il prossimo nodo attuale sarà il nodo di frontiera con un costo più basso.\n - Per questo, è possibile definire l'algoritmo di Dijkstra come un **algoritmo greedy**.\n \n ### Non funziona se...\n \n L'algoritmo smette di funzionare nel caso in cui siano presenti **costi negativi** e il grafo non sia **aciclico**, in quanto non saremmo mai in grado di rendere visitato un nodo.\n \n ## Costo computazionale\n \n | Categoria | Upper bound |\n |-----------|-------------|\n | Tempo | `O(nodi + archi) log nodi)` |\n \n ### Scomposizione\n \n - Inizializzazione: `O(nodi)`\n - Creazione coda priorità: `O(nodi log nodi)`\n - Ciclo: `O((nodi + archi) log nodi)`\n \n ## Pseudocodice\n \n ```python\n import math\n \n class Info:\n def __init__(self, distance=math.inf, previous=None):\n self.distance = distance\n self.previous = previous\n \n def dijkstra(graph, start):\n data = [Info() for node in graph.nodes]\n queue = PriorityQueue([start])\n while queue:\n node = queue.pop()\n for arc in node.connections:\n other = arc.other(node)\n if data[node.number].distance + arc.cost < data[other].distance:\n data[other].distance = data[node.number].distance + arc.cost\n queue.decrease_priority_for(other, data[other].distance)\n data[v].previous = node\n return data\n ```\n \n ## Visualizzazione\n \n [Visualgo](https://visualgo.net/en/sssp)\n ")),n(o.q,null,n(o.o,null,"\n # Algoritmo di Bellman-Ford\n\n L'_Algoritmo di Bellman-Ford_ è un algoritmo che, come l'Algoritmo di Dijkstra, risolve il problema del **percorso più breve da una sorgente singola**, però, a differenza da quest'ultimo, l'Algoritmo di Bellman-Ford accetta in input anche grafi con pesi **reali** `\\mathbb{R}` (sia positivi, sia negativi).\n \n ## Funzionamento\n \n L'approccio dell'algoritmo è simile a quello di Dijkstra: entrambi usano il **rilassamento** degli archi per ottenere un costo provvisorio per il raggiungimento di un nodo, ma invece che rilassare solo l'arco con costo inferiore, questo algoritmo **rilassa tutti gli archi** ripetutamente, eliminando la frontiera e il problema dei nodi negativi.\n \n L'operazione di rilassamento è ripetuta `nodi - 1` volte, ovvero la **lunghezza massima** di un cammino aciclico all'interno di un grafo.\n \n Possiamo individuare dopo i rilassamenti se è presente un nodo con un **ciclo negativo**: ci basta controllare se esiste un arco che connette due nodi con una distanza incompatibile: se `a.distanza + arco.costo < b.distanza`, allora è presente un ciclo negativo.\n \n ## Costo computazionale\n \n | Categoria | Upper bound |\n |-----------|-------------|\n | Tempo | `O(nodi * archi)` |\n \n ## Pseudocodice\n \n > TODO\n \n ## Visualizzazione\n \n [Visualgo](https://visualgo.net/en/sssp)\n ")),n(o.q,null,n(o.o,null,'\n # Disjoint set\n \n Il _disjoint set_ è una struttura dati che rappresenta elementi di un insieme raggruppati in **sottoinsiemi disgiunti**.\n \n ## Metodi\n \n ```python\n class DisjointNode:\n def __init__(self): ...\n def find_set(self): "Trova il rappresentante dell\'elemento."\n def union(self, other): "Unisce i sottoinsiemi che contengono questo nodo e `other`."\n ```\n \n ## Implementazione tramite array\n \n Possiamo implementare il disjoint set con due array: uno per l\'**indice del rappresentante** e uno per il **rango dell\'insieme**.\n \n Un singoletto avrà **sè stesso come rappresentante** e **rango `0`**.\n \n ### Costo computazionale\n \n - *create_set()*: `O(1)`\n - *find_set()*: `O(h)`\n - *union()*: `O(h)`\n \n ### Pseudocodice\n \n ```python\n class DisjointNode:\n def __init__(self):\n self.parent = self\n self.rank = 0\n \n def find_set(self):\n element = self\n while self.parent != element:\n element = self.parent\n return element\n \n def union(self, other):\n repres_self = self.find_set()\n repres_other = other.find_set()\n if repres_self == repres_other:\n return\n if repres_self.rank < repres_other.rank:\n repres_greater = repres_other\n repres_lesser = repres_self\n else:\n repres_greater = repres_self\n repres_lesser = repres_other\n repres_lesser.parent = repres_greater\n if repres_greater.rank == repres_lesser.rank:\n repres_greater.rank += 1\n ```\n \n ### Visualizzazione\n \n [cs.usfca.edu](https://www.cs.usfca.edu/~galles/JavascriptVisual/DisjointSets.html)\n ')),n(o.q,null,n(o.o,null,"\n # Trovare il minimum spanning tree\n\n Un altro problema ricorrente riguardante i grafi è trovare il _minimum spanning tree_ di un dato grafo non diretto.\n \n > E' utile per trovare il modo più efficiente per connettere le cose: ad esempio, per decidere la struttura di una rete internet!\n \n ## Esempi\n \n Gli algoritmi principali che risolvono il problema sono due, ed entrambi sono **algoritmi greedy**:\n \n - L'_Algoritmo di Kruskal_\n - L'_Algoritmo di Prim_\n ")),n(o.q,null,n(o.o,null,"\n # Algoritmo di Kruskal\n \n L'_Algoritmo di Kruskal_ è un algoritmo **greedy** che **trova il minimum spanning tree** di un grafo.\n \n ## Funzionamento\n \n 1. Ripetiamo questa procedura finchè tutti i nodi non sono connessi:\n 1. Prendiamo ad ogni passo **l'arco meno costoso** del grafo non ancora aggiunto all'insieme.\n 2. Assicuriamoci che **non si creino cicli**: se non se ne verrebbero a creare, possiamo **aggiungere l'arco all'insieme**.\n - Gli archi devono quindi connettere nodi in **componenti connesse diverse**.\n - Possiamo rappresentare le componenti connesse con un **Disjoint Set**.\n \n ## Costo computazionale\n \n | Categoria | Upper bound |\n |-----------|-------------|\n | Tempo | `O(archi²)` |\n \n ### Scomposizione\n \n - DisjointSet.__init__(): `O(archi)`\n - Per ogni ciclo: `O(archi²)`\n - DisjointSet.find_set(): `O(1)`\n - DisjointSet.union(): `O(archi)`\n \n ## Pseudocodice\n \n ```python\n def minimum_spanning_tree_kruskal(graph):\n ds = DisjointSet()\n for node in graph.nodes:\n ds.create_set(node)\n arcs = []\n sorted_arcs = sorted(graph.arcs, key=lambda arc: arc.cost)\n for arc in sorted_arcs:\n if ds.find_set(node.start) != ds.find_set(node.end):\n arcs.append(arc)\n ds.union(node.start, node.end)\n return arcs\n ```\n ")),n(o.q,null,n(o.o,null,"\n # Algoritmo di Prim\n \n L'_Algoritmo di Prim_ è un altro algoritmo **greedy** che **trova il minimum spanning tree** di un grafo.\n \n ## Funzionamento\n \n Creo una **coda con priorità** in cui inserisco tutti gli archi visibili dal mio albero, in cui la chiave è il **costo dell'arco**.\n \n Per trovare l'arco con costo più piccolo posso **estrarre un arco** dalla coda: la priorità ci garantisce che esso è l'**arco meno costoso**.\n \n Aggiungo allora un nuovo nodo all'albero, e con esso, **aggiungo alla coda** tutti gli **archi che scoprono un nuovo nodo**.\n \n ## Costo computazionale\n \n | Categoria | Upper bound |\n |-----------|-------------|\n | Tempo | `O(archi + nodi log nodi)` |\n \n ## Pseudocodice\n \n ```python\n import math\n \n def minimum_spanning_tree_prim(graph, cost_array, start_node):\n # E' un Array di bool: se l'indice corrispondente al nodo è uguale a true, vuol dire che il (nodo è contenuto nell'albero.\n contains = [False for _ in range(len(graph))]\n # Contiene il precedente di ogni nodo \n prev = [None for _ in range(len(graph))]\n # Contiene il costo per arrivare a quel nodo\n cost = [math.inf for _ in range(len(graph))]\n # Creo la priority queue\n pq = PriorityQueue(graph.arcs, key=lambda arc: arc.cost)\n # Parto dal nodo `start_index`\n # Il costo dell'origine è 0.\n cost[start_node.index] = 0\n contains[start_node.index] = True\n \n while not pq.is_empty():\n new_node = pq.pop()\n contains[new_node.index] = True\n for arc in new_node.connections:\n other_node = arc.other(new_node)\n if not contains[other_node.index] and cost[other_node.index] > arc.cost:\n cost[other_node.index] = arc.cost\n prev[other_node.index] = new_node\n pq.decrease_priority_for(other_node, arc.cost)\n # L'array di prev rappresenta un albero.\n return prev\n ```_\n ")),n(o.q,null,n(o.o,null,"\n # Compressione\n\n _Comprimere_ un file significa **ridurne le dimensioni** senza modificarne il significato.\n \n ## Categorie\n \n ### Compressione lossless\n \n Nella _compressione lossless_, i dati possono essere decompressi riottenendo una copia identica dell'originale.\n \n > Immaginiamo un file che contiene solo le lettere `a, b, c, d, e, f`.\n >\n > Le lettere compaiono con questa frequenza:\n > |a|b|c|d|e|f|\n > |45%|13%|12%|16%|9%|5%|\n >\n > Possiamo codificare le lettere nel seguente modo:\n > |a|b|c|d|e|f|\n > |`0b0`|`0b100`|`0b101`|`0b111`|`0b1100`|`0b1101`|\n >\n > Scrivere `abacadae` richiederebbe 64 bits con la codifica ASCII estesa, ma in questo modo riusciamo a scriverlo con soli 17 bits!\n \n Le codifiche di un file compresso devono rispettare la proprietà del _Codice a prefisso_, che dice che **nessun codice deve essere il prefisso di un altro codice**; altrimenti, si avrebbero ambiguità nella decodifica.\n \n > a = `1`\n > b = `11`\n >\n > `111` è `ab`, `ba` oppure `aaa`?\n \n Creiamo allora un _albero di decodifica_: un **albero binario** che, leggendo uno ad uno i bit codificati, ci permette di arrivare al **valore del codice presente sulle foglie** dell'albero.\n \n Gli alberi di decodifica sono sempre **completi**.\n \n > Un albero di decodifica incompleto sarebbe non ottimizzato!\n \n #### Esempi\n \n - .png\n - .flac\n - .zip\n - ...\n \n ### Compressione lossy\n \n Nella _compressione lossy_, alcuni dati [solitamente](http://needsmorejpeg.com/) irrilevanti vengono perduti: non si può, dunque, ricostruire l'originale.\n \n #### Esempi\n \n - .jpeg\n - .mp3\n - ...\n ")),n(o.q,null,n(o.o,null,"\n # Algoritmo di Huffman\n\n L'_Algoritmo di Huffman_ è un **algoritmo greedy** per la **costruzione di un albero di decodifica**.\n \n ## Funzionamento\n \n 1. Costruisco **un albero** (con un solo nodo) **per ogni elemento dell'alfabeto**.\n 2. Associo ad **ogni albero la frequenza dell'elemento** da cui è stato creato, per poi inserire tutti gli elementi in una coda con priorità.\n 3. Finchè non ho **un albero solo**:\n 1. Estraggo dalla coda i **due alberi con frequenza minore**.\n 2. **Li rendo fratelli**, creando un nuovo nodo in cui sono uno figlio destro e uno figlio sinistro.\n 3. Associo al nuovo nodo la **somma delle frequenze dei due alberi**, e inserisco il nuovo albero nella coda.\n \n > È molto raro che venga un albero \"dritto\"; se succede, probabilmente c'è qualcosa che non va.\n ")),n(o.q,null,n(o.o,null,"\n # Dizionario\n \n Un _dizionario_ è una struttura dati che **associa dei valori a delle chiavi**.\n \n ## Proprietà\n \n - Ogni elemento del dizionario è un **valore** che è stato **associato a una chiave**.\n - Possiamo aggiungere nuovi elementi con il **metodo `add(chiave, valore)`**.\n - Posiamo estrarre elementi con il **metodo `get(chiave)`**, che restituirà il valore associato a `chiave`.\n - E' possibile rimuovere elementi con il **metodo `delete(chiave)`**.\n - Due elementi con **chiavi diverse** non devono **mai restituire lo stesso valore**.\n \n ## Metodi\n \n Beh... Non ha molto senso in questo caso...\n \n ```python\n dict()\n ```\n \n ## Implementazione con tabella hash\n \n Una _tabella hash_ è un'array di coppie **chiave-valore**, che formano l'insieme _universo_.\n \n Per determinare l'**indice dell'array** in cui inserire una coppia, usiamo una [funzione _hash_](https://it.wikipedia.org/wiki/Hash#Algoritmo_di_hash) sulla chiave, che restituirà **numeri da `0` a `len(hash_table)`**.\n \n ### Risoluzione collisioni\n \n Potrebbe capitare però che **due chiavi diverse abbiano lo stesso indice**. Dobbiamo allora usare un metodo di _risoluzione collisioni_, che mi permetta di distinguere tra chiavi diverse.\n \n #### Lista di trabocco\n \n Possiamo salvare nell'array **liste di coppie** chiave-valore; in caso di collisione, **aggiungo un nuovo elemento alla lista**.\n \n In media, ciascuna di queste liste conterrà `elementi_inseriti / dimensione_tabella` elementi.\n \n #### Indirizzamento aperto\n \n Possiamo decidere di mettere le coppie che non trovano posto nel loro indice in **un altro indirizzo vuoto** dell'array.\n \n Ci sono diversi modi in cui decidere il nuovo indirizzo, ognuno con vantaggi e svantaggi: si può scegliere quello successivo, oppure il primo vuoto dell'array, oppure un indirizzo casuale.\n \n > Python, nei `dict`, usa indirizzamento aperto pseudorandom.\n \n ### Costo computazionale\n \n - Aggiungere una chiave: `O(n)`\n - Trovare una chiave: `O(n)`\n - Eliminare una chiave: `O(n)`\n ")),n(o.q,null,n(o.o,null,"\n # Programmazione dinamica\n \n La _programmazione dinamica_ è una **tecnica** di programmazione che prevede l'**estensione di una soluzione ottima precedente**.\n \n Tutti i problemi in cui si può applicare si possono risolvere anche con la **ricorsione**, ma a differenza della ricorsione, questa tecnica riesce ad evitare di ricalcolare la soluzione per ogni chiamata ricorsiva, ottenendo quindi tempi molto migliori.\n \n Si può applicare solo se un problema ha una **sottostruttura ottimale**, ovvero se la soluzione ottima di un sottoproblema è inclusa nella soluzione ottima del problema. \n \n ## Esempi\n \n - _Problema dello zaino_\n - ...\n \n > Il cammino minimo per raggiungere un nodo in un DAG è dato da `arco.costo + arco.primo_nodo.costo_cammino_minimo()`.\n >\n > ```python\n > def SPD_PD(graph, start):\n > distance = [float(inf) for node in graph.nodes]:\n > distance[start] = 0\n > # I nodi devono essere in ordine di linearizzazione\n > for node in graph.nodes:\n > distance[node] = min([(arc.cost + distance[arc.other(node)] for arc in node.connections])\n > ```\n \n > Ho una sequenza di interi da `a_1` a `a_n`. Voglio trovare la sottosequenza crescente più lunga.\n >\n > 5 2 3 4 7 3 6 3 1 6\n >\n > Trovo tutte le sequenze lunghe 1, e le rendo nodi di un grafo diretto.\n >\n > Da ogni nodo, creo una connessione verso i suoi maggiori.\n >\n > Infine, cerco i cammini massimi del grafo. \n > \n > Essi saranno la soluzione del problema.\n \n > Trova la lunghezza della sottosequenza più lunga che termina con `j`.\n >\n > `L[j]` = lunghezza della sottosequenza più lunga che termina in `j`\n > \n > ```python\n > L[j] = max([1 + L[node] for arc in node.connections)]\n > ```\n >\n > Esempio:\n > ```python\n > L[9] = max([1+L[8], 1+L[3], 1+L[6]])\n > ```\n ")),n(o.q,null,n(o.o,null,"\n # Problema dello zaino\n \n Il problema dello zaino è un problema _pseudo-trattabile_: non abbiamo dimostrazioni di se sia trattabile o intrattabile.\n \n ## Descrizione\n \n > Sei un ladro, e devi mettere **più refurtiva possibile** nello zaino per scappare. \n > Lo zaino può portare **al massimo `dim` kili**.\n >\n > **Quali** (e quanti) oggetti scegli?\n \n | Input | Output |\n |-------|--------|\n | `dim`ensione_zaino, `n`umero_oggetti, `oggetto.peso`, `oggetto.valore` | `profitto_massimo` |\n \n ## Categorie\n \n ### Problema con ripetizione\n \n Puoi prendere **tutte le copie che vuoi** di un oggetto.\n \n #### Soluzione\n \n `K(dim)` è il valore massimo ottenibile con uno zaino di capacità `dim`.\n \n > Se `i` appartenesse alla soluzione ottima, allora `K(dim) = i.valore + K(dim - i.peso)`...\n \n Possiamo dire che `K(dim) = max(i.valore + K(dim - i.peso))`.\n \n Inoltre, `K(0) = 0`.\n \n Ci salviamo tutte le soluzioni da `K(0)` a `K(dim)`, e le usiamo per calcolare il massimo in seguito.\n \n Calcolare `K(dim)` avrà allora un costo di `O(n * dim)`:\n - `n`, perchè trovare il massimo è un'operazione lineare\n - `dim`, perchè `dim` sono tutti i casi tra i quali devo andare a provare\n \n Il costo computazionale, allora, è in `O(n * dim)`. \n \n Però, il **tempo richiesto** dal nostro algoritmo dipende non dalla lunghezza dell'input, bensì dal **valore numerico** di `dim`, che corrisponde alla dimensione dell'array delle soluzioni. \n Allora, si dice che l'algoritmo è in **tempo _pseudo-polinomiale_**.\n \n ### Problema senza ripetizione\n \n Si può prendere **ogni oggetto una volta sola**.\n \n #### Soluzione _bruteforce_\n \n Scelgo se prendere o no l'item 1.\n \n Si creano due percorsi:\n - Non prendo l'oggetto: `valore = 0, peso = 0`\n - Prendo l'oggetto: `valore = oggetto.valore, peso = oggetto.peso`\n \n Continuo a creare percorsi, creando una specie di albero binario.\n \n Se a un certo punto vedo che `valore = x, peso = K` e `valore < x, peso = K`, allora posso escludere automaticamente tutto il sottoalbero destro, perchè non può essere migliore del sinistro: allora, sarò riuscito a ridurre il numero dei casi rispetto alla ricorsione.\n \n ### Problema in due variabili\n \n `K(j, w)` = massimo valore ottenibile con uno zaino di capacità `w` scegliendo gli item da `1` a `j`.\n \n Non possiamo più applicare la soluzione bruteforce, perchè abbiamo due variabili, `j` e `w`.\n \n Allora, prendo l'elemento `j`. Esso può essere o non essere nella soluzione: mi calcolo entrambe le alternative, e mi tengo l'alternativa dal valore più alto.\n \n Se `j` non è nella soluzione, il risultato diventerà `K(j-1, w)`; se invece è nella soluzione, il risultato sarà `j.valore + K(j-1, w-j.peso)`.\n \n In pratica, prendiamo\n \n ```latex\n K(j, w) = max\n \\begin{cases}\n V_j + K(j-1, w-w_j)\n K(j-1, w)\n \\end{cases}\n ```\n \n Costruisco allora una matrice con `j` su un asse e `w` sull'altro. \n Riempio le caselle con il valore di `K(j, w)`. \n Nella casella con `K(j, w)` avremo la soluzione ottima.\n \n Il tempo necessario per riempire tutte le caselle è nuovamente `O(n * w)`, ancora **pseudopolinomiale**.\n \n Per sapere che oggetti ho messo o no devo tenere traccia in qualche modo della catena del calcolo, usando, ad esempio, una pila.\n ")),n(o.q,null,n(o.o,null,"\n # Problemi intrattabili\n \n ## Problema di Set-Cover\n \n ### Input\n \n `U`niverso di `e`lementi\n \n `S`ottoinsieme di `s`ottoinsiemi di elementi di `U`\n \n ### Output\n \n Il minimo `S'`ottoinsieme di `s`ottoinsiemi che copra completamente `U`.\n \n ### Soluzione in `O(n^d)`\n \n Non c'è.\n \n ### Non-soluzione alternativa\n \n Faccio una scelta greedy, ma non posso dimostrare in alcun modo che la soluzione ottenuta sia quella ottima. \n Infatti, l'algoritmo non dà sempre la soluzione ottima, ma dà una soluzione accettabile in tempo polinomiale.\n \n Seleziono sempre il sottoinsieme che copre più elementi mancanti possibili.\n \n #### Costo computazionale\n \n `Costo greedy <= log(numero_elementi) * Costo ottimo`\n ")))}}.call(this,i("hosL").h)}}]);
|
|
//# sourceMappingURL=route-AlgoritmiEStruttureDati.chunk.e6f90.esm.js.map
|