From dfaf76b26788b02b743080cdfef3f9ee1be24582 Mon Sep 17 00:00:00 2001 From: Stefano Pigozzi Date: Wed, 6 Nov 2024 13:42:11 +0100 Subject: [PATCH] Add some more things --- .gitignore | 1 + .obsidian/app.json | 3 +- .obsidian/core-plugins.json | 47 ++-- .../plugins/obsidian-file-color/data.json | 59 ++-- ....md => dataset per supervised learning.md} | 1 + .../modello di supervised learning.md | 14 +- .../1 - Concetti base/perdita.md | 5 +- .../problema di classificazione binaria.md | 2 +- ...roblema di classificazione multi-classe.md | 2 +- .../problema di supervised learning.md | 25 +- .../1 - Concetti base/spazio delle ipotesi.md | 6 +- .../1 - Concetti base/testing set.md | 2 +- .../1 - Concetti base/★ concetti base.canvas | 2 +- ...… simboli per le basi di machine learning.md | 42 +-- .../derivabilità direzionale.md | 34 +-- .../derivata direzionale unilaterale.md | 40 ++- .../derivata parziale.md | 12 +- .../differenziabilità in un punto.md | 2 +- .../differenziabilità.md | 2 +- .../2 - Calcolo vettoriale/gradiente.md | 20 +- .../matrice Hessiana.md | 49 +++- .../matrice Iacobiana.md | 46 +-- .../2 - Calcolo vettoriale/regolarità.md | 10 +- .../varietà affine reale.md | 23 -- .../2 - Calcolo vettoriale/varietà affine.md | 30 ++ .../★ calcolo vettoriale.canvas | 4 +- .../★ simboli per il calcolo vettoriale.md | 27 +- ...igando il DualSense che non si connette.md | 35 +++ file-index.json | 86 +++--- preamble.sty | 265 +++++++++++++++--- 30 files changed, 612 insertions(+), 284 deletions(-) rename 7 - Fondamenti di machine learning/1 - Concetti base/{data set per supervised learning.md => dataset per supervised learning.md} (96%) delete mode 100644 7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine reale.md create mode 100644 7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine.md create mode 100644 9 - Kernel hacking/2 - Note di lavoro/Dualsense/Investigando il DualSense che non si connette.md diff --git a/.gitignore b/.gitignore index 0983cae..757259b 100644 --- a/.gitignore +++ b/.gitignore @@ -9,3 +9,4 @@ **/0 - Materiale di studio/ **/0 - Piano di studi/ +10 - Tirocinio diff --git a/.obsidian/app.json b/.obsidian/app.json index c9e868e..5688421 100644 --- a/.obsidian/app.json +++ b/.obsidian/app.json @@ -13,5 +13,6 @@ "showUnsupportedFiles": true, "newLinkFormat": "shortest", "trashOption": "system", - "promptDelete": false + "promptDelete": false, + "readableLineLength": true } \ No newline at end of file diff --git a/.obsidian/core-plugins.json b/.obsidian/core-plugins.json index 5a35deb..b23567d 100644 --- a/.obsidian/core-plugins.json +++ b/.obsidian/core-plugins.json @@ -1,16 +1,31 @@ -[ - "file-explorer", - "global-search", - "switcher", - "graph", - "backlink", - "canvas", - "outgoing-link", - "tag-pane", - "properties", - "templates", - "editor-status", - "bookmarks", - "outline", - "word-count" -] \ No newline at end of file +{ + "file-explorer": true, + "global-search": true, + "switcher": true, + "graph": true, + "backlink": true, + "canvas": true, + "outgoing-link": true, + "tag-pane": true, + "page-preview": false, + "daily-notes": false, + "templates": true, + "note-composer": false, + "command-palette": false, + "slash-command": false, + "editor-status": true, + "starred": false, + "markdown-importer": false, + "zk-prefixer": false, + "random-note": false, + "outline": true, + "word-count": true, + "slides": false, + "audio-recorder": false, + "workspaces": false, + "file-recovery": false, + "publish": false, + "sync": false, + "bookmarks": true, + "properties": true +} \ No newline at end of file diff --git a/.obsidian/plugins/obsidian-file-color/data.json b/.obsidian/plugins/obsidian-file-color/data.json index 0172036..420258d 100644 --- a/.obsidian/plugins/obsidian-file-color/data.json +++ b/.obsidian/plugins/obsidian-file-color/data.json @@ -14,6 +14,11 @@ "id": "fc3lLaITDn62PYbzBhqxl", "name": "To do", "value": "#d7a628" + }, + { + "id": "e_YcdvxbhfDN77-giOday", + "name": "Extra", + "value": "#53dfdd" } ], "fileColors": [ @@ -382,7 +387,7 @@ "color": "me4XBNQC4rwzQFLlvIAn0" }, { - "path": "7 - Introduction to quantum information processing/2 - Gates semplici/★ gates semplici.canvas", + "path": "7 - Introduction to quantum information processing/2 - Gates/★ gates.canvas", "color": "7j7Pqog0VHMVVAfazMNlb" }, { @@ -441,10 +446,6 @@ "path": "7 - Introduction to quantum information processing/0 - Materiale di studio/18 - Corso_QIP___Lesson_9__2022_.pdf", "color": "fc3lLaITDn62PYbzBhqxl" }, - { - "path": "7 - Introduction to quantum information processing/3 - Gates complessi/★ gates complessi.canvas", - "color": "7j7Pqog0VHMVVAfazMNlb" - }, { "path": "7 - Introduction to quantum information processing/4 - Modello computazionale/★ modello computazionale.canvas", "color": "7j7Pqog0VHMVVAfazMNlb" @@ -601,21 +602,45 @@ "path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ simboli per il calcolo vettoriale.md", "color": "7j7Pqog0VHMVVAfazMNlb" }, - { - "path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md", - "color": "fc3lLaITDn62PYbzBhqxl" - }, - { - "path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivata direzionale unilaterale.md", - "color": "fc3lLaITDn62PYbzBhqxl" - }, - { - "path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine reale.md", - "color": "fc3lLaITDn62PYbzBhqxl" - }, { "path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ calcolo vettoriale.canvas", "color": "7j7Pqog0VHMVVAfazMNlb" + }, + { + "path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine.md", + "color": "fc3lLaITDn62PYbzBhqxl" + }, + { + "path": "7 - Introduction to quantum information processing/1 - Concetti base/qbit e quaternioni.md", + "color": "e_YcdvxbhfDN77-giOday" + }, + { + "path": "7 - Introduction to quantum information processing/0 - Materiale di studio/XX - Synthesis of Quantum Logic Circuits.pdf", + "color": "e_YcdvxbhfDN77-giOday" + }, + { + "path": "7 - Introduction to quantum information processing/2 - Gates/X-axis rotation gate.md", + "color": "e_YcdvxbhfDN77-giOday" + }, + { + "path": "7 - Introduction to quantum information processing/2 - Gates/Y-axis rotation gate.md", + "color": "e_YcdvxbhfDN77-giOday" + }, + { + "path": "7 - Introduction to quantum information processing/2 - Gates/Z-axis rotation gate.md", + "color": "e_YcdvxbhfDN77-giOday" + }, + { + "path": "7 - Introduction to quantum information processing/2 - Gates/circuito quantistico.md", + "color": "fc3lLaITDn62PYbzBhqxl" + }, + { + "path": "7 - Introduction to quantum information processing/2 - Gates/Pauli Y gate.md", + "color": "fc3lLaITDn62PYbzBhqxl" + }, + { + "path": "7 - Introduction to quantum information processing/2 - Gates/universal gate.md", + "color": "fc3lLaITDn62PYbzBhqxl" } ] } \ No newline at end of file diff --git a/7 - Fondamenti di machine learning/1 - Concetti base/data set per supervised learning.md b/7 - Fondamenti di machine learning/1 - Concetti base/dataset per supervised learning.md similarity index 96% rename from 7 - Fondamenti di machine learning/1 - Concetti base/data set per supervised learning.md rename to 7 - Fondamenti di machine learning/1 - Concetti base/dataset per supervised learning.md index 7205317..f75ff40 100644 --- a/7 - Fondamenti di machine learning/1 - Concetti base/data set per supervised learning.md +++ b/7 - Fondamenti di machine learning/1 - Concetti base/dataset per supervised learning.md @@ -1,6 +1,7 @@ --- aliases: - data set + - dataset --- [[insieme]] di [[coppie]] [[input]]-[[output]] per un [[modello di supervised learning]]. $$ diff --git a/7 - Fondamenti di machine learning/1 - Concetti base/modello di supervised learning.md b/7 - Fondamenti di machine learning/1 - Concetti base/modello di supervised learning.md index 38834ed..f78185d 100644 --- a/7 - Fondamenti di machine learning/1 - Concetti base/modello di supervised learning.md +++ b/7 - Fondamenti di machine learning/1 - Concetti base/modello di supervised learning.md @@ -16,12 +16,16 @@ $$ = \min_{\fmlClassifier \in \fmlHypothesisSpace} \ -\sum_{(\fmlInput,\ \fmlOutput) \in D} +\sum_{(\fmlInput{\fmlDatasetIndex},\ \fmlOutput{\fmlDatasetIndex}) \in D} \par{ - V(\fmlOutput, \fmlClassifier(\fmlInput))) + \fmlLoss \par{ + \fmlOutput{\fmlDatasetIndex},\ \fmlClassifier(\fmlInput{\fmlDatasetIndex}) + } + - \fmlComplexity - \cdot - \abs{f}^2 + \par{ + \fmlComplexityCoefficient + \cdot + \abs{\fmlClassifier}^2 + } } $$ diff --git a/7 - Fondamenti di machine learning/1 - Concetti base/perdita.md b/7 - Fondamenti di machine learning/1 - Concetti base/perdita.md index 3e2f937..d22fb92 100644 --- a/7 - Fondamenti di machine learning/1 - Concetti base/perdita.md +++ b/7 - Fondamenti di machine learning/1 - Concetti base/perdita.md @@ -12,5 +12,8 @@ Misura quanto si allontana il [[classificatore]] dal risultato desiderato. $$ \Large -\fmlLoss(\fmlOutput, \fmlClassifier(\fmlInput)) +\fmlLoss \par{ + \fmlOutput,\ + \fmlClassifier (\fmlInput{\fmlDatasetIndex}) +} $$ diff --git a/7 - Fondamenti di machine learning/1 - Concetti base/problema di classificazione binaria.md b/7 - Fondamenti di machine learning/1 - Concetti base/problema di classificazione binaria.md index cb0000a..c7e6bbf 100644 --- a/7 - Fondamenti di machine learning/1 - Concetti base/problema di classificazione binaria.md +++ b/7 - Fondamenti di machine learning/1 - Concetti base/problema di classificazione binaria.md @@ -2,5 +2,5 @@ $$ \Huge -\fmlOutputField = \hsh{ -1, 1 } +\fmlOutputField = \set{ -1, 1 } $$ diff --git a/7 - Fondamenti di machine learning/1 - Concetti base/problema di classificazione multi-classe.md b/7 - Fondamenti di machine learning/1 - Concetti base/problema di classificazione multi-classe.md index e45ea3f..76d91c9 100644 --- a/7 - Fondamenti di machine learning/1 - Concetti base/problema di classificazione multi-classe.md +++ b/7 - Fondamenti di machine learning/1 - Concetti base/problema di classificazione multi-classe.md @@ -2,5 +2,5 @@ $$ \Huge -\fmlOutputField = \hsh{ 1, 2, \dots, N } +\fmlOutputField = \set{ 1, 2, \dots, N } $$ diff --git a/7 - Fondamenti di machine learning/1 - Concetti base/problema di supervised learning.md b/7 - Fondamenti di machine learning/1 - Concetti base/problema di supervised learning.md index dd13905..ab8048e 100644 --- a/7 - Fondamenti di machine learning/1 - Concetti base/problema di supervised learning.md +++ b/7 - Fondamenti di machine learning/1 - Concetti base/problema di supervised learning.md @@ -1,33 +1,16 @@ [[problema di minimizzazione]]. -Si vuole determinare un [[classificatore]] che minimizzi una [[perdita|funzione perdita]] e una [[complessità]]. +Si vuole determinare un [[classificatore]] che minimizzi una certa [[perdita|funzione perdita]] e una certa [[complessità]]. -$$ -\Large -\fmlModel -= -\min_{\fmlClassifier \in \fmlHypothesisSpace} -\par{ - \sum_{i=1}^N - \fmlLoss(\fmlOutput, \fmlClassifier(\fmlInput)) - + - \par{ - \fmlComplexityCoefficient - \cdot - \fmlComplexity(\fmlClassifier) - } -} -$$ - -Per scegliere il modello, vengono usati [[campione|campioni]] di coppie [[input]]-[[output]] conosciute, detti [[data set per supervised learning|data set]]. +A tale scopo, si crea un [[modello di supervised learning]], al quale vengono dati in input usati [[campione|campioni]] di coppie [[input]]-[[output]] conosciute, detti [[dataset per supervised learning|data set]]. $$ \Large \fmlDataset \in (\fmlInputField, \fmlOutputField)^{\fmlDatasetSize} $$ -Il [[campo matematico]] di tutti i modelli possibili è detto [[spazio delle ipotesi]]. +Il [[campo matematico]] di tutti i classificatori ammissibili è detto [[spazio delle ipotesi]]. $$ \Large -f \in \fmlHypothesisSpace +\fmlClassifier \in \fmlHypothesisSpace $$ diff --git a/7 - Fondamenti di machine learning/1 - Concetti base/spazio delle ipotesi.md b/7 - Fondamenti di machine learning/1 - Concetti base/spazio delle ipotesi.md index 5faf975..491d344 100644 --- a/7 - Fondamenti di machine learning/1 - Concetti base/spazio delle ipotesi.md +++ b/7 - Fondamenti di machine learning/1 - Concetti base/spazio delle ipotesi.md @@ -1,8 +1,12 @@ [[codominio]] di un [[problema di supervised learning]]. +$$ +\Huge +\fmlHypothesisSpace +$$ Le funzioni aventi come [[0 - Generale/dominio|dominio]] $\mathbb{X}^n$ e come [[codominio]] $\mathbb{Y}$: $$ -\Huge +\Large \mathcal{H} = \mathbb{X}^n \to \mathbb{Y} $$ diff --git a/7 - Fondamenti di machine learning/1 - Concetti base/testing set.md b/7 - Fondamenti di machine learning/1 - Concetti base/testing set.md index 94a5098..5d5cef8 100644 --- a/7 - Fondamenti di machine learning/1 - Concetti base/testing set.md +++ b/7 - Fondamenti di machine learning/1 - Concetti base/testing set.md @@ -3,7 +3,7 @@ aliases: - test set --- -[[data set per supervised learning]] usato per [[benchmarking]] in un [[problema di supervised learning]]. +[[dataset per supervised learning]] usato per [[benchmarking]] in un [[problema di supervised learning]]. $$ \Huge \fmlDatasetTest diff --git a/7 - Fondamenti di machine learning/1 - Concetti base/★ concetti base.canvas b/7 - Fondamenti di machine learning/1 - Concetti base/★ concetti base.canvas index e57d764..0a94ca0 100644 --- a/7 - Fondamenti di machine learning/1 - Concetti base/★ concetti base.canvas +++ b/7 - Fondamenti di machine learning/1 - Concetti base/★ concetti base.canvas @@ -2,7 +2,7 @@ "nodes":[ {"id":"aa08ea82fd2ff1df","type":"file","file":"9 - Algoritmi distribuiti/1 - Problemi algoritmici/problema di minimizzazione.md","x":-960,"y":-1360,"width":400,"height":400}, {"id":"158d8da07bba10f9","type":"file","file":"7 - Fondamenti di machine learning/1 - Concetti base/problema di supervised learning.md","x":-960,"y":-800,"width":400,"height":400}, - {"id":"a28d708ff4f64391","type":"file","file":"7 - Fondamenti di machine learning/1 - Concetti base/data set per supervised learning.md","x":-1520,"y":-800,"width":400,"height":400}, + {"id":"a28d708ff4f64391","type":"file","file":"7 - Fondamenti di machine learning/1 - Concetti base/dataset per supervised learning.md","x":-1520,"y":-800,"width":400,"height":400}, {"id":"9ebbcb1a4cb0f500","type":"file","file":"7 - Fondamenti di machine learning/1 - Concetti base/training set.md","x":-2080,"y":-980,"width":400,"height":200}, {"id":"099a5e4ec9accaf5","type":"file","file":"7 - Fondamenti di machine learning/1 - Concetti base/testing set.md","x":-2080,"y":-700,"width":400,"height":200}, {"id":"84aff7b9f416b138","type":"file","file":"7 - Fondamenti di machine learning/1 - Concetti base/validation set.md","x":-2080,"y":-420,"width":400,"height":200}, diff --git a/7 - Fondamenti di machine learning/1 - Concetti base/★ simboli per le basi di machine learning.md b/7 - Fondamenti di machine learning/1 - Concetti base/★ simboli per le basi di machine learning.md index 3a89bf0..ce49161 100644 --- a/7 - Fondamenti di machine learning/1 - Concetti base/★ simboli per le basi di machine learning.md +++ b/7 - Fondamenti di machine learning/1 - Concetti base/★ simboli per le basi di machine learning.md @@ -1,22 +1,22 @@ -| Simbolo | Significato | -| --------------------------: | ---------------------------------------------------------------- | -| $\fmlDataset$ | [[data set per supervised learning]] | -| $\fmlDatasetSize$ | [[cardinalità]] di $\fmlDataset$ | -| $\fmlInputs$ | [[array]] di [[array\|vettori]] degli [[input]] di $\fmlDataset$ | -| $\fmlIndex$ | [[indice]] da $1$ a $\ | -| $\fmlInput$ | $\fmlIndex$-esimo [[array]] di $\fmlInputs$ | -| $\fmlInputSize$ | [[cardinalità di un insieme\|cardinalità]] di $\fmlInput$ | -| $\fmlInputField$ | [[campo matematico]] di $\fmlInput$ | -| $\fmlElementIndex$ | [[indice]] di $\fmlInput$ | -| $\fmlInputElement$ | $\fmlElementIndex$-esimo [[scalare]] di $\fmlInput$ | -| $\fmlInputElementField$ | [[campo matematico]] di $\fmlInputElement$ | -| $\fmlOutputs$ | [[array]] degli [[output]] di $\fmlDataset$ | -| $\fmlOutput$ | $\fmlIndex$-esimo [[scalare]] di $\fmlOutputs$ | -| $\fmlOutputField$ | [[campo matematico]] di $\fmlOutput$ | -| $\fmlClassifier$ | [[classificatore]] | -| $\fmlModel$ | [[modello di supervised learning]] | -| $\fmlHypothesisSpace$ | [[spazio delle ipotesi]] | -| $\fmlComplexity$ | [[complessità]] | -| $\fmlComplexityCoefficient$ | [[coefficiente di complessità]] | -| $\fmlLoss$ | [[perdita]] | +| Simbolo | Significato | +| ----------------------------------------------------------: | ----------------------------------------------------------------------------------- | +| $\fmlDataset$ | [[dataset per supervised learning]] | +| $\fmlDatasetSize$ | [[cardinalità]] di $\fmlDataset$ | +| $\fmlInputs$ | [[array]] di [[array\|vettori]] degli [[input]] di $\fmlDataset$ | +| $\fmlDatasetIndex$ | [[indice]] da $1$ a $\ | +| $\fmlInput{\fmlDatasetIndex}$ | $\fmlDatasetIndex$-esimo [[array]] di $\fmlInputs$ | +| $\fmlInputSize$ | [[cardinalità di un insieme\|cardinalità]] di $\fmlInput{\fmlDatasetIndex}$ | +| $\fmlInputField$ | [[campo matematico]] di $\fmlInput{\fmlDatasetIndex}$ | +| $\fmlInputElementIndex$ | [[indice]] di $\fmlInput{\fmlDatasetIndex}$ | +| $\fmlInputElement{\fmlDatasetIndex}{\fmlInputElementIndex}$ | $\fmlInputElementIndex$-esimo [[scalare]] di $\fmlInput{\fmlDatasetIndex}$ | +| $\fmlInputElementField$ | [[campo matematico]] di $\fmlInputElement{\fmlDatasetIndex}{\fmlInputElementIndex}$ | +| $\fmlOutputs$ | [[array]] degli [[output]] di $\fmlDataset$ | +| $\fmlOutput{\fmlDatasetIndex}$ | $\fmlDatasetIndex$-esimo [[scalare]] di $\fmlOutputs$ | +| $\fmlOutputField$ | [[campo matematico]] di $\fmlOutput{\fmlDatasetIndex}$ | +| $\fmlClassifier$ | [[classificatore]] | +| $\fmlModel$ | [[modello di supervised learning]] | +| $\fmlHypothesisSpace$ | [[spazio delle ipotesi]] | +| $\fmlComplexity$ | [[complessità]] | +| $\fmlComplexityCoefficient$ | [[coefficiente di complessità]] | +| $\fmlLoss$ | [[perdita]] | diff --git a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivabilità direzionale.md b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivabilità direzionale.md index 3542bb2..88ffed7 100644 --- a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivabilità direzionale.md +++ b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivabilità direzionale.md @@ -7,36 +7,10 @@ aliases: [[proprietà]] di una [[funzione]]. $$ \Huge -\derivativeDirectionalSimple{x}{s} +\derivativeDirectionalOf{x}{s} $$ Una [[funzione]] ha questa [[proprietà]] rispetto alla [[direzione]] $s$ in $x_0$ quando: -- $\derivativeDirectionalSimple{x}{s}$ e $\derivativeDirectionalSimple{x}{-s}$ esistono -- $\derivativeDirectionalSimple{x}{s}$ e $\derivativeDirectionalSimple{x}{-s}$ sono finite -- $\derivativeDirectionalSimple{x}{s}$ e $\derivativeDirectionalSimple{x}{-s}$ sono uguali - -## Calcolo - -Consideriamo la [[varietà affine reale]]: -$$ -\varietyAffine{c} = x_0 + c \cdot s -$$ - -Se una [[funzione]] $f$ è [[differenziabilità|differenziabile]], allora esistono le [[derivata parziale|derivate parziali]]: -$$ -\displaylines{ - \forall \par{ - {\color{cyan} direzione} - \in - \hsh{1 \dots \fmlInputSize}_{\mathbb{N}} - } - : - \exists \par{ - \derivativePartial{x}{{\color{cyan} direzione}} - } -} -$$ -Inoltre, ==esiste la [[varietà affine reale]]==: -$$ -\varietyAffine[X_i]{a} -$$ \ No newline at end of file +- $\derivativeDirectionalOf{x}{s}$ e $\derivativeDirectionalOf{x}{-s}$ esistono +- $\derivativeDirectionalOf{x}{s}$ e $\derivativeDirectionalOf{x}{-s}$ sono finite +- $\derivativeDirectionalOf{x}{s}$ e $\derivativeDirectionalOf{x}{-s}$ sono uguali diff --git a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivata direzionale unilaterale.md b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivata direzionale unilaterale.md index ca960d5..e4a724c 100644 --- a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivata direzionale unilaterale.md +++ b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivata direzionale unilaterale.md @@ -1,18 +1,30 @@ Concetto di [[derivata]] applicato ai [[array|vettori]]. $$ \Huge -\derivativeDirectionalSimple[f]{x}{s} +\derivativeDirectionalOf{x}{s} $$ È implicato che sia sempre la derivata positiva: $$ \Large \Huge -\derivativeDirectionalSimple[\color{lime} f]{{\color{cyan} x}}{{\color{orange} s}} +\derivativeDirectionalOf + [\color{lime} \mathrm{f}] + {\color{cyan} x} + {\color{orange} +s} = -\lim_{\smol \to 0^+} -\frac{ - {\color{lime} f}({\color{cyan} x} + \smol \cdot {\color{orange} s}) - {\color{lime} f}({\color{cyan} x}) +\lim_{\smol \to 0^{\color{orange} +}} +\frac + { + {\color{lime} \mathrm{f}} + \par{ + {\color{cyan} x} + \smol \cdot {\color{orange} s} + } + - + {\color{lime} \mathrm{f}} + \par{ + {\color{cyan} x} + } }{ \smol } @@ -21,13 +33,21 @@ $$ La derivata negativa è invece definita come: $$ \Large --\derivativeDirectionalSimple[\color{lime} f]{{\color{cyan} x}}{{\color{orange} -s}} +\derivativeDirectionalOf[\color{lime} -f]{{\color{cyan} x_0}}{{\color{orange} -s}} = -\lim_{\smol \to 0^-} -\frac{ - {\color{lime} f}({\color{cyan} x} + \smol \cdot {\color{orange} s}) - {\color{lime} f}({\color{cyan} x}) +\lim_{\smol \to 0^{\color{orange} -}} +\frac + { + {\color{lime} \mathrm{f}} + \par{ + {\color{cyan} x} + \smol \cdot {\color{orange} s} + } + - + {\color{lime} \mathrm{f}} + \par{ + {\color{cyan} x} + } }{ \smol } $$ -==Perchè così tante negazioni? La s non va negata?== diff --git a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivata parziale.md b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivata parziale.md index 452dc78..4b23c3d 100644 --- a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivata parziale.md +++ b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivata parziale.md @@ -1,13 +1,19 @@ Particolare [[derivabilità direzionale|derivata direzionale]]. $$ \Huge -\derivativePartial{x}{\fmlElementIndex} +\derivativePartial + {\mathbf{x}} + {\fmlInputElementIndex} $$ È determinata rispetto a uno specifico [[array|vettore]] della [[base canonica]]: $$ \Large -\derivativePartial{x}{\color{cyan} \fmlElementIndex} +\derivativePartial + {x} + {\color{cyan} \fmlInputElementIndex} = -\derivativeDirectional{x}{\basisCanonElement[\color{cyan} \fmlElementIndex]} +\derivativeDirectional + {x} + {\basisCanonElement{\color{cyan} \fmlInputElementIndex}} $$ diff --git a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/differenziabilità in un punto.md b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/differenziabilità in un punto.md index 2c1a21e..af6acc4 100644 --- a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/differenziabilità in un punto.md +++ b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/differenziabilità in un punto.md @@ -11,4 +11,4 @@ Una [[funzione]] ha questa proprietà rispetto in $x_0$ quando: - per qualsiasi direzione $s$, la [[funzione]] ha [[derivabilità direzionale]]. Per via delle proprietà della [[base canonica]], questo è equivalente a dire che: -- per qualsiasi [[array|vettore]] $\basisCanonElement$ della [[base canonica]] $\basisCanon$, la [[funzione]] ha [[derivabilità direzionale]]. +- per qualsiasi [[array|vettore]] $\basisCanonElement{i}$ della [[base canonica]] $\basisCanon$, la [[funzione]] ha [[derivabilità direzionale]]. diff --git a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/differenziabilità.md b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/differenziabilità.md index 14c82b2..a567a81 100644 --- a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/differenziabilità.md +++ b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/differenziabilità.md @@ -9,7 +9,7 @@ Una funzione ha questa proprietà quando: - per qualsiasi direzione $s$ o punto $x$, la funzione ha [[derivabilità direzionale]]. Per via delle proprietà della [[base canonica]], questo è equivalente a dire che: -- per qualsiasi [[array|vettore]] $\basisCanonElement$ della [[base canonica]] $\basisCanon$ o punto $x$, la funzione ha [[derivabilità direzionale]]. +- per qualsiasi [[array|vettore]] $\basisCanonElement{i}$ della [[base canonica]] $\basisCanon$ o punto $x$, la funzione ha [[derivabilità direzionale]]. Per via della definizione del [[gradiente]], questo è equivalente a dire che: - per qualsiasi punto $x$, esiste un [[gradiente]]. diff --git a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/gradiente.md b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/gradiente.md index e301300..da45829 100644 --- a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/gradiente.md +++ b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/gradiente.md @@ -1,20 +1,28 @@ [[vettore colonna]]. $$ \Huge -\derivativeGradientSimple{x} +\gradientOf{\mathbf{x}} $$ Contiene le [[derivata parziale|derivate parziali]] per tutti gli elementi della [[base canonica]]. $$ \Large -\derivativeGradientSimple{x} +\gradientOf{\mathbf{x}} = \begin{bmatrix} - \derivativePartial{x}{1}\\ - \derivativePartial{x}{2}\\ - \derivativePartial{x}{3}\\ + \derivativePartial + {x} + {1}\\ + \derivativePartial + {x} + {2}\\ + \derivativePartial + {x} + {3}\\ \vdots\\ - \derivativePartial{x}{\fmlInputSize}\\ + \derivativePartial + {x} + {\fmlInputSize}\\ \end{bmatrix} $$ diff --git a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Hessiana.md b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Hessiana.md index 3e9ffb1..244f5bc 100644 --- a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Hessiana.md +++ b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Hessiana.md @@ -5,30 +5,57 @@ aliases: Particolare [[matrice]] [[matrice quadrata|quadrata]] e [[matrice simmetrica|simmetrica]] definita relativa a una [[funzione]] dalla [[regolarità]] di almeno secondo ordine e una [[variabile]], di ordine uguale a quello della [[base canonica]] del [[0 - Generale/dominio|dominio]] della [[funzione]]. $$ \Huge -\hessianSimple{x} +\hessianOf{\mathbf{x}} $$ I suoi elementi sono definiti come le $(riga,colonna)$-esime [[derivata parziale|derivate parziali]] della [[funzione]] $f$: $$ \Large -\hessianSimple{x} +\hessianOf{x} = \begin{bmatrix} - \hessianElement{x}{1}{1} & - \hessianElement{x}{1}{2} & + \hessianElement + {x} + {1} + {1} & + \hessianElement + {x} + {1} + {2} & \dots & - \hessianElement{x}{1}{N} \\ - \hessianElement{x}{2}{1} & - \hessianElement{x}{2}{2} & + \hessianElement + {x} + {1} + {N} \\ + \hessianElement + {x} + {2} + {1} & + \hessianElement + {x} + {2} + {2} & \dots & - \hessianElement{x}{2}{N} \\ + \hessianElement + {x} + {2} + {N} \\ \vdots & \vdots & \ddots & \vdots \\ - \hessianElement{x}{N}{1} & - \hessianElement{x}{N}{2} & + \hessianElement + {x} + {N} + {1} & + \hessianElement + {x} + {N} + {2} & \dots & - \hessianElement{x}{N}{N} \\ + \hessianElement + {x} + {N} + {N} \end{bmatrix} $$ diff --git a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md index 9539709..b50744e 100644 --- a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md +++ b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md @@ -6,38 +6,46 @@ Particolare [[matrice]] definita relativa a una [[funzione]] i cui [[output]] so $$ \Huge -\iacobianSimple{x} +\iacobianOf{\mathbf{x}} $$ -==Controllare che sia giusto.== I suoi elementi sono definiti come le $colonna$-esime [[derivata parziale|derivate parziali]] della funzione $f$ rispetto all'elemento $riga$-esimo in output: +Corrisponde alla [[trasposta]] del [[vettore riga]] risultante come [[gradiente]] di $\mathrm{f}(x)$: $$ \Large -\iacobianSimple{x} +\iacobianOf{x} += +\gradientOf{x} = \begin{bmatrix} - \derivativePartialOutput{x}{1}{1} & - \derivativePartialOutput{x}{1}{2} & + \gradientOf[\mathrm{f}_1]{x} & + \gradientOf[\mathrm{f}_2]{x} & \dots & - \derivativePartialOutput{x}{1}{n} \\ - \derivativePartialOutput{x}{2}{1} & - \derivativePartialOutput{x}{2}{2} & + \gradientOf[\mathrm{f}_M]{x} +\end{bmatrix} +$$ + +I suoi elementi sono definiti come le $colonna$-esime [[derivata parziale|derivate parziali]] della funzione $f$ rispetto all'elemento $riga$-esimo in output: +$$ +\Large +\iacobianOf{x} += +\begin{bmatrix} + \iacobianElement{x}{1}{1} & + \iacobianElement{x}{1}{2} & \dots & - \derivativePartialOutput{x}{2}{n} \\ + \iacobianElement{x}{1}{n} \\ + \iacobianElement{x}{2}{1} & + \iacobianElement{x}{2}{2} & + \dots & + \iacobianElement{x}{2}{n} \\ \vdots & \vdots & \ddots & \vdots \\ - \derivativePartialOutput{x}{M}{1} & - \derivativePartialOutput{x}{M}{2} & + \iacobianElement{x}{M}{1} & + \iacobianElement{x}{M}{2} & \dots & - \derivativePartialOutput{x}{M}{n} \\ + \iacobianElement{x}{M}{n} \\ \end{bmatrix} $$ -In particolare, abbiamo che: -$$ -\Large -\iacobianSimple{x} -= -\derivativeGradientSimple{x}' -$$ diff --git a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/regolarità.md b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/regolarità.md index 9c123d0..26da8c2 100644 --- a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/regolarità.md +++ b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/regolarità.md @@ -10,7 +10,7 @@ aliases: [[proprietà]] di una [[funzione]], che generalizza la [[differenziabilità]]. $$ \Huge -f \in \continueField +f \in \continueField{1} $$ Una funzione ha questa proprietà quando: @@ -22,8 +22,8 @@ Se anche la [[derivata parziale]] della funzione è una [[regolarità|regolare]] $$ \Large \displaylines{ - f' \in \continueField \\ - f \in \continueField[2] + f^{(1)} \in \continueField{1} \\ + f \in \continueField{2} } $$ @@ -31,7 +31,7 @@ Generalizzando ulteriormente: $$ \Large \displaylines{ - f^{(n)} \in \continueField \\ - f \in \continueField[n] + f^{(z)} \in \continueField{1} \\ + f \in \continueField{z} } $$ diff --git a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine reale.md b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine reale.md deleted file mode 100644 index 4ab8f18..0000000 --- a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine reale.md +++ /dev/null @@ -1,23 +0,0 @@ ---- -aliases: - - affine variety ---- -[[Insieme]] di [[punto|punti]] in $\mathbb{R}^n$. - -$$ -\Huge -\varietyAffine{c} -$$ - -I [[punto|punti]] sono determinati da una specifica [[traslazione]] di un [[punto]] iniziale per una specifica [[base matematica|base]] scalata per un numero reale. - -$$ -\Large -\varietyAffine{c} = x_0 + (c \cdot s) -$$ - -> [!Nota] -> In $\mathbb{R}^3$ è una [[retta]]. ==O in tutti i numeri reali?== ==Posso immaginare che nei complessi sia un piano...== - -> [!Tip] -> ==In realtà è una [[funzione]] che restituisce un punto dell'[[insieme]]...== diff --git a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine.md b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine.md new file mode 100644 index 0000000..2c6da8e --- /dev/null +++ b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine.md @@ -0,0 +1,30 @@ +--- +aliases: + - affine variety +--- +[[Insieme]] di [[punto|punti]] in $\mathbb{R}^{\fmlDatasetSize}$ ==giusto?==. + +$$ +\Huge +\affineVariety + {X} + {d} +$$ + +I [[punto|punti]] sono determinati da una specifica [[traslazione]] di un [[punto]] iniziale per una specifica [[base matematica|base]] scalata per tutti i numeri reali esistenti. +$$ +\Large +\displaylines{ + \forall\ {\color{orange} c} + \in \mathbb{R} : + \\ + x_0 + \par{{\color{orange} c} \cdot d} + \in \affineVariety{x}{d} +} +$$ + +> [!Nota] +> Per $\mathbf{x} \in \mathbb{R}^{\fmlDatasetSize}$ ==giusto?==, la varietà affine è sempre una [[retta]]. + +> [!Question] +> Se $\mathbf{x} \in \mathbb{C}^{\fmlDatasetSize}$ la varietà affine cambia sicuramente forma, ma cosa diventa? diff --git a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ calcolo vettoriale.canvas b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ calcolo vettoriale.canvas index 7d296a2..b819065 100644 --- a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ calcolo vettoriale.canvas +++ b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ calcolo vettoriale.canvas @@ -1,6 +1,6 @@ { "nodes":[ - {"id":"ebcbe217d83e0e9f","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine reale.md","x":-480,"y":-480,"width":400,"height":400}, + {"id":"ebcbe217d83e0e9f","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine.md","x":-640,"y":-480,"width":720,"height":400}, {"id":"fdb6fa9ce7c20562","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivata direzionale unilaterale.md","x":-640,"y":80,"width":720,"height":400}, {"id":"521f5249b09e89c0","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivabilità direzionale.md","x":-640,"y":640,"width":720,"height":400}, {"id":"f48d08c563e4ddd8","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivata parziale.md","x":-640,"y":1200,"width":720,"height":400}, @@ -8,7 +8,7 @@ {"id":"2144c3dd20108bba","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/differenziabilità.md","x":-640,"y":2320,"width":720,"height":400}, {"id":"cc7adce67dbf5e26","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/regolarità.md","x":-640,"y":2880,"width":720,"height":400}, {"id":"9a420d351662d679","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Hessiana.md","x":240,"y":2880,"width":720,"height":400}, - {"id":"aa4aa530cb8f448e","x":240,"y":2320,"width":720,"height":400,"type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md"} + {"id":"aa4aa530cb8f448e","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md","x":240,"y":2320,"width":720,"height":400} ], "edges":[ {"id":"7961409b3e9f8878","fromNode":"ebcbe217d83e0e9f","fromSide":"bottom","toNode":"fdb6fa9ce7c20562","toSide":"top"}, diff --git a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ simboli per il calcolo vettoriale.md b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ simboli per il calcolo vettoriale.md index 2b95e63..720553b 100644 --- a/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ simboli per il calcolo vettoriale.md +++ b/7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ simboli per il calcolo vettoriale.md @@ -1,12 +1,15 @@ -| Simbolo | Significato | -| -----------------------------------: | ----------------------------------------------------------------- | -| $\basisCanon$ | [[base canonica]] | -| $\basisCanonElement$ | $i$-esimo elemento della [[base canonica]] | -| $\smol$ | [[infinitesimo]] | -| | | -| $\derivativeDirectionalSimple{x}{s}$ | [[derivata direzionale unilaterale]] | -| $\derivativeDirectional{x}{s}$ | [[derivata direzionale]] in $x_0$ per $s$ | -| $\derivativePartial{x}{i}$ | $i$-esima [[derivata parziale]] | -| $\derivativeGradientSimple{x}$ | [[gradiente]] | -| $\continueField[o]$ | [[insieme]] delle [[regolarità\|funzioni regolari]] di ordine $o$ | -| $\hessianSimple{x}$ | [[matrice Hessiana]] | + +| Simbolo | Significato | +| -------------------------------------------------: | ----------------------------------------------------------------- | +| $\basisCanon$ | [[base canonica]] | +| $\basisCanonElement{i}$ | $i$-esimo elemento della [[base canonica]] | +| $\smol$ | [[infinitesimo]] | +| $\affineVariety{\mathbf{x}}{c}$ | [[varietà affine]] | +| $\mathrm{f} \circ \mathrm{g}$ | [[concatenazione di funzione]] tra $\mathrm{f}$ e $\mathrm{g}$ | +| $\derivativeDirectionalOf{\mathbf{x}}{\mathbf{s}}$ | [[derivata direzionale unilaterale]] | +| $\derivativeDirectional{\mathbf{x}}{\mathbf{s}}$ | [[derivata direzionale unilaterale]] in $x_0$ per $s$ | +| $\derivativePartial{\mathbf{x}}{i}$ | $i$-esima [[derivata parziale]] in $x_0$ | +| $\gradientOf{\mathbf{x}}$ | [[gradiente]] | +| $\continueField{z}$ | [[insieme]] delle [[regolarità\|funzioni regolari]] di ordine $z$ | +| $\hessianOf{\mathbf{x}}$ | [[matrice Hessiana]] | +| $\iacobianOf{\mathbf{x}}$ | [[matrice Iacobiana]] | diff --git a/9 - Kernel hacking/2 - Note di lavoro/Dualsense/Investigando il DualSense che non si connette.md b/9 - Kernel hacking/2 - Note di lavoro/Dualsense/Investigando il DualSense che non si connette.md new file mode 100644 index 0000000..7be9660 --- /dev/null +++ b/9 - Kernel hacking/2 - Note di lavoro/Dualsense/Investigando il DualSense che non si connette.md @@ -0,0 +1,35 @@ +## Situazione iniziale + +### uname + +```uname +Linux nitro 6.11.3-zen1-1-zen #1 ZEN SMP PREEMPT_DYNAMIC Thu, 10 Oct 2024 20:11:02 +0000 x86_64 GNU/Linux +``` + +### Accoppiamento + +```journald +Oct 24 23:39:15 nitro systemd[764]: Reached target Bluetooth. +Oct 24 23:39:19 nitro bluetoothd[659]: No matching connection for device +Oct 24 23:39:24 nitro bluetoothd[659]: profiles/input/device.c:control_connect_cb() connect to D0:BC:C1:34:FD:42: Host is down (112) +Oct 24 23:39:24 nitro bluedevil-wizard[15587]: kf.bluezqt: PendingCall Error: "br-connection-create-socket" +``` + +### Connessione + +```journald +Oct 24 23:42:51 nitro kernel: hid-generic 0005:054C:0CE6.0008: unknown main item tag 0x0 +Oct 24 23:42:51 nitro kernel: input: Wireless Controller as /devices/virtual/misc/uhid/0005:054C:0CE6.0008/input/input31 +Oct 24 23:42:51 nitro kernel: hid-generic 0005:054C:0CE6.0008: input,hidraw7: BLUETOOTH HID v1.00 Gamepad [Wireless Controller] on dc:a9:71:fd:fe:ac +Oct 24 23:42:51 nitro kernel: playstation 0005:054C:0CE6.0008: unknown main item tag 0x0 +Oct 24 23:42:51 nitro kernel: playstation 0005:054C:0CE6.0008: hidraw7: BLUETOOTH HID v1.00 Gamepad [Wireless Controller] on dc:a9:71:fd:fe:ac +Oct 24 23:42:51 nitro kernel: input: Wireless Controller as /devices/virtual/misc/uhid/0005:054C:0CE6.0008/input/input32 +Oct 24 23:42:51 nitro kernel: input: Wireless Controller Motion Sensors as /devices/virtual/misc/uhid/0005:054C:0CE6.0008/input/input33 +Oct 24 23:42:51 nitro kernel: input: Wireless Controller Touchpad as /devices/virtual/misc/uhid/0005:054C:0CE6.0008/input/input34 +Oct 24 23:42:51 nitro kernel: playstation 0005:054C:0CE6.0008: Registered DualSense controller hw_version=0x00000313 fw_version=0x01040027 +Oct 24 23:42:52 nitro kernel: input: Microsoft X-Box 360 pad 0 as /devices/virtual/input/input35 +``` + +### Verdetto + +Batteria scarica. diff --git a/file-index.json b/file-index.json index 84fc02a..ac1beb5 100644 --- a/file-index.json +++ b/file-index.json @@ -4,6 +4,7 @@ "readme": "7 - Big data analytics/A1 - MongoDB/README.md", "★ programmazione mobile": "9 - Programmazione mobile/★ programmazione mobile.md", "★ kernel hacking": "9 - Kernel hacking/★ kernel hacking.md", + "investigando il dualsense che non si connette": "9 - Kernel hacking/2 - Note di lavoro/Dualsense/Investigando il DualSense che non si connette.md", "virtme-ng": "9 - Kernel hacking/1 - Cercando di capire le cose/virtme-ng.md", "kselftest": "9 - Kernel hacking/1 - Cercando di capire le cose/kselftest.md", "kernel e visual studio code": "9 - Kernel hacking/1 - Cercando di capire le cose/kernel e Visual Studio Code.md", @@ -149,8 +150,8 @@ "sistema distribuito simmetrico": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/sistema distribuito simmetrico.md", "ritardo di comunicazione unitario": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/ritardo di comunicazione unitario.md", "ritardo di comunicazione limitato": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/ritardo di comunicazione limitato.md", - "risveglio singolo": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/risveglio singolo.md", "ritardo di comunicazione illimitato": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/ritardo di comunicazione illimitato.md", + "risveglio singolo": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/risveglio singolo.md", "risveglio multiplo": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/risveglio multiplo.md", "risveglio ignorato": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/risveglio ignorato.md", "rete di comunicazione": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/rete di comunicazione.md", @@ -251,11 +252,11 @@ "insieme delle soluzioni": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/insieme delle soluzioni.md", "insieme delle istanze": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/insieme delle istanze.md", "funzione obiettivo": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/funzione obiettivo.md", - "criterio di costo uniforme": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/criterio di costo uniforme.md", "funzione guadagno": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/funzione guadagno.md", "funzione costo": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/funzione costo.md", "dimensione dell'input": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/dimensione dell'input.md", "criterio di costo": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/criterio di costo.md", + "criterio di costo uniforme": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/criterio di costo uniforme.md", "criterio di costo logaritmico": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/criterio di costo logaritmico.md", "costo computazionale": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/costo computazionale.md", "classe di problemi p": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/classe di problemi P.md", @@ -987,20 +988,24 @@ "★ modello computazionale.canvas": "7 - Introduction to quantum information processing/4 - Modello computazionale/★ modello computazionale.canvas", "modello computazionale generale": "7 - Introduction to quantum information processing/4 - Modello computazionale/modello computazionale generale.md", "equal superposition": "7 - Introduction to quantum information processing/4 - Modello computazionale/equal superposition.md", - "★ gates complessi.canvas": "7 - Introduction to quantum information processing/3 - Gates complessi/★ gates complessi.canvas", - "gate quantistico controllato universale": "7 - Introduction to quantum information processing/3 - Gates complessi/gate quantistico controllato universale.md", - "controlled pauli x gate": "7 - Introduction to quantum information processing/3 - Gates complessi/controlled Pauli X gate.md", - "swap gate": "7 - Introduction to quantum information processing/3 - Gates complessi/Swap gate.md", - "★ gates semplici.canvas": "7 - Introduction to quantum information processing/2 - Gates semplici/★ gates semplici.canvas", - "gate quantistico": "7 - Introduction to quantum information processing/2 - Gates semplici/gate quantistico.md", - "gate quantistico universale": "7 - Introduction to quantum information processing/2 - Gates semplici/gate quantistico universale.md", - "circuito quantistico": "7 - Introduction to quantum information processing/2 - Gates semplici/circuito quantistico.md", - "pauli gate": "7 - Introduction to quantum information processing/2 - Gates semplici/Pauli gate.md", - "pauli z gate": "7 - Introduction to quantum information processing/2 - Gates semplici/Pauli Z gate.md", - "pauli y gate": "7 - Introduction to quantum information processing/2 - Gates semplici/Pauli Y gate.md", - "pauli x gate": "7 - Introduction to quantum information processing/2 - Gates semplici/Pauli X gate.md", - "identity gate": "7 - Introduction to quantum information processing/2 - Gates semplici/Identity gate.md", - "hadamard gate": "7 - Introduction to quantum information processing/2 - Gates semplici/Hadamard gate.md", + "★ gates.canvas": "7 - Introduction to quantum information processing/2 - Gates/★ gates.canvas", + "universal gate": "7 - Introduction to quantum information processing/2 - Gates/universal gate.md", + "swap gate": "7 - Introduction to quantum information processing/2 - Gates/swap gate.md", + "phase gate": "7 - Introduction to quantum information processing/2 - Gates/phase gate.md", + "gate quantistico": "7 - Introduction to quantum information processing/2 - Gates/gate quantistico.md", + "gate quantistico universale": "7 - Introduction to quantum information processing/2 - Gates/gate quantistico universale.md", + "controlled pauli x gate": "7 - Introduction to quantum information processing/2 - Gates/controlled Pauli X gate.md", + "circuito quantistico": "7 - Introduction to quantum information processing/2 - Gates/circuito quantistico.md", + "z-axis rotation gate": "7 - Introduction to quantum information processing/2 - Gates/Z-axis rotation gate.md", + "y-axis rotation gate": "7 - Introduction to quantum information processing/2 - Gates/Y-axis rotation gate.md", + "x-axis rotation gate": "7 - Introduction to quantum information processing/2 - Gates/X-axis rotation gate.md", + "toffoli gate": "7 - Introduction to quantum information processing/2 - Gates/Toffoli gate.md", + "pauli gate": "7 - Introduction to quantum information processing/2 - Gates/Pauli gate.md", + "pauli z gate": "7 - Introduction to quantum information processing/2 - Gates/Pauli Z gate.md", + "pauli y gate": "7 - Introduction to quantum information processing/2 - Gates/Pauli Y gate.md", + "pauli x gate": "7 - Introduction to quantum information processing/2 - Gates/Pauli X gate.md", + "identity gate": "7 - Introduction to quantum information processing/2 - Gates/Identity gate.md", + "hadamard gate": "7 - Introduction to quantum information processing/2 - Gates/Hadamard gate.md", "★ concetti base.canvas": "7 - Fondamenti di machine learning/1 - Concetti base/★ concetti base.canvas", "stato base di un qbit": "7 - Introduction to quantum information processing/1 - Concetti base/stato base di un qbit.md", "spazio degli stati di un sistema quantistico": "7 - Introduction to quantum information processing/1 - Concetti base/spazio degli stati di un sistema quantistico.md", @@ -1009,6 +1014,7 @@ "regola di born": "7 - Introduction to quantum information processing/1 - Concetti base/regola di Born.md", "regola di born generalizzata": "7 - Introduction to quantum information processing/1 - Concetti base/regola di Born generalizzata.md", "qbit": "7 - Introduction to quantum information processing/1 - Concetti base/qbit.md", + "qbit e quaternioni": "7 - Introduction to quantum information processing/1 - Concetti base/qbit e quaternioni.md", "proiezione": "7 - Introduction to quantum information processing/1 - Concetti base/proiezione.md", "proiezione inversa": "7 - Introduction to quantum information processing/1 - Concetti base/proiezione inversa.md", "prodotto tensoriale": "7 - Introduction to quantum information processing/1 - Concetti base/prodotto tensoriale.md", @@ -1029,7 +1035,7 @@ "kernel gaussiano": "7 - Fondamenti di machine learning/3 - Support vector machines/kernel gaussiano.md", "★ simboli per il calcolo vettoriale": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ simboli per il calcolo vettoriale.md", "★ calcolo vettoriale.canvas": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ calcolo vettoriale.canvas", - "varietà affine reale": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine reale.md", + "varietà affine": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine.md", "regolarità": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/regolarità.md", "matrice iacobiana": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md", "matrice hessiana": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Hessiana.md", @@ -1041,6 +1047,7 @@ "derivabilità direzionale": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivabilità direzionale.md", "★ simboli per le basi di machine learning": "7 - Fondamenti di machine learning/1 - Concetti base/★ simboli per le basi di machine learning.md", "validation set": "7 - Fondamenti di machine learning/1 - Concetti base/validation set.md", + "perdita": "7 - Fondamenti di machine learning/1 - Concetti base/perdita.md", "training set": "7 - Fondamenti di machine learning/1 - Concetti base/training set.md", "testing set": "7 - Fondamenti di machine learning/1 - Concetti base/testing set.md", "spazio delle ipotesi": "7 - Fondamenti di machine learning/1 - Concetti base/spazio delle ipotesi.md", @@ -1048,10 +1055,9 @@ "problema di regressione": "7 - Fondamenti di machine learning/1 - Concetti base/problema di regressione.md", "problema di classificazione multi-classe": "7 - Fondamenti di machine learning/1 - Concetti base/problema di classificazione multi-classe.md", "problema di classificazione binaria": "7 - Fondamenti di machine learning/1 - Concetti base/problema di classificazione binaria.md", - "perdita": "7 - Fondamenti di machine learning/1 - Concetti base/perdita.md", "overfitting": "7 - Fondamenti di machine learning/1 - Concetti base/overfitting.md", "modello di supervised learning": "7 - Fondamenti di machine learning/1 - Concetti base/modello di supervised learning.md", - "data set per supervised learning": "7 - Fondamenti di machine learning/1 - Concetti base/data set per supervised learning.md", + "dataset per supervised learning": "7 - Fondamenti di machine learning/1 - Concetti base/dataset per supervised learning.md", "classificatore": "7 - Fondamenti di machine learning/1 - Concetti base/classificatore.md", "algoritmo di supervised learning": "7 - Fondamenti di machine learning/1 - Concetti base/algoritmo di supervised learning.md", "★ big data analytics": "7 - Big data analytics/★ big data analytics.md", @@ -1120,6 +1126,8 @@ "03 - modelli algoritmici": "2 - Algoritmi e strutture dati/1 - Appunti/03 - Modelli algoritmici.md", "02 - efficienza degli algoritmi": "2 - Algoritmi e strutture dati/1 - Appunti/02 - Efficienza degli algoritmi.md", "01 - il nome del corso": "2 - Algoritmi e strutture dati/1 - Appunti/01 - Il nome del corso.md", + "proposte della mandreoli": "10 - Tirocinio/Proposte della Mandreoli.md", + "proposta di tesi": "10 - Tirocinio/Proposta di tesi.md", "★ analisi matematica": "1 - Analisi matematica/★ analisi matematica.md", "x - successioni": "1 - Analisi matematica/1 - Appunti/X - Successioni.md", "★ algebra lineare": "1 - Algebra lineare/★ algebra lineare.md", @@ -1211,6 +1219,8 @@ "1 - Algebra lineare/★ algebra lineare.md", "1 - Analisi matematica/1 - Appunti/X - Successioni.md", "1 - Analisi matematica/★ analisi matematica.md", + "10 - Tirocinio/Proposta di tesi.md", + "10 - Tirocinio/Proposte della Mandreoli.md", "2 - Algoritmi e strutture dati/1 - Appunti/00 - Informazioni sul corso.md", "2 - Algoritmi e strutture dati/1 - Appunti/01 - Il nome del corso.md", "2 - Algoritmi e strutture dati/1 - Appunti/02 - Efficienza degli algoritmi.md", @@ -1287,7 +1297,7 @@ "7 - Big data analytics/★ big data analytics.md", "7 - Fondamenti di machine learning/1 - Concetti base/algoritmo di supervised learning.md", "7 - Fondamenti di machine learning/1 - Concetti base/classificatore.md", - "7 - Fondamenti di machine learning/1 - Concetti base/data set per supervised learning.md", + "7 - Fondamenti di machine learning/1 - Concetti base/dataset per supervised learning.md", "7 - Fondamenti di machine learning/1 - Concetti base/modello di supervised learning.md", "7 - Fondamenti di machine learning/1 - Concetti base/overfitting.md", "7 - Fondamenti di machine learning/1 - Concetti base/perdita.md", @@ -1310,7 +1320,7 @@ "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Hessiana.md", "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md", "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/regolarità.md", - "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine reale.md", + "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine.md", "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ calcolo vettoriale.canvas", "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ simboli per il calcolo vettoriale.md", "7 - Fondamenti di machine learning/3 - Support vector machines/kernel gaussiano.md", @@ -1331,6 +1341,7 @@ "7 - Introduction to quantum information processing/1 - Concetti base/prodotto tensoriale.md", "7 - Introduction to quantum information processing/1 - Concetti base/proiezione inversa.md", "7 - Introduction to quantum information processing/1 - Concetti base/proiezione.md", + "7 - Introduction to quantum information processing/1 - Concetti base/qbit e quaternioni.md", "7 - Introduction to quantum information processing/1 - Concetti base/qbit.md", "7 - Introduction to quantum information processing/1 - Concetti base/regola di Born generalizzata.md", "7 - Introduction to quantum information processing/1 - Concetti base/regola di Born.md", @@ -1339,20 +1350,24 @@ "7 - Introduction to quantum information processing/1 - Concetti base/spazio degli stati di un sistema quantistico.md", "7 - Introduction to quantum information processing/1 - Concetti base/stato base di un qbit.md", "7 - Introduction to quantum information processing/1 - Concetti base/★ concetti base.canvas", - "7 - Introduction to quantum information processing/2 - Gates semplici/Hadamard gate.md", - "7 - Introduction to quantum information processing/2 - Gates semplici/Identity gate.md", - "7 - Introduction to quantum information processing/2 - Gates semplici/Pauli X gate.md", - "7 - Introduction to quantum information processing/2 - Gates semplici/Pauli Y gate.md", - "7 - Introduction to quantum information processing/2 - Gates semplici/Pauli Z gate.md", - "7 - Introduction to quantum information processing/2 - Gates semplici/Pauli gate.md", - "7 - Introduction to quantum information processing/2 - Gates semplici/circuito quantistico.md", - "7 - Introduction to quantum information processing/2 - Gates semplici/gate quantistico universale.md", - "7 - Introduction to quantum information processing/2 - Gates semplici/gate quantistico.md", - "7 - Introduction to quantum information processing/2 - Gates semplici/★ gates semplici.canvas", - "7 - Introduction to quantum information processing/3 - Gates complessi/Swap gate.md", - "7 - Introduction to quantum information processing/3 - Gates complessi/controlled Pauli X gate.md", - "7 - Introduction to quantum information processing/3 - Gates complessi/gate quantistico controllato universale.md", - "7 - Introduction to quantum information processing/3 - Gates complessi/★ gates complessi.canvas", + "7 - Introduction to quantum information processing/2 - Gates/Hadamard gate.md", + "7 - Introduction to quantum information processing/2 - Gates/Identity gate.md", + "7 - Introduction to quantum information processing/2 - Gates/Pauli X gate.md", + "7 - Introduction to quantum information processing/2 - Gates/Pauli Y gate.md", + "7 - Introduction to quantum information processing/2 - Gates/Pauli Z gate.md", + "7 - Introduction to quantum information processing/2 - Gates/Pauli gate.md", + "7 - Introduction to quantum information processing/2 - Gates/Toffoli gate.md", + "7 - Introduction to quantum information processing/2 - Gates/X-axis rotation gate.md", + "7 - Introduction to quantum information processing/2 - Gates/Y-axis rotation gate.md", + "7 - Introduction to quantum information processing/2 - Gates/Z-axis rotation gate.md", + "7 - Introduction to quantum information processing/2 - Gates/circuito quantistico.md", + "7 - Introduction to quantum information processing/2 - Gates/controlled Pauli X gate.md", + "7 - Introduction to quantum information processing/2 - Gates/gate quantistico universale.md", + "7 - Introduction to quantum information processing/2 - Gates/gate quantistico.md", + "7 - Introduction to quantum information processing/2 - Gates/phase gate.md", + "7 - Introduction to quantum information processing/2 - Gates/swap gate.md", + "7 - Introduction to quantum information processing/2 - Gates/universal gate.md", + "7 - Introduction to quantum information processing/2 - Gates/★ gates.canvas", "7 - Introduction to quantum information processing/4 - Modello computazionale/equal superposition.md", "7 - Introduction to quantum information processing/4 - Modello computazionale/modello computazionale generale.md", "7 - Introduction to quantum information processing/4 - Modello computazionale/★ modello computazionale.canvas", @@ -2370,6 +2385,7 @@ "9 - Kernel hacking/1 - Cercando di capire le cose/kernel e Visual Studio Code.md", "9 - Kernel hacking/1 - Cercando di capire le cose/kselftest.md", "9 - Kernel hacking/1 - Cercando di capire le cose/virtme-ng.md", + "9 - Kernel hacking/2 - Note di lavoro/Dualsense/Investigando il DualSense che non si connette.md", "9 - Kernel hacking/★ kernel hacking.md", "9 - Programmazione mobile/★ programmazione mobile.md", "README.md", diff --git a/preamble.sty b/preamble.sty index c8423c8..da11054 100644 --- a/preamble.sty +++ b/preamble.sty @@ -1,43 +1,230 @@ -\newcommand{\par}[1] {\left({#1}\right)} -\newcommand{\arr}[1] {\left[{#1}\right]} -\newcommand{\hsh}[1] {\left\{{#1}\right\}} -\newcommand{\abs}[1] {\left|{#1}\right|} +% Parentesi tonde +\newcommand{\par}[1] { + \left({#1}\right) +} -\newcommand{\basisCanon} {\mathbf{\hat{e}}} -\newcommand{\basisCanonElement}[1][i] {\basisCanon_{#1}} +% Parentesi quadre; liste +\newcommand{\arr}[1] { + \left[{#1}\right] +} -\newcommand{\varietyAffine}[2][X] {\mathscr{#1}\par{#2}} +% Parentesi verticali; norme +\newcommand{\abs}[1] { + \left|{#1}\right| +} -\newcommand{\smol} {\epsilon} -\newcommand{\derivativeDirectionalSimple}[3][f] {{#1}'\par{#2_0; #3}} -\newcommand{\derivativeDirectional}[3][f] {\frac{d #1 \par{#2_0; #3}}{d \smol}} -\newcommand{\derivativePartial}[3][f] {\frac{\partial #1 \par{#2_0}}{\partial x_{#3}}} -\newcommand{\derivativePartialOutput}[4][f] {\frac{\partial #1_{#3} \par{#2_0}}{\partial x_{#4}}} -\newcommand{\derivativeGradientSimple}[2][f] {\nabla_{#1} \par{#2_0}} -\newcommand{\continueField}[1][1] {\mathcal{C}^{#1}} -\newcommand{\hessianSimple}[2][f] {\mathbf{\nabla}^2_{#1} \par{#2_0}} -\newcommand{\hessianElement}[4][f] {\frac{\partial^2 #1 \par{#2}}{\partial #2_{#3}\ \cdot\ \partial #2_{#4}}} -\newcommand{\iacobianSimple}[2][f] {\mathbf{J}_{#1} \par{#2}} +% Base canonica +\newcommand{\basisCanon} { + \mathbf{\hat{e}} +} -\newcommand{\fmlDataset} {\mathbf{D}} -\newcommand{\fmlDatasetSize} {P} -\newcommand{\fmlDatasetTrain} {\fmlDataset_{train}} -\newcommand{\fmlDatasetValidate} {\fmlDataset_{validate}} -\newcommand{\fmlDatasetTest} {\fmlDataset_{test}} -\newcommand{\fmlInputs} {\mathbf{X}} -\newcommand{\fmlIndex} {i} -\newcommand{\fmlInput}[1][\fmlIndex] {\mathbf{x}_{#1}} -\newcommand{\fmlInputSize} {n} -\newcommand{\fmlInputField}[1][\fmlInputSize] {\mathbb{X}^{#1}} -\newcommand{\fmlElementIndex} {j} -\newcommand{\fmlInputElement}[1][\fmlIndex\fmlElementIndex] {x_{#1}} -\newcommand{\fmlInputElementField} {\mathbb{X}} -\newcommand{\fmlOutputs} {\mathbf{y}} -\newcommand{\fmlOutput}[1][\fmlIndex] {y_{#1}} -\newcommand{\fmlOutputField} {\mathbb{Y}} -\newcommand{\fmlClassifier} {f} -\newcommand{\fmlModel} {\fmlClassifier^*} -\newcommand{\fmlHypothesisSpace} {\mathcal{H}} -\newcommand{\fmlComplexity} {c} -\newcommand{\fmlComplexityCoefficient} {\lambda} -\newcommand{\fmlLoss} {V} +% Elemento della base canonica +\newcommand{\basisCanonElement}[1] { + \basisCanon_{#1} +} + +% Infinitesimo +\newcommand{\smol} { + \epsilon +} + +% Varietà affine +\newcommand{\affineVariety}[2] { + {\mathbf{#1}} \par{#2} +} + +% Derivata +\newcommand{\derivative}[2] { + \frac + {\mathrm{d}\ {#1}} + {\mathrm{d}\ {#2}} +} + +% Funzione che è stata derivata +\newcommand{\derivativeOf}[2][\mathrm{f}] { + {#1}' \par{#2} +} + +% Derivata direzionale +\newcommand{\derivativeDirectional}[3][\mathrm{f}] { + \derivative + {{#1} \par{\mathbf{#2}; \mathbf{#3}}} + {\smol} +} + +% Funzione che è stata derivata direzionalmente +\newcommand{\derivativeDirectionalOf}[3][\mathrm{f}] { + \derivativeOf + [#1] + {\mathbf{#2};\ \mathbf{#3}} +} + +% Derivata parziale +\newcommand{\derivativePartial}[3][\mathrm{f}] { + \frac + {\mathrm{\partial}\ {#1} \par{\mathbf{#2}}} + {\mathrm{\partial}\ {#2}_{#3}} +} + +% Funzione che è stata derivata parzialmente +\newcommand{\derivativePartialOf}[3][\mathrm{f}] { + \derivativeDirectionalOf + [#1] + {#2} + {\basisCanonElement{#3}} +} + +% Gradiente di una funzione +\newcommand{\gradientOf}[2][\mathrm{f}] { + \mathbf{\nabla}_{#1} \par{\mathbf{#2}} +} + +% Campo in cui le funzioni sono continue fino all'ordine #1 +\newcommand{\continueField}[1] { + \mathcal{C}^{#1} +} + +% Hessiana di una funzione +\newcommand{\hessianOf}[2][\mathrm{f}] { + \mathbf{\nabla}^{2}_{#1} \par{\mathbf{#2}} +} + +% Elemento dell'Hessiana di una funzione +\newcommand{\hessianElement}[4][\mathrm{f}] { + \par{ + \derivativePartial + [#1] + {#2} + {#3} + \cdot + \derivativePartial + [#1] + {#2} + {#4} + } +} + +% Iacobiana di una funzione +\newcommand{\iacobianOf}[2][\mathrm{f}] { + \mathbf{J}_{#1} \par{\mathbf{#2}} +} + +% Elemento della Iacobiana di una funzione +\newcommand{\iacobianElement}[4][\mathrm{f}] { + \par{ + \derivativePartial + [{#1}_{#3}] + {#2} + {#4} + } +} + +% Dataset +\newcommand{\fmlDataset} { + \mathbf{D} +} + +% Cardinalità del dataset +\newcommand{\fmlDatasetSize} { + p +} + +% Training set +\newcommand{\fmlDatasetTrain} { + \fmlDataset_{train} +} + +% Validation set +\newcommand{\fmlDatasetValidate} { + \fmlDataset_{validate} +} + +% Testing set +\newcommand{\fmlDatasetTest} { + \fmlDataset_{test} +} + +% Matrice degli input +\newcommand{\fmlInputs} { + \mathbf{X} +} + +% Indice campione della matrice degli input +\newcommand{\fmlDatasetIndex} { + i +} + +% Campione della matrice degli input +\newcommand{\fmlInput}[1] { + \mathbf{x}_{#1} +} + +% Cardinalità di un vettore di input +\newcommand{\fmlInputSize} { + n +} + +% Campo dei campioni della matrice degli input +\newcommand{\fmlInputField}[1][\fmlInputSize] { + \mathbb{X}^{#1} +} + +% Indice elemento di un campione di input +\newcommand{\fmlInputElementIndex} { + j +} + +% Elemento di un campione di input +\newcommand{\fmlInputElement}[2] { + x_{{#1}{#2}} +} + +% Campo di un elemento di un campione di input +\newcommand{\fmlInputElementField} { + \mathbb{X} +} + +% Vettore degli output +\newcommand{\fmlOutputs} { + \mathbf{y} +} + +% Elemento del vettore degli output +\newcommand{\fmlOutput}[1] { + y_{#1} +} + +% Campo del vettore degli output +\newcommand{\fmlOutputField} { + \mathbb{Y} +} + +% Classificatore +\newcommand{\fmlClassifier}[1][f] { + \mathrm{#1} +} + +% Modello +\newcommand{\fmlModel}[1][f] { + \fmlClassifier[#1]^* +} + +% Campo dei classificatori +\newcommand{\fmlHypothesisSpace} { + \mathcal{H} +} + +% Complessità +\newcommand{\fmlComplexity} { + c +} + +% Parametro di complessità della funzione perdita +\newcommand{\fmlComplexityCoefficient} { + \lambda +} + +% Funzione perdita +\newcommand{\fmlLoss} { + \mathrm{V} +}