1
Fork 0
mirror of https://github.com/Steffo99/appunti-magistrali.git synced 2024-11-23 10:44:18 +00:00

Add some more things

This commit is contained in:
Steffo 2024-11-06 13:42:11 +01:00
parent bd26d401d5
commit dfaf76b267
Signed by: steffo
GPG key ID: 5ADA3868646C3FC0
30 changed files with 612 additions and 284 deletions

1
.gitignore vendored
View file

@ -9,3 +9,4 @@
**/0 - Materiale di studio/ **/0 - Materiale di studio/
**/0 - Piano di studi/ **/0 - Piano di studi/
10 - Tirocinio

3
.obsidian/app.json vendored
View file

@ -13,5 +13,6 @@
"showUnsupportedFiles": true, "showUnsupportedFiles": true,
"newLinkFormat": "shortest", "newLinkFormat": "shortest",
"trashOption": "system", "trashOption": "system",
"promptDelete": false "promptDelete": false,
"readableLineLength": true
} }

View file

@ -1,16 +1,31 @@
[ {
"file-explorer", "file-explorer": true,
"global-search", "global-search": true,
"switcher", "switcher": true,
"graph", "graph": true,
"backlink", "backlink": true,
"canvas", "canvas": true,
"outgoing-link", "outgoing-link": true,
"tag-pane", "tag-pane": true,
"properties", "page-preview": false,
"templates", "daily-notes": false,
"editor-status", "templates": true,
"bookmarks", "note-composer": false,
"outline", "command-palette": false,
"word-count" "slash-command": false,
] "editor-status": true,
"starred": false,
"markdown-importer": false,
"zk-prefixer": false,
"random-note": false,
"outline": true,
"word-count": true,
"slides": false,
"audio-recorder": false,
"workspaces": false,
"file-recovery": false,
"publish": false,
"sync": false,
"bookmarks": true,
"properties": true
}

View file

@ -14,6 +14,11 @@
"id": "fc3lLaITDn62PYbzBhqxl", "id": "fc3lLaITDn62PYbzBhqxl",
"name": "To do", "name": "To do",
"value": "#d7a628" "value": "#d7a628"
},
{
"id": "e_YcdvxbhfDN77-giOday",
"name": "Extra",
"value": "#53dfdd"
} }
], ],
"fileColors": [ "fileColors": [
@ -382,7 +387,7 @@
"color": "me4XBNQC4rwzQFLlvIAn0" "color": "me4XBNQC4rwzQFLlvIAn0"
}, },
{ {
"path": "7 - Introduction to quantum information processing/2 - Gates semplici/★ gates semplici.canvas", "path": "7 - Introduction to quantum information processing/2 - Gates/★ gates.canvas",
"color": "7j7Pqog0VHMVVAfazMNlb" "color": "7j7Pqog0VHMVVAfazMNlb"
}, },
{ {
@ -441,10 +446,6 @@
"path": "7 - Introduction to quantum information processing/0 - Materiale di studio/18 - Corso_QIP___Lesson_9__2022_.pdf", "path": "7 - Introduction to quantum information processing/0 - Materiale di studio/18 - Corso_QIP___Lesson_9__2022_.pdf",
"color": "fc3lLaITDn62PYbzBhqxl" "color": "fc3lLaITDn62PYbzBhqxl"
}, },
{
"path": "7 - Introduction to quantum information processing/3 - Gates complessi/★ gates complessi.canvas",
"color": "7j7Pqog0VHMVVAfazMNlb"
},
{ {
"path": "7 - Introduction to quantum information processing/4 - Modello computazionale/★ modello computazionale.canvas", "path": "7 - Introduction to quantum information processing/4 - Modello computazionale/★ modello computazionale.canvas",
"color": "7j7Pqog0VHMVVAfazMNlb" "color": "7j7Pqog0VHMVVAfazMNlb"
@ -601,21 +602,45 @@
"path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ simboli per il calcolo vettoriale.md", "path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ simboli per il calcolo vettoriale.md",
"color": "7j7Pqog0VHMVVAfazMNlb" "color": "7j7Pqog0VHMVVAfazMNlb"
}, },
{
"path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md",
"color": "fc3lLaITDn62PYbzBhqxl"
},
{
"path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivata direzionale unilaterale.md",
"color": "fc3lLaITDn62PYbzBhqxl"
},
{
"path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine reale.md",
"color": "fc3lLaITDn62PYbzBhqxl"
},
{ {
"path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ calcolo vettoriale.canvas", "path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ calcolo vettoriale.canvas",
"color": "7j7Pqog0VHMVVAfazMNlb" "color": "7j7Pqog0VHMVVAfazMNlb"
},
{
"path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine.md",
"color": "fc3lLaITDn62PYbzBhqxl"
},
{
"path": "7 - Introduction to quantum information processing/1 - Concetti base/qbit e quaternioni.md",
"color": "e_YcdvxbhfDN77-giOday"
},
{
"path": "7 - Introduction to quantum information processing/0 - Materiale di studio/XX - Synthesis of Quantum Logic Circuits.pdf",
"color": "e_YcdvxbhfDN77-giOday"
},
{
"path": "7 - Introduction to quantum information processing/2 - Gates/X-axis rotation gate.md",
"color": "e_YcdvxbhfDN77-giOday"
},
{
"path": "7 - Introduction to quantum information processing/2 - Gates/Y-axis rotation gate.md",
"color": "e_YcdvxbhfDN77-giOday"
},
{
"path": "7 - Introduction to quantum information processing/2 - Gates/Z-axis rotation gate.md",
"color": "e_YcdvxbhfDN77-giOday"
},
{
"path": "7 - Introduction to quantum information processing/2 - Gates/circuito quantistico.md",
"color": "fc3lLaITDn62PYbzBhqxl"
},
{
"path": "7 - Introduction to quantum information processing/2 - Gates/Pauli Y gate.md",
"color": "fc3lLaITDn62PYbzBhqxl"
},
{
"path": "7 - Introduction to quantum information processing/2 - Gates/universal gate.md",
"color": "fc3lLaITDn62PYbzBhqxl"
} }
] ]
} }

View file

@ -1,6 +1,7 @@
--- ---
aliases: aliases:
- data set - data set
- dataset
--- ---
[[insieme]] di [[coppie]] [[input]]-[[output]] per un [[modello di supervised learning]]. [[insieme]] di [[coppie]] [[input]]-[[output]] per un [[modello di supervised learning]].
$$ $$

View file

@ -16,12 +16,16 @@ $$
= =
\min_{\fmlClassifier \in \fmlHypothesisSpace} \min_{\fmlClassifier \in \fmlHypothesisSpace}
\ \
\sum_{(\fmlInput,\ \fmlOutput) \in D} \sum_{(\fmlInput{\fmlDatasetIndex},\ \fmlOutput{\fmlDatasetIndex}) \in D}
\par{ \par{
V(\fmlOutput, \fmlClassifier(\fmlInput))) \fmlLoss \par{
\fmlOutput{\fmlDatasetIndex},\ \fmlClassifier(\fmlInput{\fmlDatasetIndex})
}
+ +
\fmlComplexity \par{
\cdot \fmlComplexityCoefficient
\abs{f}^2 \cdot
\abs{\fmlClassifier}^2
}
} }
$$ $$

View file

@ -12,5 +12,8 @@ Misura quanto si allontana il [[classificatore]] dal risultato desiderato.
$$ $$
\Large \Large
\fmlLoss(\fmlOutput, \fmlClassifier(\fmlInput)) \fmlLoss \par{
\fmlOutput,\
\fmlClassifier (\fmlInput{\fmlDatasetIndex})
}
$$ $$

View file

@ -2,5 +2,5 @@
$$ $$
\Huge \Huge
\fmlOutputField = \hsh{ -1, 1 } \fmlOutputField = \set{ -1, 1 }
$$ $$

View file

@ -2,5 +2,5 @@
$$ $$
\Huge \Huge
\fmlOutputField = \hsh{ 1, 2, \dots, N } \fmlOutputField = \set{ 1, 2, \dots, N }
$$ $$

View file

@ -1,33 +1,16 @@
[[problema di minimizzazione]]. [[problema di minimizzazione]].
Si vuole determinare un [[classificatore]] che minimizzi una [[perdita|funzione perdita]] e una [[complessità]]. Si vuole determinare un [[classificatore]] che minimizzi una certa [[perdita|funzione perdita]] e una certa [[complessità]].
$$ A tale scopo, si crea un [[modello di supervised learning]], al quale vengono dati in input usati [[campione|campioni]] di coppie [[input]]-[[output]] conosciute, detti [[dataset per supervised learning|data set]].
\Large
\fmlModel
=
\min_{\fmlClassifier \in \fmlHypothesisSpace}
\par{
\sum_{i=1}^N
\fmlLoss(\fmlOutput, \fmlClassifier(\fmlInput))
+
\par{
\fmlComplexityCoefficient
\cdot
\fmlComplexity(\fmlClassifier)
}
}
$$
Per scegliere il modello, vengono usati [[campione|campioni]] di coppie [[input]]-[[output]] conosciute, detti [[data set per supervised learning|data set]].
$$ $$
\Large \Large
\fmlDataset \in (\fmlInputField, \fmlOutputField)^{\fmlDatasetSize} \fmlDataset \in (\fmlInputField, \fmlOutputField)^{\fmlDatasetSize}
$$ $$
Il [[campo matematico]] di tutti i modelli possibili è detto [[spazio delle ipotesi]]. Il [[campo matematico]] di tutti i classificatori ammissibili è detto [[spazio delle ipotesi]].
$$ $$
\Large \Large
f \in \fmlHypothesisSpace \fmlClassifier \in \fmlHypothesisSpace
$$ $$

View file

@ -1,8 +1,12 @@
[[codominio]] di un [[problema di supervised learning]]. [[codominio]] di un [[problema di supervised learning]].
$$
\Huge
\fmlHypothesisSpace
$$
Le funzioni aventi come [[0 - Generale/dominio|dominio]] $\mathbb{X}^n$ e come [[codominio]] $\mathbb{Y}$: Le funzioni aventi come [[0 - Generale/dominio|dominio]] $\mathbb{X}^n$ e come [[codominio]] $\mathbb{Y}$:
$$ $$
\Huge \Large
\mathcal{H} = \mathbb{X}^n \to \mathbb{Y} \mathcal{H} = \mathbb{X}^n \to \mathbb{Y}
$$ $$

View file

@ -3,7 +3,7 @@ aliases:
- test set - test set
--- ---
[[data set per supervised learning]] usato per [[benchmarking]] in un [[problema di supervised learning]]. [[dataset per supervised learning]] usato per [[benchmarking]] in un [[problema di supervised learning]].
$$ $$
\Huge \Huge
\fmlDatasetTest \fmlDatasetTest

View file

@ -2,7 +2,7 @@
"nodes":[ "nodes":[
{"id":"aa08ea82fd2ff1df","type":"file","file":"9 - Algoritmi distribuiti/1 - Problemi algoritmici/problema di minimizzazione.md","x":-960,"y":-1360,"width":400,"height":400}, {"id":"aa08ea82fd2ff1df","type":"file","file":"9 - Algoritmi distribuiti/1 - Problemi algoritmici/problema di minimizzazione.md","x":-960,"y":-1360,"width":400,"height":400},
{"id":"158d8da07bba10f9","type":"file","file":"7 - Fondamenti di machine learning/1 - Concetti base/problema di supervised learning.md","x":-960,"y":-800,"width":400,"height":400}, {"id":"158d8da07bba10f9","type":"file","file":"7 - Fondamenti di machine learning/1 - Concetti base/problema di supervised learning.md","x":-960,"y":-800,"width":400,"height":400},
{"id":"a28d708ff4f64391","type":"file","file":"7 - Fondamenti di machine learning/1 - Concetti base/data set per supervised learning.md","x":-1520,"y":-800,"width":400,"height":400}, {"id":"a28d708ff4f64391","type":"file","file":"7 - Fondamenti di machine learning/1 - Concetti base/dataset per supervised learning.md","x":-1520,"y":-800,"width":400,"height":400},
{"id":"9ebbcb1a4cb0f500","type":"file","file":"7 - Fondamenti di machine learning/1 - Concetti base/training set.md","x":-2080,"y":-980,"width":400,"height":200}, {"id":"9ebbcb1a4cb0f500","type":"file","file":"7 - Fondamenti di machine learning/1 - Concetti base/training set.md","x":-2080,"y":-980,"width":400,"height":200},
{"id":"099a5e4ec9accaf5","type":"file","file":"7 - Fondamenti di machine learning/1 - Concetti base/testing set.md","x":-2080,"y":-700,"width":400,"height":200}, {"id":"099a5e4ec9accaf5","type":"file","file":"7 - Fondamenti di machine learning/1 - Concetti base/testing set.md","x":-2080,"y":-700,"width":400,"height":200},
{"id":"84aff7b9f416b138","type":"file","file":"7 - Fondamenti di machine learning/1 - Concetti base/validation set.md","x":-2080,"y":-420,"width":400,"height":200}, {"id":"84aff7b9f416b138","type":"file","file":"7 - Fondamenti di machine learning/1 - Concetti base/validation set.md","x":-2080,"y":-420,"width":400,"height":200},

View file

@ -1,22 +1,22 @@
| Simbolo | Significato | | Simbolo | Significato |
| --------------------------: | ---------------------------------------------------------------- | | ----------------------------------------------------------: | ----------------------------------------------------------------------------------- |
| $\fmlDataset$ | [[data set per supervised learning]] | | $\fmlDataset$ | [[dataset per supervised learning]] |
| $\fmlDatasetSize$ | [[cardinalità]] di $\fmlDataset$ | | $\fmlDatasetSize$ | [[cardinalità]] di $\fmlDataset$ |
| $\fmlInputs$ | [[array]] di [[array\|vettori]] degli [[input]] di $\fmlDataset$ | | $\fmlInputs$ | [[array]] di [[array\|vettori]] degli [[input]] di $\fmlDataset$ |
| $\fmlIndex$ | [[indice]] da $1$ a $\ | | $\fmlDatasetIndex$ | [[indice]] da $1$ a $\ |
| $\fmlInput$ | $\fmlIndex$-esimo [[array]] di $\fmlInputs$ | | $\fmlInput{\fmlDatasetIndex}$ | $\fmlDatasetIndex$-esimo [[array]] di $\fmlInputs$ |
| $\fmlInputSize$ | [[cardinalità di un insieme\|cardinalità]] di $\fmlInput$ | | $\fmlInputSize$ | [[cardinalità di un insieme\|cardinalità]] di $\fmlInput{\fmlDatasetIndex}$ |
| $\fmlInputField$ | [[campo matematico]] di $\fmlInput$ | | $\fmlInputField$ | [[campo matematico]] di $\fmlInput{\fmlDatasetIndex}$ |
| $\fmlElementIndex$ | [[indice]] di $\fmlInput$ | | $\fmlInputElementIndex$ | [[indice]] di $\fmlInput{\fmlDatasetIndex}$ |
| $\fmlInputElement$ | $\fmlElementIndex$-esimo [[scalare]] di $\fmlInput$ | | $\fmlInputElement{\fmlDatasetIndex}{\fmlInputElementIndex}$ | $\fmlInputElementIndex$-esimo [[scalare]] di $\fmlInput{\fmlDatasetIndex}$ |
| $\fmlInputElementField$ | [[campo matematico]] di $\fmlInputElement$ | | $\fmlInputElementField$ | [[campo matematico]] di $\fmlInputElement{\fmlDatasetIndex}{\fmlInputElementIndex}$ |
| $\fmlOutputs$ | [[array]] degli [[output]] di $\fmlDataset$ | | $\fmlOutputs$ | [[array]] degli [[output]] di $\fmlDataset$ |
| $\fmlOutput$ | $\fmlIndex$-esimo [[scalare]] di $\fmlOutputs$ | | $\fmlOutput{\fmlDatasetIndex}$ | $\fmlDatasetIndex$-esimo [[scalare]] di $\fmlOutputs$ |
| $\fmlOutputField$ | [[campo matematico]] di $\fmlOutput$ | | $\fmlOutputField$ | [[campo matematico]] di $\fmlOutput{\fmlDatasetIndex}$ |
| $\fmlClassifier$ | [[classificatore]] | | $\fmlClassifier$ | [[classificatore]] |
| $\fmlModel$ | [[modello di supervised learning]] | | $\fmlModel$ | [[modello di supervised learning]] |
| $\fmlHypothesisSpace$ | [[spazio delle ipotesi]] | | $\fmlHypothesisSpace$ | [[spazio delle ipotesi]] |
| $\fmlComplexity$ | [[complessità]] | | $\fmlComplexity$ | [[complessità]] |
| $\fmlComplexityCoefficient$ | [[coefficiente di complessità]] | | $\fmlComplexityCoefficient$ | [[coefficiente di complessità]] |
| $\fmlLoss$ | [[perdita]] | | $\fmlLoss$ | [[perdita]] |

View file

@ -7,36 +7,10 @@ aliases:
[[proprietà]] di una [[funzione]]. [[proprietà]] di una [[funzione]].
$$ $$
\Huge \Huge
\derivativeDirectionalSimple{x}{s} \derivativeDirectionalOf{x}{s}
$$ $$
Una [[funzione]] ha questa [[proprietà]] rispetto alla [[direzione]] $s$ in $x_0$ quando: Una [[funzione]] ha questa [[proprietà]] rispetto alla [[direzione]] $s$ in $x_0$ quando:
- $\derivativeDirectionalSimple{x}{s}$ e $\derivativeDirectionalSimple{x}{-s}$ esistono - $\derivativeDirectionalOf{x}{s}$ e $\derivativeDirectionalOf{x}{-s}$ esistono
- $\derivativeDirectionalSimple{x}{s}$ e $\derivativeDirectionalSimple{x}{-s}$ sono finite - $\derivativeDirectionalOf{x}{s}$ e $\derivativeDirectionalOf{x}{-s}$ sono finite
- $\derivativeDirectionalSimple{x}{s}$ e $\derivativeDirectionalSimple{x}{-s}$ sono uguali - $\derivativeDirectionalOf{x}{s}$ e $\derivativeDirectionalOf{x}{-s}$ sono uguali
## Calcolo
Consideriamo la [[varietà affine reale]]:
$$
\varietyAffine{c} = x_0 + c \cdot s
$$
Se una [[funzione]] $f$ è [[differenziabilità|differenziabile]], allora esistono le [[derivata parziale|derivate parziali]]:
$$
\displaylines{
\forall \par{
{\color{cyan} direzione}
\in
\hsh{1 \dots \fmlInputSize}_{\mathbb{N}}
}
:
\exists \par{
\derivativePartial{x}{{\color{cyan} direzione}}
}
}
$$
Inoltre, ==esiste la [[varietà affine reale]]==:
$$
\varietyAffine[X_i]{a}
$$

View file

@ -1,18 +1,30 @@
Concetto di [[derivata]] applicato ai [[array|vettori]]. Concetto di [[derivata]] applicato ai [[array|vettori]].
$$ $$
\Huge \Huge
\derivativeDirectionalSimple[f]{x}{s} \derivativeDirectionalOf{x}{s}
$$ $$
È implicato che sia sempre la derivata positiva: È implicato che sia sempre la derivata positiva:
$$ $$
\Large \Large
\Huge \Huge
\derivativeDirectionalSimple[\color{lime} f]{{\color{cyan} x}}{{\color{orange} s}} \derivativeDirectionalOf
[\color{lime} \mathrm{f}]
{\color{cyan} x}
{\color{orange} +s}
= =
\lim_{\smol \to 0^+} \lim_{\smol \to 0^{\color{orange} +}}
\frac{ \frac
{\color{lime} f}({\color{cyan} x} + \smol \cdot {\color{orange} s}) - {\color{lime} f}({\color{cyan} x}) {
{\color{lime} \mathrm{f}}
\par{
{\color{cyan} x} + \smol \cdot {\color{orange} s}
}
-
{\color{lime} \mathrm{f}}
\par{
{\color{cyan} x}
}
}{ }{
\smol \smol
} }
@ -21,13 +33,21 @@ $$
La derivata negativa è invece definita come: La derivata negativa è invece definita come:
$$ $$
\Large \Large
-\derivativeDirectionalSimple[\color{lime} f]{{\color{cyan} x}}{{\color{orange} -s}} \derivativeDirectionalOf[\color{lime} -f]{{\color{cyan} x_0}}{{\color{orange} -s}}
= =
\lim_{\smol \to 0^-} \lim_{\smol \to 0^{\color{orange} -}}
\frac{ \frac
{\color{lime} f}({\color{cyan} x} + \smol \cdot {\color{orange} s}) - {\color{lime} f}({\color{cyan} x}) {
{\color{lime} \mathrm{f}}
\par{
{\color{cyan} x} + \smol \cdot {\color{orange} s}
}
-
{\color{lime} \mathrm{f}}
\par{
{\color{cyan} x}
}
}{ }{
\smol \smol
} }
$$ $$
==Perchè così tante negazioni? La s non va negata?==

View file

@ -1,13 +1,19 @@
Particolare [[derivabilità direzionale|derivata direzionale]]. Particolare [[derivabilità direzionale|derivata direzionale]].
$$ $$
\Huge \Huge
\derivativePartial{x}{\fmlElementIndex} \derivativePartial
{\mathbf{x}}
{\fmlInputElementIndex}
$$ $$
È determinata rispetto a uno specifico [[array|vettore]] della [[base canonica]]: È determinata rispetto a uno specifico [[array|vettore]] della [[base canonica]]:
$$ $$
\Large \Large
\derivativePartial{x}{\color{cyan} \fmlElementIndex} \derivativePartial
{x}
{\color{cyan} \fmlInputElementIndex}
= =
\derivativeDirectional{x}{\basisCanonElement[\color{cyan} \fmlElementIndex]} \derivativeDirectional
{x}
{\basisCanonElement{\color{cyan} \fmlInputElementIndex}}
$$ $$

View file

@ -11,4 +11,4 @@ Una [[funzione]] ha questa proprietà rispetto in $x_0$ quando:
- per qualsiasi direzione $s$, la [[funzione]] ha [[derivabilità direzionale]]. - per qualsiasi direzione $s$, la [[funzione]] ha [[derivabilità direzionale]].
Per via delle proprietà della [[base canonica]], questo è equivalente a dire che: Per via delle proprietà della [[base canonica]], questo è equivalente a dire che:
- per qualsiasi [[array|vettore]] $\basisCanonElement$ della [[base canonica]] $\basisCanon$, la [[funzione]] ha [[derivabilità direzionale]]. - per qualsiasi [[array|vettore]] $\basisCanonElement{i}$ della [[base canonica]] $\basisCanon$, la [[funzione]] ha [[derivabilità direzionale]].

View file

@ -9,7 +9,7 @@ Una funzione ha questa proprietà quando:
- per qualsiasi direzione $s$ o punto $x$, la funzione ha [[derivabilità direzionale]]. - per qualsiasi direzione $s$ o punto $x$, la funzione ha [[derivabilità direzionale]].
Per via delle proprietà della [[base canonica]], questo è equivalente a dire che: Per via delle proprietà della [[base canonica]], questo è equivalente a dire che:
- per qualsiasi [[array|vettore]] $\basisCanonElement$ della [[base canonica]] $\basisCanon$ o punto $x$, la funzione ha [[derivabilità direzionale]]. - per qualsiasi [[array|vettore]] $\basisCanonElement{i}$ della [[base canonica]] $\basisCanon$ o punto $x$, la funzione ha [[derivabilità direzionale]].
Per via della definizione del [[gradiente]], questo è equivalente a dire che: Per via della definizione del [[gradiente]], questo è equivalente a dire che:
- per qualsiasi punto $x$, esiste un [[gradiente]]. - per qualsiasi punto $x$, esiste un [[gradiente]].

View file

@ -1,20 +1,28 @@
[[vettore colonna]]. [[vettore colonna]].
$$ $$
\Huge \Huge
\derivativeGradientSimple{x} \gradientOf{\mathbf{x}}
$$ $$
Contiene le [[derivata parziale|derivate parziali]] per tutti gli elementi della [[base canonica]]. Contiene le [[derivata parziale|derivate parziali]] per tutti gli elementi della [[base canonica]].
$$ $$
\Large \Large
\derivativeGradientSimple{x} \gradientOf{\mathbf{x}}
= =
\begin{bmatrix} \begin{bmatrix}
\derivativePartial{x}{1}\\ \derivativePartial
\derivativePartial{x}{2}\\ {x}
\derivativePartial{x}{3}\\ {1}\\
\derivativePartial
{x}
{2}\\
\derivativePartial
{x}
{3}\\
\vdots\\ \vdots\\
\derivativePartial{x}{\fmlInputSize}\\ \derivativePartial
{x}
{\fmlInputSize}\\
\end{bmatrix} \end{bmatrix}
$$ $$

View file

@ -5,30 +5,57 @@ aliases:
Particolare [[matrice]] [[matrice quadrata|quadrata]] e [[matrice simmetrica|simmetrica]] definita relativa a una [[funzione]] dalla [[regolarità]] di almeno secondo ordine e una [[variabile]], di ordine uguale a quello della [[base canonica]] del [[0 - Generale/dominio|dominio]] della [[funzione]]. Particolare [[matrice]] [[matrice quadrata|quadrata]] e [[matrice simmetrica|simmetrica]] definita relativa a una [[funzione]] dalla [[regolarità]] di almeno secondo ordine e una [[variabile]], di ordine uguale a quello della [[base canonica]] del [[0 - Generale/dominio|dominio]] della [[funzione]].
$$ $$
\Huge \Huge
\hessianSimple{x} \hessianOf{\mathbf{x}}
$$ $$
I suoi elementi sono definiti come le $(riga,colonna)$-esime [[derivata parziale|derivate parziali]] della [[funzione]] $f$: I suoi elementi sono definiti come le $(riga,colonna)$-esime [[derivata parziale|derivate parziali]] della [[funzione]] $f$:
$$ $$
\Large \Large
\hessianSimple{x} \hessianOf{x}
= =
\begin{bmatrix} \begin{bmatrix}
\hessianElement{x}{1}{1} & \hessianElement
\hessianElement{x}{1}{2} & {x}
{1}
{1} &
\hessianElement
{x}
{1}
{2} &
\dots & \dots &
\hessianElement{x}{1}{N} \\ \hessianElement
\hessianElement{x}{2}{1} & {x}
\hessianElement{x}{2}{2} & {1}
{N} \\
\hessianElement
{x}
{2}
{1} &
\hessianElement
{x}
{2}
{2} &
\dots & \dots &
\hessianElement{x}{2}{N} \\ \hessianElement
{x}
{2}
{N} \\
\vdots & \vdots &
\vdots & \vdots &
\ddots & \ddots &
\vdots \\ \vdots \\
\hessianElement{x}{N}{1} & \hessianElement
\hessianElement{x}{N}{2} & {x}
{N}
{1} &
\hessianElement
{x}
{N}
{2} &
\dots & \dots &
\hessianElement{x}{N}{N} \\ \hessianElement
{x}
{N}
{N}
\end{bmatrix} \end{bmatrix}
$$ $$

View file

@ -6,38 +6,46 @@ Particolare [[matrice]] definita relativa a una [[funzione]] i cui [[output]] so
$$ $$
\Huge \Huge
\iacobianSimple{x} \iacobianOf{\mathbf{x}}
$$ $$
==Controllare che sia giusto.== I suoi elementi sono definiti come le $colonna$-esime [[derivata parziale|derivate parziali]] della funzione $f$ rispetto all'elemento $riga$-esimo in output: Corrisponde alla [[trasposta]] del [[vettore riga]] risultante come [[gradiente]] di $\mathrm{f}(x)$:
$$ $$
\Large \Large
\iacobianSimple{x} \iacobianOf{x}
=
\gradientOf{x}
= =
\begin{bmatrix} \begin{bmatrix}
\derivativePartialOutput{x}{1}{1} & \gradientOf[\mathrm{f}_1]{x} &
\derivativePartialOutput{x}{1}{2} & \gradientOf[\mathrm{f}_2]{x} &
\dots & \dots &
\derivativePartialOutput{x}{1}{n} \\ \gradientOf[\mathrm{f}_M]{x}
\derivativePartialOutput{x}{2}{1} & \end{bmatrix}
\derivativePartialOutput{x}{2}{2} & $$
I suoi elementi sono definiti come le $colonna$-esime [[derivata parziale|derivate parziali]] della funzione $f$ rispetto all'elemento $riga$-esimo in output:
$$
\Large
\iacobianOf{x}
=
\begin{bmatrix}
\iacobianElement{x}{1}{1} &
\iacobianElement{x}{1}{2} &
\dots & \dots &
\derivativePartialOutput{x}{2}{n} \\ \iacobianElement{x}{1}{n} \\
\iacobianElement{x}{2}{1} &
\iacobianElement{x}{2}{2} &
\dots &
\iacobianElement{x}{2}{n} \\
\vdots & \vdots &
\vdots & \vdots &
\ddots & \ddots &
\vdots \\ \vdots \\
\derivativePartialOutput{x}{M}{1} & \iacobianElement{x}{M}{1} &
\derivativePartialOutput{x}{M}{2} & \iacobianElement{x}{M}{2} &
\dots & \dots &
\derivativePartialOutput{x}{M}{n} \\ \iacobianElement{x}{M}{n} \\
\end{bmatrix} \end{bmatrix}
$$ $$
In particolare, abbiamo che:
$$
\Large
\iacobianSimple{x}
=
\derivativeGradientSimple{x}'
$$

View file

@ -10,7 +10,7 @@ aliases:
[[proprietà]] di una [[funzione]], che generalizza la [[differenziabilità]]. [[proprietà]] di una [[funzione]], che generalizza la [[differenziabilità]].
$$ $$
\Huge \Huge
f \in \continueField f \in \continueField{1}
$$ $$
Una funzione ha questa proprietà quando: Una funzione ha questa proprietà quando:
@ -22,8 +22,8 @@ Se anche la [[derivata parziale]] della funzione è una [[regolarità|regolare]]
$$ $$
\Large \Large
\displaylines{ \displaylines{
f' \in \continueField \\ f^{(1)} \in \continueField{1} \\
f \in \continueField[2] f \in \continueField{2}
} }
$$ $$
@ -31,7 +31,7 @@ Generalizzando ulteriormente:
$$ $$
\Large \Large
\displaylines{ \displaylines{
f^{(n)} \in \continueField \\ f^{(z)} \in \continueField{1} \\
f \in \continueField[n] f \in \continueField{z}
} }
$$ $$

View file

@ -1,23 +0,0 @@
---
aliases:
- affine variety
---
[[Insieme]] di [[punto|punti]] in $\mathbb{R}^n$.
$$
\Huge
\varietyAffine{c}
$$
I [[punto|punti]] sono determinati da una specifica [[traslazione]] di un [[punto]] iniziale per una specifica [[base matematica|base]] scalata per un numero reale.
$$
\Large
\varietyAffine{c} = x_0 + (c \cdot s)
$$
> [!Nota]
> In $\mathbb{R}^3$ è una [[retta]]. ==O in tutti i numeri reali?== ==Posso immaginare che nei complessi sia un piano...==
> [!Tip]
> ==In realtà è una [[funzione]] che restituisce un punto dell'[[insieme]]...==

View file

@ -0,0 +1,30 @@
---
aliases:
- affine variety
---
[[Insieme]] di [[punto|punti]] in $\mathbb{R}^{\fmlDatasetSize}$ ==giusto?==.
$$
\Huge
\affineVariety
{X}
{d}
$$
I [[punto|punti]] sono determinati da una specifica [[traslazione]] di un [[punto]] iniziale per una specifica [[base matematica|base]] scalata per tutti i numeri reali esistenti.
$$
\Large
\displaylines{
\forall\ {\color{orange} c}
\in \mathbb{R} :
\\
x_0 + \par{{\color{orange} c} \cdot d}
\in \affineVariety{x}{d}
}
$$
> [!Nota]
> Per $\mathbf{x} \in \mathbb{R}^{\fmlDatasetSize}$ ==giusto?==, la varietà affine è sempre una [[retta]].
> [!Question]
> Se $\mathbf{x} \in \mathbb{C}^{\fmlDatasetSize}$ la varietà affine cambia sicuramente forma, ma cosa diventa?

View file

@ -1,6 +1,6 @@
{ {
"nodes":[ "nodes":[
{"id":"ebcbe217d83e0e9f","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine reale.md","x":-480,"y":-480,"width":400,"height":400}, {"id":"ebcbe217d83e0e9f","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine.md","x":-640,"y":-480,"width":720,"height":400},
{"id":"fdb6fa9ce7c20562","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivata direzionale unilaterale.md","x":-640,"y":80,"width":720,"height":400}, {"id":"fdb6fa9ce7c20562","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivata direzionale unilaterale.md","x":-640,"y":80,"width":720,"height":400},
{"id":"521f5249b09e89c0","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivabilità direzionale.md","x":-640,"y":640,"width":720,"height":400}, {"id":"521f5249b09e89c0","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivabilità direzionale.md","x":-640,"y":640,"width":720,"height":400},
{"id":"f48d08c563e4ddd8","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivata parziale.md","x":-640,"y":1200,"width":720,"height":400}, {"id":"f48d08c563e4ddd8","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivata parziale.md","x":-640,"y":1200,"width":720,"height":400},
@ -8,7 +8,7 @@
{"id":"2144c3dd20108bba","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/differenziabilità.md","x":-640,"y":2320,"width":720,"height":400}, {"id":"2144c3dd20108bba","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/differenziabilità.md","x":-640,"y":2320,"width":720,"height":400},
{"id":"cc7adce67dbf5e26","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/regolarità.md","x":-640,"y":2880,"width":720,"height":400}, {"id":"cc7adce67dbf5e26","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/regolarità.md","x":-640,"y":2880,"width":720,"height":400},
{"id":"9a420d351662d679","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Hessiana.md","x":240,"y":2880,"width":720,"height":400}, {"id":"9a420d351662d679","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Hessiana.md","x":240,"y":2880,"width":720,"height":400},
{"id":"aa4aa530cb8f448e","x":240,"y":2320,"width":720,"height":400,"type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md"} {"id":"aa4aa530cb8f448e","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md","x":240,"y":2320,"width":720,"height":400}
], ],
"edges":[ "edges":[
{"id":"7961409b3e9f8878","fromNode":"ebcbe217d83e0e9f","fromSide":"bottom","toNode":"fdb6fa9ce7c20562","toSide":"top"}, {"id":"7961409b3e9f8878","fromNode":"ebcbe217d83e0e9f","fromSide":"bottom","toNode":"fdb6fa9ce7c20562","toSide":"top"},

View file

@ -1,12 +1,15 @@
| Simbolo | Significato |
| -----------------------------------: | ----------------------------------------------------------------- | | Simbolo | Significato |
| $\basisCanon$ | [[base canonica]] | | -------------------------------------------------: | ----------------------------------------------------------------- |
| $\basisCanonElement$ | $i$-esimo elemento della [[base canonica]] | | $\basisCanon$ | [[base canonica]] |
| $\smol$ | [[infinitesimo]] | | $\basisCanonElement{i}$ | $i$-esimo elemento della [[base canonica]] |
| | | | $\smol$ | [[infinitesimo]] |
| $\derivativeDirectionalSimple{x}{s}$ | [[derivata direzionale unilaterale]] | | $\affineVariety{\mathbf{x}}{c}$ | [[varietà affine]] |
| $\derivativeDirectional{x}{s}$ | [[derivata direzionale]] in $x_0$ per $s$ | | $\mathrm{f} \circ \mathrm{g}$ | [[concatenazione di funzione]] tra $\mathrm{f}$ e $\mathrm{g}$ |
| $\derivativePartial{x}{i}$ | $i$-esima [[derivata parziale]] | | $\derivativeDirectionalOf{\mathbf{x}}{\mathbf{s}}$ | [[derivata direzionale unilaterale]] |
| $\derivativeGradientSimple{x}$ | [[gradiente]] | | $\derivativeDirectional{\mathbf{x}}{\mathbf{s}}$ | [[derivata direzionale unilaterale]] in $x_0$ per $s$ |
| $\continueField[o]$ | [[insieme]] delle [[regolarità\|funzioni regolari]] di ordine $o$ | | $\derivativePartial{\mathbf{x}}{i}$ | $i$-esima [[derivata parziale]] in $x_0$ |
| $\hessianSimple{x}$ | [[matrice Hessiana]] | | $\gradientOf{\mathbf{x}}$ | [[gradiente]] |
| $\continueField{z}$ | [[insieme]] delle [[regolarità\|funzioni regolari]] di ordine $z$ |
| $\hessianOf{\mathbf{x}}$ | [[matrice Hessiana]] |
| $\iacobianOf{\mathbf{x}}$ | [[matrice Iacobiana]] |

View file

@ -0,0 +1,35 @@
## Situazione iniziale
### uname
```uname
Linux nitro 6.11.3-zen1-1-zen #1 ZEN SMP PREEMPT_DYNAMIC Thu, 10 Oct 2024 20:11:02 +0000 x86_64 GNU/Linux
```
### Accoppiamento
```journald
Oct 24 23:39:15 nitro systemd[764]: Reached target Bluetooth.
Oct 24 23:39:19 nitro bluetoothd[659]: No matching connection for device
Oct 24 23:39:24 nitro bluetoothd[659]: profiles/input/device.c:control_connect_cb() connect to D0:BC:C1:34:FD:42: Host is down (112)
Oct 24 23:39:24 nitro bluedevil-wizard[15587]: kf.bluezqt: PendingCall Error: "br-connection-create-socket"
```
### Connessione
```journald
Oct 24 23:42:51 nitro kernel: hid-generic 0005:054C:0CE6.0008: unknown main item tag 0x0
Oct 24 23:42:51 nitro kernel: input: Wireless Controller as /devices/virtual/misc/uhid/0005:054C:0CE6.0008/input/input31
Oct 24 23:42:51 nitro kernel: hid-generic 0005:054C:0CE6.0008: input,hidraw7: BLUETOOTH HID v1.00 Gamepad [Wireless Controller] on dc:a9:71:fd:fe:ac
Oct 24 23:42:51 nitro kernel: playstation 0005:054C:0CE6.0008: unknown main item tag 0x0
Oct 24 23:42:51 nitro kernel: playstation 0005:054C:0CE6.0008: hidraw7: BLUETOOTH HID v1.00 Gamepad [Wireless Controller] on dc:a9:71:fd:fe:ac
Oct 24 23:42:51 nitro kernel: input: Wireless Controller as /devices/virtual/misc/uhid/0005:054C:0CE6.0008/input/input32
Oct 24 23:42:51 nitro kernel: input: Wireless Controller Motion Sensors as /devices/virtual/misc/uhid/0005:054C:0CE6.0008/input/input33
Oct 24 23:42:51 nitro kernel: input: Wireless Controller Touchpad as /devices/virtual/misc/uhid/0005:054C:0CE6.0008/input/input34
Oct 24 23:42:51 nitro kernel: playstation 0005:054C:0CE6.0008: Registered DualSense controller hw_version=0x00000313 fw_version=0x01040027
Oct 24 23:42:52 nitro kernel: input: Microsoft X-Box 360 pad 0 as /devices/virtual/input/input35
```
### Verdetto
Batteria scarica.

View file

@ -4,6 +4,7 @@
"readme": "7 - Big data analytics/A1 - MongoDB/README.md", "readme": "7 - Big data analytics/A1 - MongoDB/README.md",
"★ programmazione mobile": "9 - Programmazione mobile/★ programmazione mobile.md", "★ programmazione mobile": "9 - Programmazione mobile/★ programmazione mobile.md",
"★ kernel hacking": "9 - Kernel hacking/★ kernel hacking.md", "★ kernel hacking": "9 - Kernel hacking/★ kernel hacking.md",
"investigando il dualsense che non si connette": "9 - Kernel hacking/2 - Note di lavoro/Dualsense/Investigando il DualSense che non si connette.md",
"virtme-ng": "9 - Kernel hacking/1 - Cercando di capire le cose/virtme-ng.md", "virtme-ng": "9 - Kernel hacking/1 - Cercando di capire le cose/virtme-ng.md",
"kselftest": "9 - Kernel hacking/1 - Cercando di capire le cose/kselftest.md", "kselftest": "9 - Kernel hacking/1 - Cercando di capire le cose/kselftest.md",
"kernel e visual studio code": "9 - Kernel hacking/1 - Cercando di capire le cose/kernel e Visual Studio Code.md", "kernel e visual studio code": "9 - Kernel hacking/1 - Cercando di capire le cose/kernel e Visual Studio Code.md",
@ -149,8 +150,8 @@
"sistema distribuito simmetrico": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/sistema distribuito simmetrico.md", "sistema distribuito simmetrico": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/sistema distribuito simmetrico.md",
"ritardo di comunicazione unitario": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/ritardo di comunicazione unitario.md", "ritardo di comunicazione unitario": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/ritardo di comunicazione unitario.md",
"ritardo di comunicazione limitato": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/ritardo di comunicazione limitato.md", "ritardo di comunicazione limitato": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/ritardo di comunicazione limitato.md",
"risveglio singolo": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/risveglio singolo.md",
"ritardo di comunicazione illimitato": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/ritardo di comunicazione illimitato.md", "ritardo di comunicazione illimitato": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/ritardo di comunicazione illimitato.md",
"risveglio singolo": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/risveglio singolo.md",
"risveglio multiplo": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/risveglio multiplo.md", "risveglio multiplo": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/risveglio multiplo.md",
"risveglio ignorato": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/risveglio ignorato.md", "risveglio ignorato": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/risveglio ignorato.md",
"rete di comunicazione": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/rete di comunicazione.md", "rete di comunicazione": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/rete di comunicazione.md",
@ -251,11 +252,11 @@
"insieme delle soluzioni": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/insieme delle soluzioni.md", "insieme delle soluzioni": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/insieme delle soluzioni.md",
"insieme delle istanze": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/insieme delle istanze.md", "insieme delle istanze": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/insieme delle istanze.md",
"funzione obiettivo": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/funzione obiettivo.md", "funzione obiettivo": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/funzione obiettivo.md",
"criterio di costo uniforme": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/criterio di costo uniforme.md",
"funzione guadagno": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/funzione guadagno.md", "funzione guadagno": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/funzione guadagno.md",
"funzione costo": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/funzione costo.md", "funzione costo": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/funzione costo.md",
"dimensione dell'input": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/dimensione dell'input.md", "dimensione dell'input": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/dimensione dell'input.md",
"criterio di costo": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/criterio di costo.md", "criterio di costo": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/criterio di costo.md",
"criterio di costo uniforme": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/criterio di costo uniforme.md",
"criterio di costo logaritmico": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/criterio di costo logaritmico.md", "criterio di costo logaritmico": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/criterio di costo logaritmico.md",
"costo computazionale": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/costo computazionale.md", "costo computazionale": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/costo computazionale.md",
"classe di problemi p": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/classe di problemi P.md", "classe di problemi p": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/classe di problemi P.md",
@ -987,20 +988,24 @@
"★ modello computazionale.canvas": "7 - Introduction to quantum information processing/4 - Modello computazionale/★ modello computazionale.canvas", "★ modello computazionale.canvas": "7 - Introduction to quantum information processing/4 - Modello computazionale/★ modello computazionale.canvas",
"modello computazionale generale": "7 - Introduction to quantum information processing/4 - Modello computazionale/modello computazionale generale.md", "modello computazionale generale": "7 - Introduction to quantum information processing/4 - Modello computazionale/modello computazionale generale.md",
"equal superposition": "7 - Introduction to quantum information processing/4 - Modello computazionale/equal superposition.md", "equal superposition": "7 - Introduction to quantum information processing/4 - Modello computazionale/equal superposition.md",
"★ gates complessi.canvas": "7 - Introduction to quantum information processing/3 - Gates complessi/★ gates complessi.canvas", "★ gates.canvas": "7 - Introduction to quantum information processing/2 - Gates/★ gates.canvas",
"gate quantistico controllato universale": "7 - Introduction to quantum information processing/3 - Gates complessi/gate quantistico controllato universale.md", "universal gate": "7 - Introduction to quantum information processing/2 - Gates/universal gate.md",
"controlled pauli x gate": "7 - Introduction to quantum information processing/3 - Gates complessi/controlled Pauli X gate.md", "swap gate": "7 - Introduction to quantum information processing/2 - Gates/swap gate.md",
"swap gate": "7 - Introduction to quantum information processing/3 - Gates complessi/Swap gate.md", "phase gate": "7 - Introduction to quantum information processing/2 - Gates/phase gate.md",
"★ gates semplici.canvas": "7 - Introduction to quantum information processing/2 - Gates semplici/★ gates semplici.canvas", "gate quantistico": "7 - Introduction to quantum information processing/2 - Gates/gate quantistico.md",
"gate quantistico": "7 - Introduction to quantum information processing/2 - Gates semplici/gate quantistico.md", "gate quantistico universale": "7 - Introduction to quantum information processing/2 - Gates/gate quantistico universale.md",
"gate quantistico universale": "7 - Introduction to quantum information processing/2 - Gates semplici/gate quantistico universale.md", "controlled pauli x gate": "7 - Introduction to quantum information processing/2 - Gates/controlled Pauli X gate.md",
"circuito quantistico": "7 - Introduction to quantum information processing/2 - Gates semplici/circuito quantistico.md", "circuito quantistico": "7 - Introduction to quantum information processing/2 - Gates/circuito quantistico.md",
"pauli gate": "7 - Introduction to quantum information processing/2 - Gates semplici/Pauli gate.md", "z-axis rotation gate": "7 - Introduction to quantum information processing/2 - Gates/Z-axis rotation gate.md",
"pauli z gate": "7 - Introduction to quantum information processing/2 - Gates semplici/Pauli Z gate.md", "y-axis rotation gate": "7 - Introduction to quantum information processing/2 - Gates/Y-axis rotation gate.md",
"pauli y gate": "7 - Introduction to quantum information processing/2 - Gates semplici/Pauli Y gate.md", "x-axis rotation gate": "7 - Introduction to quantum information processing/2 - Gates/X-axis rotation gate.md",
"pauli x gate": "7 - Introduction to quantum information processing/2 - Gates semplici/Pauli X gate.md", "toffoli gate": "7 - Introduction to quantum information processing/2 - Gates/Toffoli gate.md",
"identity gate": "7 - Introduction to quantum information processing/2 - Gates semplici/Identity gate.md", "pauli gate": "7 - Introduction to quantum information processing/2 - Gates/Pauli gate.md",
"hadamard gate": "7 - Introduction to quantum information processing/2 - Gates semplici/Hadamard gate.md", "pauli z gate": "7 - Introduction to quantum information processing/2 - Gates/Pauli Z gate.md",
"pauli y gate": "7 - Introduction to quantum information processing/2 - Gates/Pauli Y gate.md",
"pauli x gate": "7 - Introduction to quantum information processing/2 - Gates/Pauli X gate.md",
"identity gate": "7 - Introduction to quantum information processing/2 - Gates/Identity gate.md",
"hadamard gate": "7 - Introduction to quantum information processing/2 - Gates/Hadamard gate.md",
"★ concetti base.canvas": "7 - Fondamenti di machine learning/1 - Concetti base/★ concetti base.canvas", "★ concetti base.canvas": "7 - Fondamenti di machine learning/1 - Concetti base/★ concetti base.canvas",
"stato base di un qbit": "7 - Introduction to quantum information processing/1 - Concetti base/stato base di un qbit.md", "stato base di un qbit": "7 - Introduction to quantum information processing/1 - Concetti base/stato base di un qbit.md",
"spazio degli stati di un sistema quantistico": "7 - Introduction to quantum information processing/1 - Concetti base/spazio degli stati di un sistema quantistico.md", "spazio degli stati di un sistema quantistico": "7 - Introduction to quantum information processing/1 - Concetti base/spazio degli stati di un sistema quantistico.md",
@ -1009,6 +1014,7 @@
"regola di born": "7 - Introduction to quantum information processing/1 - Concetti base/regola di Born.md", "regola di born": "7 - Introduction to quantum information processing/1 - Concetti base/regola di Born.md",
"regola di born generalizzata": "7 - Introduction to quantum information processing/1 - Concetti base/regola di Born generalizzata.md", "regola di born generalizzata": "7 - Introduction to quantum information processing/1 - Concetti base/regola di Born generalizzata.md",
"qbit": "7 - Introduction to quantum information processing/1 - Concetti base/qbit.md", "qbit": "7 - Introduction to quantum information processing/1 - Concetti base/qbit.md",
"qbit e quaternioni": "7 - Introduction to quantum information processing/1 - Concetti base/qbit e quaternioni.md",
"proiezione": "7 - Introduction to quantum information processing/1 - Concetti base/proiezione.md", "proiezione": "7 - Introduction to quantum information processing/1 - Concetti base/proiezione.md",
"proiezione inversa": "7 - Introduction to quantum information processing/1 - Concetti base/proiezione inversa.md", "proiezione inversa": "7 - Introduction to quantum information processing/1 - Concetti base/proiezione inversa.md",
"prodotto tensoriale": "7 - Introduction to quantum information processing/1 - Concetti base/prodotto tensoriale.md", "prodotto tensoriale": "7 - Introduction to quantum information processing/1 - Concetti base/prodotto tensoriale.md",
@ -1029,7 +1035,7 @@
"kernel gaussiano": "7 - Fondamenti di machine learning/3 - Support vector machines/kernel gaussiano.md", "kernel gaussiano": "7 - Fondamenti di machine learning/3 - Support vector machines/kernel gaussiano.md",
"★ simboli per il calcolo vettoriale": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ simboli per il calcolo vettoriale.md", "★ simboli per il calcolo vettoriale": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ simboli per il calcolo vettoriale.md",
"★ calcolo vettoriale.canvas": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ calcolo vettoriale.canvas", "★ calcolo vettoriale.canvas": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ calcolo vettoriale.canvas",
"varietà affine reale": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine reale.md", "varietà affine": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine.md",
"regolarità": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/regolarità.md", "regolarità": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/regolarità.md",
"matrice iacobiana": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md", "matrice iacobiana": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md",
"matrice hessiana": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Hessiana.md", "matrice hessiana": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Hessiana.md",
@ -1041,6 +1047,7 @@
"derivabilità direzionale": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivabilità direzionale.md", "derivabilità direzionale": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivabilità direzionale.md",
"★ simboli per le basi di machine learning": "7 - Fondamenti di machine learning/1 - Concetti base/★ simboli per le basi di machine learning.md", "★ simboli per le basi di machine learning": "7 - Fondamenti di machine learning/1 - Concetti base/★ simboli per le basi di machine learning.md",
"validation set": "7 - Fondamenti di machine learning/1 - Concetti base/validation set.md", "validation set": "7 - Fondamenti di machine learning/1 - Concetti base/validation set.md",
"perdita": "7 - Fondamenti di machine learning/1 - Concetti base/perdita.md",
"training set": "7 - Fondamenti di machine learning/1 - Concetti base/training set.md", "training set": "7 - Fondamenti di machine learning/1 - Concetti base/training set.md",
"testing set": "7 - Fondamenti di machine learning/1 - Concetti base/testing set.md", "testing set": "7 - Fondamenti di machine learning/1 - Concetti base/testing set.md",
"spazio delle ipotesi": "7 - Fondamenti di machine learning/1 - Concetti base/spazio delle ipotesi.md", "spazio delle ipotesi": "7 - Fondamenti di machine learning/1 - Concetti base/spazio delle ipotesi.md",
@ -1048,10 +1055,9 @@
"problema di regressione": "7 - Fondamenti di machine learning/1 - Concetti base/problema di regressione.md", "problema di regressione": "7 - Fondamenti di machine learning/1 - Concetti base/problema di regressione.md",
"problema di classificazione multi-classe": "7 - Fondamenti di machine learning/1 - Concetti base/problema di classificazione multi-classe.md", "problema di classificazione multi-classe": "7 - Fondamenti di machine learning/1 - Concetti base/problema di classificazione multi-classe.md",
"problema di classificazione binaria": "7 - Fondamenti di machine learning/1 - Concetti base/problema di classificazione binaria.md", "problema di classificazione binaria": "7 - Fondamenti di machine learning/1 - Concetti base/problema di classificazione binaria.md",
"perdita": "7 - Fondamenti di machine learning/1 - Concetti base/perdita.md",
"overfitting": "7 - Fondamenti di machine learning/1 - Concetti base/overfitting.md", "overfitting": "7 - Fondamenti di machine learning/1 - Concetti base/overfitting.md",
"modello di supervised learning": "7 - Fondamenti di machine learning/1 - Concetti base/modello di supervised learning.md", "modello di supervised learning": "7 - Fondamenti di machine learning/1 - Concetti base/modello di supervised learning.md",
"data set per supervised learning": "7 - Fondamenti di machine learning/1 - Concetti base/data set per supervised learning.md", "dataset per supervised learning": "7 - Fondamenti di machine learning/1 - Concetti base/dataset per supervised learning.md",
"classificatore": "7 - Fondamenti di machine learning/1 - Concetti base/classificatore.md", "classificatore": "7 - Fondamenti di machine learning/1 - Concetti base/classificatore.md",
"algoritmo di supervised learning": "7 - Fondamenti di machine learning/1 - Concetti base/algoritmo di supervised learning.md", "algoritmo di supervised learning": "7 - Fondamenti di machine learning/1 - Concetti base/algoritmo di supervised learning.md",
"★ big data analytics": "7 - Big data analytics/★ big data analytics.md", "★ big data analytics": "7 - Big data analytics/★ big data analytics.md",
@ -1120,6 +1126,8 @@
"03 - modelli algoritmici": "2 - Algoritmi e strutture dati/1 - Appunti/03 - Modelli algoritmici.md", "03 - modelli algoritmici": "2 - Algoritmi e strutture dati/1 - Appunti/03 - Modelli algoritmici.md",
"02 - efficienza degli algoritmi": "2 - Algoritmi e strutture dati/1 - Appunti/02 - Efficienza degli algoritmi.md", "02 - efficienza degli algoritmi": "2 - Algoritmi e strutture dati/1 - Appunti/02 - Efficienza degli algoritmi.md",
"01 - il nome del corso": "2 - Algoritmi e strutture dati/1 - Appunti/01 - Il nome del corso.md", "01 - il nome del corso": "2 - Algoritmi e strutture dati/1 - Appunti/01 - Il nome del corso.md",
"proposte della mandreoli": "10 - Tirocinio/Proposte della Mandreoli.md",
"proposta di tesi": "10 - Tirocinio/Proposta di tesi.md",
"★ analisi matematica": "1 - Analisi matematica/★ analisi matematica.md", "★ analisi matematica": "1 - Analisi matematica/★ analisi matematica.md",
"x - successioni": "1 - Analisi matematica/1 - Appunti/X - Successioni.md", "x - successioni": "1 - Analisi matematica/1 - Appunti/X - Successioni.md",
"★ algebra lineare": "1 - Algebra lineare/★ algebra lineare.md", "★ algebra lineare": "1 - Algebra lineare/★ algebra lineare.md",
@ -1211,6 +1219,8 @@
"1 - Algebra lineare/★ algebra lineare.md", "1 - Algebra lineare/★ algebra lineare.md",
"1 - Analisi matematica/1 - Appunti/X - Successioni.md", "1 - Analisi matematica/1 - Appunti/X - Successioni.md",
"1 - Analisi matematica/★ analisi matematica.md", "1 - Analisi matematica/★ analisi matematica.md",
"10 - Tirocinio/Proposta di tesi.md",
"10 - Tirocinio/Proposte della Mandreoli.md",
"2 - Algoritmi e strutture dati/1 - Appunti/00 - Informazioni sul corso.md", "2 - Algoritmi e strutture dati/1 - Appunti/00 - Informazioni sul corso.md",
"2 - Algoritmi e strutture dati/1 - Appunti/01 - Il nome del corso.md", "2 - Algoritmi e strutture dati/1 - Appunti/01 - Il nome del corso.md",
"2 - Algoritmi e strutture dati/1 - Appunti/02 - Efficienza degli algoritmi.md", "2 - Algoritmi e strutture dati/1 - Appunti/02 - Efficienza degli algoritmi.md",
@ -1287,7 +1297,7 @@
"7 - Big data analytics/★ big data analytics.md", "7 - Big data analytics/★ big data analytics.md",
"7 - Fondamenti di machine learning/1 - Concetti base/algoritmo di supervised learning.md", "7 - Fondamenti di machine learning/1 - Concetti base/algoritmo di supervised learning.md",
"7 - Fondamenti di machine learning/1 - Concetti base/classificatore.md", "7 - Fondamenti di machine learning/1 - Concetti base/classificatore.md",
"7 - Fondamenti di machine learning/1 - Concetti base/data set per supervised learning.md", "7 - Fondamenti di machine learning/1 - Concetti base/dataset per supervised learning.md",
"7 - Fondamenti di machine learning/1 - Concetti base/modello di supervised learning.md", "7 - Fondamenti di machine learning/1 - Concetti base/modello di supervised learning.md",
"7 - Fondamenti di machine learning/1 - Concetti base/overfitting.md", "7 - Fondamenti di machine learning/1 - Concetti base/overfitting.md",
"7 - Fondamenti di machine learning/1 - Concetti base/perdita.md", "7 - Fondamenti di machine learning/1 - Concetti base/perdita.md",
@ -1310,7 +1320,7 @@
"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Hessiana.md", "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Hessiana.md",
"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md", "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md",
"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/regolarità.md", "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/regolarità.md",
"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine reale.md", "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine.md",
"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ calcolo vettoriale.canvas", "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ calcolo vettoriale.canvas",
"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ simboli per il calcolo vettoriale.md", "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ simboli per il calcolo vettoriale.md",
"7 - Fondamenti di machine learning/3 - Support vector machines/kernel gaussiano.md", "7 - Fondamenti di machine learning/3 - Support vector machines/kernel gaussiano.md",
@ -1331,6 +1341,7 @@
"7 - Introduction to quantum information processing/1 - Concetti base/prodotto tensoriale.md", "7 - Introduction to quantum information processing/1 - Concetti base/prodotto tensoriale.md",
"7 - Introduction to quantum information processing/1 - Concetti base/proiezione inversa.md", "7 - Introduction to quantum information processing/1 - Concetti base/proiezione inversa.md",
"7 - Introduction to quantum information processing/1 - Concetti base/proiezione.md", "7 - Introduction to quantum information processing/1 - Concetti base/proiezione.md",
"7 - Introduction to quantum information processing/1 - Concetti base/qbit e quaternioni.md",
"7 - Introduction to quantum information processing/1 - Concetti base/qbit.md", "7 - Introduction to quantum information processing/1 - Concetti base/qbit.md",
"7 - Introduction to quantum information processing/1 - Concetti base/regola di Born generalizzata.md", "7 - Introduction to quantum information processing/1 - Concetti base/regola di Born generalizzata.md",
"7 - Introduction to quantum information processing/1 - Concetti base/regola di Born.md", "7 - Introduction to quantum information processing/1 - Concetti base/regola di Born.md",
@ -1339,20 +1350,24 @@
"7 - Introduction to quantum information processing/1 - Concetti base/spazio degli stati di un sistema quantistico.md", "7 - Introduction to quantum information processing/1 - Concetti base/spazio degli stati di un sistema quantistico.md",
"7 - Introduction to quantum information processing/1 - Concetti base/stato base di un qbit.md", "7 - Introduction to quantum information processing/1 - Concetti base/stato base di un qbit.md",
"7 - Introduction to quantum information processing/1 - Concetti base/★ concetti base.canvas", "7 - Introduction to quantum information processing/1 - Concetti base/★ concetti base.canvas",
"7 - Introduction to quantum information processing/2 - Gates semplici/Hadamard gate.md", "7 - Introduction to quantum information processing/2 - Gates/Hadamard gate.md",
"7 - Introduction to quantum information processing/2 - Gates semplici/Identity gate.md", "7 - Introduction to quantum information processing/2 - Gates/Identity gate.md",
"7 - Introduction to quantum information processing/2 - Gates semplici/Pauli X gate.md", "7 - Introduction to quantum information processing/2 - Gates/Pauli X gate.md",
"7 - Introduction to quantum information processing/2 - Gates semplici/Pauli Y gate.md", "7 - Introduction to quantum information processing/2 - Gates/Pauli Y gate.md",
"7 - Introduction to quantum information processing/2 - Gates semplici/Pauli Z gate.md", "7 - Introduction to quantum information processing/2 - Gates/Pauli Z gate.md",
"7 - Introduction to quantum information processing/2 - Gates semplici/Pauli gate.md", "7 - Introduction to quantum information processing/2 - Gates/Pauli gate.md",
"7 - Introduction to quantum information processing/2 - Gates semplici/circuito quantistico.md", "7 - Introduction to quantum information processing/2 - Gates/Toffoli gate.md",
"7 - Introduction to quantum information processing/2 - Gates semplici/gate quantistico universale.md", "7 - Introduction to quantum information processing/2 - Gates/X-axis rotation gate.md",
"7 - Introduction to quantum information processing/2 - Gates semplici/gate quantistico.md", "7 - Introduction to quantum information processing/2 - Gates/Y-axis rotation gate.md",
"7 - Introduction to quantum information processing/2 - Gates semplici/★ gates semplici.canvas", "7 - Introduction to quantum information processing/2 - Gates/Z-axis rotation gate.md",
"7 - Introduction to quantum information processing/3 - Gates complessi/Swap gate.md", "7 - Introduction to quantum information processing/2 - Gates/circuito quantistico.md",
"7 - Introduction to quantum information processing/3 - Gates complessi/controlled Pauli X gate.md", "7 - Introduction to quantum information processing/2 - Gates/controlled Pauli X gate.md",
"7 - Introduction to quantum information processing/3 - Gates complessi/gate quantistico controllato universale.md", "7 - Introduction to quantum information processing/2 - Gates/gate quantistico universale.md",
"7 - Introduction to quantum information processing/3 - Gates complessi/★ gates complessi.canvas", "7 - Introduction to quantum information processing/2 - Gates/gate quantistico.md",
"7 - Introduction to quantum information processing/2 - Gates/phase gate.md",
"7 - Introduction to quantum information processing/2 - Gates/swap gate.md",
"7 - Introduction to quantum information processing/2 - Gates/universal gate.md",
"7 - Introduction to quantum information processing/2 - Gates/★ gates.canvas",
"7 - Introduction to quantum information processing/4 - Modello computazionale/equal superposition.md", "7 - Introduction to quantum information processing/4 - Modello computazionale/equal superposition.md",
"7 - Introduction to quantum information processing/4 - Modello computazionale/modello computazionale generale.md", "7 - Introduction to quantum information processing/4 - Modello computazionale/modello computazionale generale.md",
"7 - Introduction to quantum information processing/4 - Modello computazionale/★ modello computazionale.canvas", "7 - Introduction to quantum information processing/4 - Modello computazionale/★ modello computazionale.canvas",
@ -2370,6 +2385,7 @@
"9 - Kernel hacking/1 - Cercando di capire le cose/kernel e Visual Studio Code.md", "9 - Kernel hacking/1 - Cercando di capire le cose/kernel e Visual Studio Code.md",
"9 - Kernel hacking/1 - Cercando di capire le cose/kselftest.md", "9 - Kernel hacking/1 - Cercando di capire le cose/kselftest.md",
"9 - Kernel hacking/1 - Cercando di capire le cose/virtme-ng.md", "9 - Kernel hacking/1 - Cercando di capire le cose/virtme-ng.md",
"9 - Kernel hacking/2 - Note di lavoro/Dualsense/Investigando il DualSense che non si connette.md",
"9 - Kernel hacking/★ kernel hacking.md", "9 - Kernel hacking/★ kernel hacking.md",
"9 - Programmazione mobile/★ programmazione mobile.md", "9 - Programmazione mobile/★ programmazione mobile.md",
"README.md", "README.md",

View file

@ -1,43 +1,230 @@
\newcommand{\par}[1] {\left({#1}\right)} % Parentesi tonde
\newcommand{\arr}[1] {\left[{#1}\right]} \newcommand{\par}[1] {
\newcommand{\hsh}[1] {\left\{{#1}\right\}} \left({#1}\right)
\newcommand{\abs}[1] {\left|{#1}\right|} }
\newcommand{\basisCanon} {\mathbf{\hat{e}}} % Parentesi quadre; liste
\newcommand{\basisCanonElement}[1][i] {\basisCanon_{#1}} \newcommand{\arr}[1] {
\left[{#1}\right]
}
\newcommand{\varietyAffine}[2][X] {\mathscr{#1}\par{#2}} % Parentesi verticali; norme
\newcommand{\abs}[1] {
\left|{#1}\right|
}
\newcommand{\smol} {\epsilon} % Base canonica
\newcommand{\derivativeDirectionalSimple}[3][f] {{#1}'\par{#2_0; #3}} \newcommand{\basisCanon} {
\newcommand{\derivativeDirectional}[3][f] {\frac{d #1 \par{#2_0; #3}}{d \smol}} \mathbf{\hat{e}}
\newcommand{\derivativePartial}[3][f] {\frac{\partial #1 \par{#2_0}}{\partial x_{#3}}} }
\newcommand{\derivativePartialOutput}[4][f] {\frac{\partial #1_{#3} \par{#2_0}}{\partial x_{#4}}}
\newcommand{\derivativeGradientSimple}[2][f] {\nabla_{#1} \par{#2_0}}
\newcommand{\continueField}[1][1] {\mathcal{C}^{#1}}
\newcommand{\hessianSimple}[2][f] {\mathbf{\nabla}^2_{#1} \par{#2_0}}
\newcommand{\hessianElement}[4][f] {\frac{\partial^2 #1 \par{#2}}{\partial #2_{#3}\ \cdot\ \partial #2_{#4}}}
\newcommand{\iacobianSimple}[2][f] {\mathbf{J}_{#1} \par{#2}}
\newcommand{\fmlDataset} {\mathbf{D}} % Elemento della base canonica
\newcommand{\fmlDatasetSize} {P} \newcommand{\basisCanonElement}[1] {
\newcommand{\fmlDatasetTrain} {\fmlDataset_{train}} \basisCanon_{#1}
\newcommand{\fmlDatasetValidate} {\fmlDataset_{validate}} }
\newcommand{\fmlDatasetTest} {\fmlDataset_{test}}
\newcommand{\fmlInputs} {\mathbf{X}} % Infinitesimo
\newcommand{\fmlIndex} {i} \newcommand{\smol} {
\newcommand{\fmlInput}[1][\fmlIndex] {\mathbf{x}_{#1}} \epsilon
\newcommand{\fmlInputSize} {n} }
\newcommand{\fmlInputField}[1][\fmlInputSize] {\mathbb{X}^{#1}}
\newcommand{\fmlElementIndex} {j} % Varietà affine
\newcommand{\fmlInputElement}[1][\fmlIndex\fmlElementIndex] {x_{#1}} \newcommand{\affineVariety}[2] {
\newcommand{\fmlInputElementField} {\mathbb{X}} {\mathbf{#1}} \par{#2}
\newcommand{\fmlOutputs} {\mathbf{y}} }
\newcommand{\fmlOutput}[1][\fmlIndex] {y_{#1}}
\newcommand{\fmlOutputField} {\mathbb{Y}} % Derivata
\newcommand{\fmlClassifier} {f} \newcommand{\derivative}[2] {
\newcommand{\fmlModel} {\fmlClassifier^*} \frac
\newcommand{\fmlHypothesisSpace} {\mathcal{H}} {\mathrm{d}\ {#1}}
\newcommand{\fmlComplexity} {c} {\mathrm{d}\ {#2}}
\newcommand{\fmlComplexityCoefficient} {\lambda} }
\newcommand{\fmlLoss} {V}
% Funzione che è stata derivata
\newcommand{\derivativeOf}[2][\mathrm{f}] {
{#1}' \par{#2}
}
% Derivata direzionale
\newcommand{\derivativeDirectional}[3][\mathrm{f}] {
\derivative
{{#1} \par{\mathbf{#2}; \mathbf{#3}}}
{\smol}
}
% Funzione che è stata derivata direzionalmente
\newcommand{\derivativeDirectionalOf}[3][\mathrm{f}] {
\derivativeOf
[#1]
{\mathbf{#2};\ \mathbf{#3}}
}
% Derivata parziale
\newcommand{\derivativePartial}[3][\mathrm{f}] {
\frac
{\mathrm{\partial}\ {#1} \par{\mathbf{#2}}}
{\mathrm{\partial}\ {#2}_{#3}}
}
% Funzione che è stata derivata parzialmente
\newcommand{\derivativePartialOf}[3][\mathrm{f}] {
\derivativeDirectionalOf
[#1]
{#2}
{\basisCanonElement{#3}}
}
% Gradiente di una funzione
\newcommand{\gradientOf}[2][\mathrm{f}] {
\mathbf{\nabla}_{#1} \par{\mathbf{#2}}
}
% Campo in cui le funzioni sono continue fino all'ordine #1
\newcommand{\continueField}[1] {
\mathcal{C}^{#1}
}
% Hessiana di una funzione
\newcommand{\hessianOf}[2][\mathrm{f}] {
\mathbf{\nabla}^{2}_{#1} \par{\mathbf{#2}}
}
% Elemento dell'Hessiana di una funzione
\newcommand{\hessianElement}[4][\mathrm{f}] {
\par{
\derivativePartial
[#1]
{#2}
{#3}
\cdot
\derivativePartial
[#1]
{#2}
{#4}
}
}
% Iacobiana di una funzione
\newcommand{\iacobianOf}[2][\mathrm{f}] {
\mathbf{J}_{#1} \par{\mathbf{#2}}
}
% Elemento della Iacobiana di una funzione
\newcommand{\iacobianElement}[4][\mathrm{f}] {
\par{
\derivativePartial
[{#1}_{#3}]
{#2}
{#4}
}
}
% Dataset
\newcommand{\fmlDataset} {
\mathbf{D}
}
% Cardinalità del dataset
\newcommand{\fmlDatasetSize} {
p
}
% Training set
\newcommand{\fmlDatasetTrain} {
\fmlDataset_{train}
}
% Validation set
\newcommand{\fmlDatasetValidate} {
\fmlDataset_{validate}
}
% Testing set
\newcommand{\fmlDatasetTest} {
\fmlDataset_{test}
}
% Matrice degli input
\newcommand{\fmlInputs} {
\mathbf{X}
}
% Indice campione della matrice degli input
\newcommand{\fmlDatasetIndex} {
i
}
% Campione della matrice degli input
\newcommand{\fmlInput}[1] {
\mathbf{x}_{#1}
}
% Cardinalità di un vettore di input
\newcommand{\fmlInputSize} {
n
}
% Campo dei campioni della matrice degli input
\newcommand{\fmlInputField}[1][\fmlInputSize] {
\mathbb{X}^{#1}
}
% Indice elemento di un campione di input
\newcommand{\fmlInputElementIndex} {
j
}
% Elemento di un campione di input
\newcommand{\fmlInputElement}[2] {
x_{{#1}{#2}}
}
% Campo di un elemento di un campione di input
\newcommand{\fmlInputElementField} {
\mathbb{X}
}
% Vettore degli output
\newcommand{\fmlOutputs} {
\mathbf{y}
}
% Elemento del vettore degli output
\newcommand{\fmlOutput}[1] {
y_{#1}
}
% Campo del vettore degli output
\newcommand{\fmlOutputField} {
\mathbb{Y}
}
% Classificatore
\newcommand{\fmlClassifier}[1][f] {
\mathrm{#1}
}
% Modello
\newcommand{\fmlModel}[1][f] {
\fmlClassifier[#1]^*
}
% Campo dei classificatori
\newcommand{\fmlHypothesisSpace} {
\mathcal{H}
}
% Complessità
\newcommand{\fmlComplexity} {
c
}
% Parametro di complessità della funzione perdita
\newcommand{\fmlComplexityCoefficient} {
\lambda
}
% Funzione perdita
\newcommand{\fmlLoss} {
\mathrm{V}
}