1
Fork 0
mirror of https://github.com/Steffo99/appunti-magistrali.git synced 2024-11-23 10:44:18 +00:00

Add some more things

This commit is contained in:
Steffo 2024-11-06 13:42:11 +01:00
parent bd26d401d5
commit dfaf76b267
Signed by: steffo
GPG key ID: 5ADA3868646C3FC0
30 changed files with 612 additions and 284 deletions

1
.gitignore vendored
View file

@ -9,3 +9,4 @@
**/0 - Materiale di studio/
**/0 - Piano di studi/
10 - Tirocinio

3
.obsidian/app.json vendored
View file

@ -13,5 +13,6 @@
"showUnsupportedFiles": true,
"newLinkFormat": "shortest",
"trashOption": "system",
"promptDelete": false
"promptDelete": false,
"readableLineLength": true
}

View file

@ -1,16 +1,31 @@
[
"file-explorer",
"global-search",
"switcher",
"graph",
"backlink",
"canvas",
"outgoing-link",
"tag-pane",
"properties",
"templates",
"editor-status",
"bookmarks",
"outline",
"word-count"
]
{
"file-explorer": true,
"global-search": true,
"switcher": true,
"graph": true,
"backlink": true,
"canvas": true,
"outgoing-link": true,
"tag-pane": true,
"page-preview": false,
"daily-notes": false,
"templates": true,
"note-composer": false,
"command-palette": false,
"slash-command": false,
"editor-status": true,
"starred": false,
"markdown-importer": false,
"zk-prefixer": false,
"random-note": false,
"outline": true,
"word-count": true,
"slides": false,
"audio-recorder": false,
"workspaces": false,
"file-recovery": false,
"publish": false,
"sync": false,
"bookmarks": true,
"properties": true
}

View file

@ -14,6 +14,11 @@
"id": "fc3lLaITDn62PYbzBhqxl",
"name": "To do",
"value": "#d7a628"
},
{
"id": "e_YcdvxbhfDN77-giOday",
"name": "Extra",
"value": "#53dfdd"
}
],
"fileColors": [
@ -382,7 +387,7 @@
"color": "me4XBNQC4rwzQFLlvIAn0"
},
{
"path": "7 - Introduction to quantum information processing/2 - Gates semplici/★ gates semplici.canvas",
"path": "7 - Introduction to quantum information processing/2 - Gates/★ gates.canvas",
"color": "7j7Pqog0VHMVVAfazMNlb"
},
{
@ -441,10 +446,6 @@
"path": "7 - Introduction to quantum information processing/0 - Materiale di studio/18 - Corso_QIP___Lesson_9__2022_.pdf",
"color": "fc3lLaITDn62PYbzBhqxl"
},
{
"path": "7 - Introduction to quantum information processing/3 - Gates complessi/★ gates complessi.canvas",
"color": "7j7Pqog0VHMVVAfazMNlb"
},
{
"path": "7 - Introduction to quantum information processing/4 - Modello computazionale/★ modello computazionale.canvas",
"color": "7j7Pqog0VHMVVAfazMNlb"
@ -601,21 +602,45 @@
"path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ simboli per il calcolo vettoriale.md",
"color": "7j7Pqog0VHMVVAfazMNlb"
},
{
"path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md",
"color": "fc3lLaITDn62PYbzBhqxl"
},
{
"path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivata direzionale unilaterale.md",
"color": "fc3lLaITDn62PYbzBhqxl"
},
{
"path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine reale.md",
"color": "fc3lLaITDn62PYbzBhqxl"
},
{
"path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ calcolo vettoriale.canvas",
"color": "7j7Pqog0VHMVVAfazMNlb"
},
{
"path": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine.md",
"color": "fc3lLaITDn62PYbzBhqxl"
},
{
"path": "7 - Introduction to quantum information processing/1 - Concetti base/qbit e quaternioni.md",
"color": "e_YcdvxbhfDN77-giOday"
},
{
"path": "7 - Introduction to quantum information processing/0 - Materiale di studio/XX - Synthesis of Quantum Logic Circuits.pdf",
"color": "e_YcdvxbhfDN77-giOday"
},
{
"path": "7 - Introduction to quantum information processing/2 - Gates/X-axis rotation gate.md",
"color": "e_YcdvxbhfDN77-giOday"
},
{
"path": "7 - Introduction to quantum information processing/2 - Gates/Y-axis rotation gate.md",
"color": "e_YcdvxbhfDN77-giOday"
},
{
"path": "7 - Introduction to quantum information processing/2 - Gates/Z-axis rotation gate.md",
"color": "e_YcdvxbhfDN77-giOday"
},
{
"path": "7 - Introduction to quantum information processing/2 - Gates/circuito quantistico.md",
"color": "fc3lLaITDn62PYbzBhqxl"
},
{
"path": "7 - Introduction to quantum information processing/2 - Gates/Pauli Y gate.md",
"color": "fc3lLaITDn62PYbzBhqxl"
},
{
"path": "7 - Introduction to quantum information processing/2 - Gates/universal gate.md",
"color": "fc3lLaITDn62PYbzBhqxl"
}
]
}

View file

@ -1,6 +1,7 @@
---
aliases:
- data set
- dataset
---
[[insieme]] di [[coppie]] [[input]]-[[output]] per un [[modello di supervised learning]].
$$

View file

@ -16,12 +16,16 @@ $$
=
\min_{\fmlClassifier \in \fmlHypothesisSpace}
\
\sum_{(\fmlInput,\ \fmlOutput) \in D}
\sum_{(\fmlInput{\fmlDatasetIndex},\ \fmlOutput{\fmlDatasetIndex}) \in D}
\par{
V(\fmlOutput, \fmlClassifier(\fmlInput)))
\fmlLoss \par{
\fmlOutput{\fmlDatasetIndex},\ \fmlClassifier(\fmlInput{\fmlDatasetIndex})
}
+
\fmlComplexity
\par{
\fmlComplexityCoefficient
\cdot
\abs{f}^2
\abs{\fmlClassifier}^2
}
}
$$

View file

@ -12,5 +12,8 @@ Misura quanto si allontana il [[classificatore]] dal risultato desiderato.
$$
\Large
\fmlLoss(\fmlOutput, \fmlClassifier(\fmlInput))
\fmlLoss \par{
\fmlOutput,\
\fmlClassifier (\fmlInput{\fmlDatasetIndex})
}
$$

View file

@ -2,5 +2,5 @@
$$
\Huge
\fmlOutputField = \hsh{ -1, 1 }
\fmlOutputField = \set{ -1, 1 }
$$

View file

@ -2,5 +2,5 @@
$$
\Huge
\fmlOutputField = \hsh{ 1, 2, \dots, N }
\fmlOutputField = \set{ 1, 2, \dots, N }
$$

View file

@ -1,33 +1,16 @@
[[problema di minimizzazione]].
Si vuole determinare un [[classificatore]] che minimizzi una [[perdita|funzione perdita]] e una [[complessità]].
Si vuole determinare un [[classificatore]] che minimizzi una certa [[perdita|funzione perdita]] e una certa [[complessità]].
$$
\Large
\fmlModel
=
\min_{\fmlClassifier \in \fmlHypothesisSpace}
\par{
\sum_{i=1}^N
\fmlLoss(\fmlOutput, \fmlClassifier(\fmlInput))
+
\par{
\fmlComplexityCoefficient
\cdot
\fmlComplexity(\fmlClassifier)
}
}
$$
Per scegliere il modello, vengono usati [[campione|campioni]] di coppie [[input]]-[[output]] conosciute, detti [[data set per supervised learning|data set]].
A tale scopo, si crea un [[modello di supervised learning]], al quale vengono dati in input usati [[campione|campioni]] di coppie [[input]]-[[output]] conosciute, detti [[dataset per supervised learning|data set]].
$$
\Large
\fmlDataset \in (\fmlInputField, \fmlOutputField)^{\fmlDatasetSize}
$$
Il [[campo matematico]] di tutti i modelli possibili è detto [[spazio delle ipotesi]].
Il [[campo matematico]] di tutti i classificatori ammissibili è detto [[spazio delle ipotesi]].
$$
\Large
f \in \fmlHypothesisSpace
\fmlClassifier \in \fmlHypothesisSpace
$$

View file

@ -1,8 +1,12 @@
[[codominio]] di un [[problema di supervised learning]].
$$
\Huge
\fmlHypothesisSpace
$$
Le funzioni aventi come [[0 - Generale/dominio|dominio]] $\mathbb{X}^n$ e come [[codominio]] $\mathbb{Y}$:
$$
\Huge
\Large
\mathcal{H} = \mathbb{X}^n \to \mathbb{Y}
$$

View file

@ -1,19 +1,19 @@
| Simbolo | Significato |
| --------------------------: | ---------------------------------------------------------------- |
| ----------------------------------------------------------: | ----------------------------------------------------------------------------------- |
| $\fmlDataset$ | [[dataset per supervised learning]] |
| $\fmlDatasetSize$ | [[cardinalità]] di $\fmlDataset$ |
| $\fmlInputs$ | [[array]] di [[array\|vettori]] degli [[input]] di $\fmlDataset$ |
| $\fmlIndex$ | [[indice]] da $1$ a $\ |
| $\fmlInput$ | $\fmlIndex$-esimo [[array]] di $\fmlInputs$ |
| $\fmlInputSize$ | [[cardinalità di un insieme\|cardinalità]] di $\fmlInput$ |
| $\fmlInputField$ | [[campo matematico]] di $\fmlInput$ |
| $\fmlElementIndex$ | [[indice]] di $\fmlInput$ |
| $\fmlInputElement$ | $\fmlElementIndex$-esimo [[scalare]] di $\fmlInput$ |
| $\fmlInputElementField$ | [[campo matematico]] di $\fmlInputElement$ |
| $\fmlDatasetIndex$ | [[indice]] da $1$ a $\ |
| $\fmlInput{\fmlDatasetIndex}$ | $\fmlDatasetIndex$-esimo [[array]] di $\fmlInputs$ |
| $\fmlInputSize$ | [[cardinalità di un insieme\|cardinalità]] di $\fmlInput{\fmlDatasetIndex}$ |
| $\fmlInputField$ | [[campo matematico]] di $\fmlInput{\fmlDatasetIndex}$ |
| $\fmlInputElementIndex$ | [[indice]] di $\fmlInput{\fmlDatasetIndex}$ |
| $\fmlInputElement{\fmlDatasetIndex}{\fmlInputElementIndex}$ | $\fmlInputElementIndex$-esimo [[scalare]] di $\fmlInput{\fmlDatasetIndex}$ |
| $\fmlInputElementField$ | [[campo matematico]] di $\fmlInputElement{\fmlDatasetIndex}{\fmlInputElementIndex}$ |
| $\fmlOutputs$ | [[array]] degli [[output]] di $\fmlDataset$ |
| $\fmlOutput$ | $\fmlIndex$-esimo [[scalare]] di $\fmlOutputs$ |
| $\fmlOutputField$ | [[campo matematico]] di $\fmlOutput$ |
| $\fmlOutput{\fmlDatasetIndex}$ | $\fmlDatasetIndex$-esimo [[scalare]] di $\fmlOutputs$ |
| $\fmlOutputField$ | [[campo matematico]] di $\fmlOutput{\fmlDatasetIndex}$ |
| $\fmlClassifier$ | [[classificatore]] |
| $\fmlModel$ | [[modello di supervised learning]] |
| $\fmlHypothesisSpace$ | [[spazio delle ipotesi]] |

View file

@ -7,36 +7,10 @@ aliases:
[[proprietà]] di una [[funzione]].
$$
\Huge
\derivativeDirectionalSimple{x}{s}
\derivativeDirectionalOf{x}{s}
$$
Una [[funzione]] ha questa [[proprietà]] rispetto alla [[direzione]] $s$ in $x_0$ quando:
- $\derivativeDirectionalSimple{x}{s}$ e $\derivativeDirectionalSimple{x}{-s}$ esistono
- $\derivativeDirectionalSimple{x}{s}$ e $\derivativeDirectionalSimple{x}{-s}$ sono finite
- $\derivativeDirectionalSimple{x}{s}$ e $\derivativeDirectionalSimple{x}{-s}$ sono uguali
## Calcolo
Consideriamo la [[varietà affine reale]]:
$$
\varietyAffine{c} = x_0 + c \cdot s
$$
Se una [[funzione]] $f$ è [[differenziabilità|differenziabile]], allora esistono le [[derivata parziale|derivate parziali]]:
$$
\displaylines{
\forall \par{
{\color{cyan} direzione}
\in
\hsh{1 \dots \fmlInputSize}_{\mathbb{N}}
}
:
\exists \par{
\derivativePartial{x}{{\color{cyan} direzione}}
}
}
$$
Inoltre, ==esiste la [[varietà affine reale]]==:
$$
\varietyAffine[X_i]{a}
$$
- $\derivativeDirectionalOf{x}{s}$ e $\derivativeDirectionalOf{x}{-s}$ esistono
- $\derivativeDirectionalOf{x}{s}$ e $\derivativeDirectionalOf{x}{-s}$ sono finite
- $\derivativeDirectionalOf{x}{s}$ e $\derivativeDirectionalOf{x}{-s}$ sono uguali

View file

@ -1,18 +1,30 @@
Concetto di [[derivata]] applicato ai [[array|vettori]].
$$
\Huge
\derivativeDirectionalSimple[f]{x}{s}
\derivativeDirectionalOf{x}{s}
$$
È implicato che sia sempre la derivata positiva:
$$
\Large
\Huge
\derivativeDirectionalSimple[\color{lime} f]{{\color{cyan} x}}{{\color{orange} s}}
\derivativeDirectionalOf
[\color{lime} \mathrm{f}]
{\color{cyan} x}
{\color{orange} +s}
=
\lim_{\smol \to 0^+}
\frac{
{\color{lime} f}({\color{cyan} x} + \smol \cdot {\color{orange} s}) - {\color{lime} f}({\color{cyan} x})
\lim_{\smol \to 0^{\color{orange} +}}
\frac
{
{\color{lime} \mathrm{f}}
\par{
{\color{cyan} x} + \smol \cdot {\color{orange} s}
}
-
{\color{lime} \mathrm{f}}
\par{
{\color{cyan} x}
}
}{
\smol
}
@ -21,13 +33,21 @@ $$
La derivata negativa è invece definita come:
$$
\Large
-\derivativeDirectionalSimple[\color{lime} f]{{\color{cyan} x}}{{\color{orange} -s}}
\derivativeDirectionalOf[\color{lime} -f]{{\color{cyan} x_0}}{{\color{orange} -s}}
=
\lim_{\smol \to 0^-}
\frac{
{\color{lime} f}({\color{cyan} x} + \smol \cdot {\color{orange} s}) - {\color{lime} f}({\color{cyan} x})
\lim_{\smol \to 0^{\color{orange} -}}
\frac
{
{\color{lime} \mathrm{f}}
\par{
{\color{cyan} x} + \smol \cdot {\color{orange} s}
}
-
{\color{lime} \mathrm{f}}
\par{
{\color{cyan} x}
}
}{
\smol
}
$$
==Perchè così tante negazioni? La s non va negata?==

View file

@ -1,13 +1,19 @@
Particolare [[derivabilità direzionale|derivata direzionale]].
$$
\Huge
\derivativePartial{x}{\fmlElementIndex}
\derivativePartial
{\mathbf{x}}
{\fmlInputElementIndex}
$$
È determinata rispetto a uno specifico [[array|vettore]] della [[base canonica]]:
$$
\Large
\derivativePartial{x}{\color{cyan} \fmlElementIndex}
\derivativePartial
{x}
{\color{cyan} \fmlInputElementIndex}
=
\derivativeDirectional{x}{\basisCanonElement[\color{cyan} \fmlElementIndex]}
\derivativeDirectional
{x}
{\basisCanonElement{\color{cyan} \fmlInputElementIndex}}
$$

View file

@ -11,4 +11,4 @@ Una [[funzione]] ha questa proprietà rispetto in $x_0$ quando:
- per qualsiasi direzione $s$, la [[funzione]] ha [[derivabilità direzionale]].
Per via delle proprietà della [[base canonica]], questo è equivalente a dire che:
- per qualsiasi [[array|vettore]] $\basisCanonElement$ della [[base canonica]] $\basisCanon$, la [[funzione]] ha [[derivabilità direzionale]].
- per qualsiasi [[array|vettore]] $\basisCanonElement{i}$ della [[base canonica]] $\basisCanon$, la [[funzione]] ha [[derivabilità direzionale]].

View file

@ -9,7 +9,7 @@ Una funzione ha questa proprietà quando:
- per qualsiasi direzione $s$ o punto $x$, la funzione ha [[derivabilità direzionale]].
Per via delle proprietà della [[base canonica]], questo è equivalente a dire che:
- per qualsiasi [[array|vettore]] $\basisCanonElement$ della [[base canonica]] $\basisCanon$ o punto $x$, la funzione ha [[derivabilità direzionale]].
- per qualsiasi [[array|vettore]] $\basisCanonElement{i}$ della [[base canonica]] $\basisCanon$ o punto $x$, la funzione ha [[derivabilità direzionale]].
Per via della definizione del [[gradiente]], questo è equivalente a dire che:
- per qualsiasi punto $x$, esiste un [[gradiente]].

View file

@ -1,20 +1,28 @@
[[vettore colonna]].
$$
\Huge
\derivativeGradientSimple{x}
\gradientOf{\mathbf{x}}
$$
Contiene le [[derivata parziale|derivate parziali]] per tutti gli elementi della [[base canonica]].
$$
\Large
\derivativeGradientSimple{x}
\gradientOf{\mathbf{x}}
=
\begin{bmatrix}
\derivativePartial{x}{1}\\
\derivativePartial{x}{2}\\
\derivativePartial{x}{3}\\
\derivativePartial
{x}
{1}\\
\derivativePartial
{x}
{2}\\
\derivativePartial
{x}
{3}\\
\vdots\\
\derivativePartial{x}{\fmlInputSize}\\
\derivativePartial
{x}
{\fmlInputSize}\\
\end{bmatrix}
$$

View file

@ -5,30 +5,57 @@ aliases:
Particolare [[matrice]] [[matrice quadrata|quadrata]] e [[matrice simmetrica|simmetrica]] definita relativa a una [[funzione]] dalla [[regolarità]] di almeno secondo ordine e una [[variabile]], di ordine uguale a quello della [[base canonica]] del [[0 - Generale/dominio|dominio]] della [[funzione]].
$$
\Huge
\hessianSimple{x}
\hessianOf{\mathbf{x}}
$$
I suoi elementi sono definiti come le $(riga,colonna)$-esime [[derivata parziale|derivate parziali]] della [[funzione]] $f$:
$$
\Large
\hessianSimple{x}
\hessianOf{x}
=
\begin{bmatrix}
\hessianElement{x}{1}{1} &
\hessianElement{x}{1}{2} &
\hessianElement
{x}
{1}
{1} &
\hessianElement
{x}
{1}
{2} &
\dots &
\hessianElement{x}{1}{N} \\
\hessianElement{x}{2}{1} &
\hessianElement{x}{2}{2} &
\hessianElement
{x}
{1}
{N} \\
\hessianElement
{x}
{2}
{1} &
\hessianElement
{x}
{2}
{2} &
\dots &
\hessianElement{x}{2}{N} \\
\hessianElement
{x}
{2}
{N} \\
\vdots &
\vdots &
\ddots &
\vdots \\
\hessianElement{x}{N}{1} &
\hessianElement{x}{N}{2} &
\hessianElement
{x}
{N}
{1} &
\hessianElement
{x}
{N}
{2} &
\dots &
\hessianElement{x}{N}{N} \\
\hessianElement
{x}
{N}
{N}
\end{bmatrix}
$$

View file

@ -6,38 +6,46 @@ Particolare [[matrice]] definita relativa a una [[funzione]] i cui [[output]] so
$$
\Huge
\iacobianSimple{x}
\iacobianOf{\mathbf{x}}
$$
==Controllare che sia giusto.== I suoi elementi sono definiti come le $colonna$-esime [[derivata parziale|derivate parziali]] della funzione $f$ rispetto all'elemento $riga$-esimo in output:
Corrisponde alla [[trasposta]] del [[vettore riga]] risultante come [[gradiente]] di $\mathrm{f}(x)$:
$$
\Large
\iacobianSimple{x}
\iacobianOf{x}
=
\gradientOf{x}
=
\begin{bmatrix}
\derivativePartialOutput{x}{1}{1} &
\derivativePartialOutput{x}{1}{2} &
\gradientOf[\mathrm{f}_1]{x} &
\gradientOf[\mathrm{f}_2]{x} &
\dots &
\derivativePartialOutput{x}{1}{n} \\
\derivativePartialOutput{x}{2}{1} &
\derivativePartialOutput{x}{2}{2} &
\gradientOf[\mathrm{f}_M]{x}
\end{bmatrix}
$$
I suoi elementi sono definiti come le $colonna$-esime [[derivata parziale|derivate parziali]] della funzione $f$ rispetto all'elemento $riga$-esimo in output:
$$
\Large
\iacobianOf{x}
=
\begin{bmatrix}
\iacobianElement{x}{1}{1} &
\iacobianElement{x}{1}{2} &
\dots &
\derivativePartialOutput{x}{2}{n} \\
\iacobianElement{x}{1}{n} \\
\iacobianElement{x}{2}{1} &
\iacobianElement{x}{2}{2} &
\dots &
\iacobianElement{x}{2}{n} \\
\vdots &
\vdots &
\ddots &
\vdots \\
\derivativePartialOutput{x}{M}{1} &
\derivativePartialOutput{x}{M}{2} &
\iacobianElement{x}{M}{1} &
\iacobianElement{x}{M}{2} &
\dots &
\derivativePartialOutput{x}{M}{n} \\
\iacobianElement{x}{M}{n} \\
\end{bmatrix}
$$
In particolare, abbiamo che:
$$
\Large
\iacobianSimple{x}
=
\derivativeGradientSimple{x}'
$$

View file

@ -10,7 +10,7 @@ aliases:
[[proprietà]] di una [[funzione]], che generalizza la [[differenziabilità]].
$$
\Huge
f \in \continueField
f \in \continueField{1}
$$
Una funzione ha questa proprietà quando:
@ -22,8 +22,8 @@ Se anche la [[derivata parziale]] della funzione è una [[regolarità|regolare]]
$$
\Large
\displaylines{
f' \in \continueField \\
f \in \continueField[2]
f^{(1)} \in \continueField{1} \\
f \in \continueField{2}
}
$$
@ -31,7 +31,7 @@ Generalizzando ulteriormente:
$$
\Large
\displaylines{
f^{(n)} \in \continueField \\
f \in \continueField[n]
f^{(z)} \in \continueField{1} \\
f \in \continueField{z}
}
$$

View file

@ -1,23 +0,0 @@
---
aliases:
- affine variety
---
[[Insieme]] di [[punto|punti]] in $\mathbb{R}^n$.
$$
\Huge
\varietyAffine{c}
$$
I [[punto|punti]] sono determinati da una specifica [[traslazione]] di un [[punto]] iniziale per una specifica [[base matematica|base]] scalata per un numero reale.
$$
\Large
\varietyAffine{c} = x_0 + (c \cdot s)
$$
> [!Nota]
> In $\mathbb{R}^3$ è una [[retta]]. ==O in tutti i numeri reali?== ==Posso immaginare che nei complessi sia un piano...==
> [!Tip]
> ==In realtà è una [[funzione]] che restituisce un punto dell'[[insieme]]...==

View file

@ -0,0 +1,30 @@
---
aliases:
- affine variety
---
[[Insieme]] di [[punto|punti]] in $\mathbb{R}^{\fmlDatasetSize}$ ==giusto?==.
$$
\Huge
\affineVariety
{X}
{d}
$$
I [[punto|punti]] sono determinati da una specifica [[traslazione]] di un [[punto]] iniziale per una specifica [[base matematica|base]] scalata per tutti i numeri reali esistenti.
$$
\Large
\displaylines{
\forall\ {\color{orange} c}
\in \mathbb{R} :
\\
x_0 + \par{{\color{orange} c} \cdot d}
\in \affineVariety{x}{d}
}
$$
> [!Nota]
> Per $\mathbf{x} \in \mathbb{R}^{\fmlDatasetSize}$ ==giusto?==, la varietà affine è sempre una [[retta]].
> [!Question]
> Se $\mathbf{x} \in \mathbb{C}^{\fmlDatasetSize}$ la varietà affine cambia sicuramente forma, ma cosa diventa?

View file

@ -1,6 +1,6 @@
{
"nodes":[
{"id":"ebcbe217d83e0e9f","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine reale.md","x":-480,"y":-480,"width":400,"height":400},
{"id":"ebcbe217d83e0e9f","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine.md","x":-640,"y":-480,"width":720,"height":400},
{"id":"fdb6fa9ce7c20562","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivata direzionale unilaterale.md","x":-640,"y":80,"width":720,"height":400},
{"id":"521f5249b09e89c0","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivabilità direzionale.md","x":-640,"y":640,"width":720,"height":400},
{"id":"f48d08c563e4ddd8","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivata parziale.md","x":-640,"y":1200,"width":720,"height":400},
@ -8,7 +8,7 @@
{"id":"2144c3dd20108bba","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/differenziabilità.md","x":-640,"y":2320,"width":720,"height":400},
{"id":"cc7adce67dbf5e26","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/regolarità.md","x":-640,"y":2880,"width":720,"height":400},
{"id":"9a420d351662d679","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Hessiana.md","x":240,"y":2880,"width":720,"height":400},
{"id":"aa4aa530cb8f448e","x":240,"y":2320,"width":720,"height":400,"type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md"}
{"id":"aa4aa530cb8f448e","type":"file","file":"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md","x":240,"y":2320,"width":720,"height":400}
],
"edges":[
{"id":"7961409b3e9f8878","fromNode":"ebcbe217d83e0e9f","fromSide":"bottom","toNode":"fdb6fa9ce7c20562","toSide":"top"},

View file

@ -1,12 +1,15 @@
| Simbolo | Significato |
| -----------------------------------: | ----------------------------------------------------------------- |
| -------------------------------------------------: | ----------------------------------------------------------------- |
| $\basisCanon$ | [[base canonica]] |
| $\basisCanonElement$ | $i$-esimo elemento della [[base canonica]] |
| $\basisCanonElement{i}$ | $i$-esimo elemento della [[base canonica]] |
| $\smol$ | [[infinitesimo]] |
| | |
| $\derivativeDirectionalSimple{x}{s}$ | [[derivata direzionale unilaterale]] |
| $\derivativeDirectional{x}{s}$ | [[derivata direzionale]] in $x_0$ per $s$ |
| $\derivativePartial{x}{i}$ | $i$-esima [[derivata parziale]] |
| $\derivativeGradientSimple{x}$ | [[gradiente]] |
| $\continueField[o]$ | [[insieme]] delle [[regolarità\|funzioni regolari]] di ordine $o$ |
| $\hessianSimple{x}$ | [[matrice Hessiana]] |
| $\affineVariety{\mathbf{x}}{c}$ | [[varietà affine]] |
| $\mathrm{f} \circ \mathrm{g}$ | [[concatenazione di funzione]] tra $\mathrm{f}$ e $\mathrm{g}$ |
| $\derivativeDirectionalOf{\mathbf{x}}{\mathbf{s}}$ | [[derivata direzionale unilaterale]] |
| $\derivativeDirectional{\mathbf{x}}{\mathbf{s}}$ | [[derivata direzionale unilaterale]] in $x_0$ per $s$ |
| $\derivativePartial{\mathbf{x}}{i}$ | $i$-esima [[derivata parziale]] in $x_0$ |
| $\gradientOf{\mathbf{x}}$ | [[gradiente]] |
| $\continueField{z}$ | [[insieme]] delle [[regolarità\|funzioni regolari]] di ordine $z$ |
| $\hessianOf{\mathbf{x}}$ | [[matrice Hessiana]] |
| $\iacobianOf{\mathbf{x}}$ | [[matrice Iacobiana]] |

View file

@ -0,0 +1,35 @@
## Situazione iniziale
### uname
```uname
Linux nitro 6.11.3-zen1-1-zen #1 ZEN SMP PREEMPT_DYNAMIC Thu, 10 Oct 2024 20:11:02 +0000 x86_64 GNU/Linux
```
### Accoppiamento
```journald
Oct 24 23:39:15 nitro systemd[764]: Reached target Bluetooth.
Oct 24 23:39:19 nitro bluetoothd[659]: No matching connection for device
Oct 24 23:39:24 nitro bluetoothd[659]: profiles/input/device.c:control_connect_cb() connect to D0:BC:C1:34:FD:42: Host is down (112)
Oct 24 23:39:24 nitro bluedevil-wizard[15587]: kf.bluezqt: PendingCall Error: "br-connection-create-socket"
```
### Connessione
```journald
Oct 24 23:42:51 nitro kernel: hid-generic 0005:054C:0CE6.0008: unknown main item tag 0x0
Oct 24 23:42:51 nitro kernel: input: Wireless Controller as /devices/virtual/misc/uhid/0005:054C:0CE6.0008/input/input31
Oct 24 23:42:51 nitro kernel: hid-generic 0005:054C:0CE6.0008: input,hidraw7: BLUETOOTH HID v1.00 Gamepad [Wireless Controller] on dc:a9:71:fd:fe:ac
Oct 24 23:42:51 nitro kernel: playstation 0005:054C:0CE6.0008: unknown main item tag 0x0
Oct 24 23:42:51 nitro kernel: playstation 0005:054C:0CE6.0008: hidraw7: BLUETOOTH HID v1.00 Gamepad [Wireless Controller] on dc:a9:71:fd:fe:ac
Oct 24 23:42:51 nitro kernel: input: Wireless Controller as /devices/virtual/misc/uhid/0005:054C:0CE6.0008/input/input32
Oct 24 23:42:51 nitro kernel: input: Wireless Controller Motion Sensors as /devices/virtual/misc/uhid/0005:054C:0CE6.0008/input/input33
Oct 24 23:42:51 nitro kernel: input: Wireless Controller Touchpad as /devices/virtual/misc/uhid/0005:054C:0CE6.0008/input/input34
Oct 24 23:42:51 nitro kernel: playstation 0005:054C:0CE6.0008: Registered DualSense controller hw_version=0x00000313 fw_version=0x01040027
Oct 24 23:42:52 nitro kernel: input: Microsoft X-Box 360 pad 0 as /devices/virtual/input/input35
```
### Verdetto
Batteria scarica.

View file

@ -4,6 +4,7 @@
"readme": "7 - Big data analytics/A1 - MongoDB/README.md",
"★ programmazione mobile": "9 - Programmazione mobile/★ programmazione mobile.md",
"★ kernel hacking": "9 - Kernel hacking/★ kernel hacking.md",
"investigando il dualsense che non si connette": "9 - Kernel hacking/2 - Note di lavoro/Dualsense/Investigando il DualSense che non si connette.md",
"virtme-ng": "9 - Kernel hacking/1 - Cercando di capire le cose/virtme-ng.md",
"kselftest": "9 - Kernel hacking/1 - Cercando di capire le cose/kselftest.md",
"kernel e visual studio code": "9 - Kernel hacking/1 - Cercando di capire le cose/kernel e Visual Studio Code.md",
@ -149,8 +150,8 @@
"sistema distribuito simmetrico": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/sistema distribuito simmetrico.md",
"ritardo di comunicazione unitario": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/ritardo di comunicazione unitario.md",
"ritardo di comunicazione limitato": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/ritardo di comunicazione limitato.md",
"risveglio singolo": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/risveglio singolo.md",
"ritardo di comunicazione illimitato": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/ritardo di comunicazione illimitato.md",
"risveglio singolo": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/risveglio singolo.md",
"risveglio multiplo": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/risveglio multiplo.md",
"risveglio ignorato": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/risveglio ignorato.md",
"rete di comunicazione": "9 - Algoritmi distribuiti/3 - Computazione distribuita/1 - Concetti di computazione distribuita/rete di comunicazione.md",
@ -251,11 +252,11 @@
"insieme delle soluzioni": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/insieme delle soluzioni.md",
"insieme delle istanze": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/insieme delle istanze.md",
"funzione obiettivo": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/funzione obiettivo.md",
"criterio di costo uniforme": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/criterio di costo uniforme.md",
"funzione guadagno": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/funzione guadagno.md",
"funzione costo": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/funzione costo.md",
"dimensione dell'input": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/dimensione dell'input.md",
"criterio di costo": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/criterio di costo.md",
"criterio di costo uniforme": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/criterio di costo uniforme.md",
"criterio di costo logaritmico": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/criterio di costo logaritmico.md",
"costo computazionale": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/costo computazionale.md",
"classe di problemi p": "9 - Algoritmi distribuiti/1 - Problemi algoritmici/classe di problemi P.md",
@ -987,20 +988,24 @@
"★ modello computazionale.canvas": "7 - Introduction to quantum information processing/4 - Modello computazionale/★ modello computazionale.canvas",
"modello computazionale generale": "7 - Introduction to quantum information processing/4 - Modello computazionale/modello computazionale generale.md",
"equal superposition": "7 - Introduction to quantum information processing/4 - Modello computazionale/equal superposition.md",
"★ gates complessi.canvas": "7 - Introduction to quantum information processing/3 - Gates complessi/★ gates complessi.canvas",
"gate quantistico controllato universale": "7 - Introduction to quantum information processing/3 - Gates complessi/gate quantistico controllato universale.md",
"controlled pauli x gate": "7 - Introduction to quantum information processing/3 - Gates complessi/controlled Pauli X gate.md",
"swap gate": "7 - Introduction to quantum information processing/3 - Gates complessi/Swap gate.md",
"★ gates semplici.canvas": "7 - Introduction to quantum information processing/2 - Gates semplici/★ gates semplici.canvas",
"gate quantistico": "7 - Introduction to quantum information processing/2 - Gates semplici/gate quantistico.md",
"gate quantistico universale": "7 - Introduction to quantum information processing/2 - Gates semplici/gate quantistico universale.md",
"circuito quantistico": "7 - Introduction to quantum information processing/2 - Gates semplici/circuito quantistico.md",
"pauli gate": "7 - Introduction to quantum information processing/2 - Gates semplici/Pauli gate.md",
"pauli z gate": "7 - Introduction to quantum information processing/2 - Gates semplici/Pauli Z gate.md",
"pauli y gate": "7 - Introduction to quantum information processing/2 - Gates semplici/Pauli Y gate.md",
"pauli x gate": "7 - Introduction to quantum information processing/2 - Gates semplici/Pauli X gate.md",
"identity gate": "7 - Introduction to quantum information processing/2 - Gates semplici/Identity gate.md",
"hadamard gate": "7 - Introduction to quantum information processing/2 - Gates semplici/Hadamard gate.md",
"★ gates.canvas": "7 - Introduction to quantum information processing/2 - Gates/★ gates.canvas",
"universal gate": "7 - Introduction to quantum information processing/2 - Gates/universal gate.md",
"swap gate": "7 - Introduction to quantum information processing/2 - Gates/swap gate.md",
"phase gate": "7 - Introduction to quantum information processing/2 - Gates/phase gate.md",
"gate quantistico": "7 - Introduction to quantum information processing/2 - Gates/gate quantistico.md",
"gate quantistico universale": "7 - Introduction to quantum information processing/2 - Gates/gate quantistico universale.md",
"controlled pauli x gate": "7 - Introduction to quantum information processing/2 - Gates/controlled Pauli X gate.md",
"circuito quantistico": "7 - Introduction to quantum information processing/2 - Gates/circuito quantistico.md",
"z-axis rotation gate": "7 - Introduction to quantum information processing/2 - Gates/Z-axis rotation gate.md",
"y-axis rotation gate": "7 - Introduction to quantum information processing/2 - Gates/Y-axis rotation gate.md",
"x-axis rotation gate": "7 - Introduction to quantum information processing/2 - Gates/X-axis rotation gate.md",
"toffoli gate": "7 - Introduction to quantum information processing/2 - Gates/Toffoli gate.md",
"pauli gate": "7 - Introduction to quantum information processing/2 - Gates/Pauli gate.md",
"pauli z gate": "7 - Introduction to quantum information processing/2 - Gates/Pauli Z gate.md",
"pauli y gate": "7 - Introduction to quantum information processing/2 - Gates/Pauli Y gate.md",
"pauli x gate": "7 - Introduction to quantum information processing/2 - Gates/Pauli X gate.md",
"identity gate": "7 - Introduction to quantum information processing/2 - Gates/Identity gate.md",
"hadamard gate": "7 - Introduction to quantum information processing/2 - Gates/Hadamard gate.md",
"★ concetti base.canvas": "7 - Fondamenti di machine learning/1 - Concetti base/★ concetti base.canvas",
"stato base di un qbit": "7 - Introduction to quantum information processing/1 - Concetti base/stato base di un qbit.md",
"spazio degli stati di un sistema quantistico": "7 - Introduction to quantum information processing/1 - Concetti base/spazio degli stati di un sistema quantistico.md",
@ -1009,6 +1014,7 @@
"regola di born": "7 - Introduction to quantum information processing/1 - Concetti base/regola di Born.md",
"regola di born generalizzata": "7 - Introduction to quantum information processing/1 - Concetti base/regola di Born generalizzata.md",
"qbit": "7 - Introduction to quantum information processing/1 - Concetti base/qbit.md",
"qbit e quaternioni": "7 - Introduction to quantum information processing/1 - Concetti base/qbit e quaternioni.md",
"proiezione": "7 - Introduction to quantum information processing/1 - Concetti base/proiezione.md",
"proiezione inversa": "7 - Introduction to quantum information processing/1 - Concetti base/proiezione inversa.md",
"prodotto tensoriale": "7 - Introduction to quantum information processing/1 - Concetti base/prodotto tensoriale.md",
@ -1029,7 +1035,7 @@
"kernel gaussiano": "7 - Fondamenti di machine learning/3 - Support vector machines/kernel gaussiano.md",
"★ simboli per il calcolo vettoriale": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ simboli per il calcolo vettoriale.md",
"★ calcolo vettoriale.canvas": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ calcolo vettoriale.canvas",
"varietà affine reale": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine reale.md",
"varietà affine": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine.md",
"regolarità": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/regolarità.md",
"matrice iacobiana": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md",
"matrice hessiana": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Hessiana.md",
@ -1041,6 +1047,7 @@
"derivabilità direzionale": "7 - Fondamenti di machine learning/2 - Calcolo vettoriale/derivabilità direzionale.md",
"★ simboli per le basi di machine learning": "7 - Fondamenti di machine learning/1 - Concetti base/★ simboli per le basi di machine learning.md",
"validation set": "7 - Fondamenti di machine learning/1 - Concetti base/validation set.md",
"perdita": "7 - Fondamenti di machine learning/1 - Concetti base/perdita.md",
"training set": "7 - Fondamenti di machine learning/1 - Concetti base/training set.md",
"testing set": "7 - Fondamenti di machine learning/1 - Concetti base/testing set.md",
"spazio delle ipotesi": "7 - Fondamenti di machine learning/1 - Concetti base/spazio delle ipotesi.md",
@ -1048,7 +1055,6 @@
"problema di regressione": "7 - Fondamenti di machine learning/1 - Concetti base/problema di regressione.md",
"problema di classificazione multi-classe": "7 - Fondamenti di machine learning/1 - Concetti base/problema di classificazione multi-classe.md",
"problema di classificazione binaria": "7 - Fondamenti di machine learning/1 - Concetti base/problema di classificazione binaria.md",
"perdita": "7 - Fondamenti di machine learning/1 - Concetti base/perdita.md",
"overfitting": "7 - Fondamenti di machine learning/1 - Concetti base/overfitting.md",
"modello di supervised learning": "7 - Fondamenti di machine learning/1 - Concetti base/modello di supervised learning.md",
"dataset per supervised learning": "7 - Fondamenti di machine learning/1 - Concetti base/dataset per supervised learning.md",
@ -1120,6 +1126,8 @@
"03 - modelli algoritmici": "2 - Algoritmi e strutture dati/1 - Appunti/03 - Modelli algoritmici.md",
"02 - efficienza degli algoritmi": "2 - Algoritmi e strutture dati/1 - Appunti/02 - Efficienza degli algoritmi.md",
"01 - il nome del corso": "2 - Algoritmi e strutture dati/1 - Appunti/01 - Il nome del corso.md",
"proposte della mandreoli": "10 - Tirocinio/Proposte della Mandreoli.md",
"proposta di tesi": "10 - Tirocinio/Proposta di tesi.md",
"★ analisi matematica": "1 - Analisi matematica/★ analisi matematica.md",
"x - successioni": "1 - Analisi matematica/1 - Appunti/X - Successioni.md",
"★ algebra lineare": "1 - Algebra lineare/★ algebra lineare.md",
@ -1211,6 +1219,8 @@
"1 - Algebra lineare/★ algebra lineare.md",
"1 - Analisi matematica/1 - Appunti/X - Successioni.md",
"1 - Analisi matematica/★ analisi matematica.md",
"10 - Tirocinio/Proposta di tesi.md",
"10 - Tirocinio/Proposte della Mandreoli.md",
"2 - Algoritmi e strutture dati/1 - Appunti/00 - Informazioni sul corso.md",
"2 - Algoritmi e strutture dati/1 - Appunti/01 - Il nome del corso.md",
"2 - Algoritmi e strutture dati/1 - Appunti/02 - Efficienza degli algoritmi.md",
@ -1310,7 +1320,7 @@
"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Hessiana.md",
"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/matrice Iacobiana.md",
"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/regolarità.md",
"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine reale.md",
"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/varietà affine.md",
"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ calcolo vettoriale.canvas",
"7 - Fondamenti di machine learning/2 - Calcolo vettoriale/★ simboli per il calcolo vettoriale.md",
"7 - Fondamenti di machine learning/3 - Support vector machines/kernel gaussiano.md",
@ -1331,6 +1341,7 @@
"7 - Introduction to quantum information processing/1 - Concetti base/prodotto tensoriale.md",
"7 - Introduction to quantum information processing/1 - Concetti base/proiezione inversa.md",
"7 - Introduction to quantum information processing/1 - Concetti base/proiezione.md",
"7 - Introduction to quantum information processing/1 - Concetti base/qbit e quaternioni.md",
"7 - Introduction to quantum information processing/1 - Concetti base/qbit.md",
"7 - Introduction to quantum information processing/1 - Concetti base/regola di Born generalizzata.md",
"7 - Introduction to quantum information processing/1 - Concetti base/regola di Born.md",
@ -1339,20 +1350,24 @@
"7 - Introduction to quantum information processing/1 - Concetti base/spazio degli stati di un sistema quantistico.md",
"7 - Introduction to quantum information processing/1 - Concetti base/stato base di un qbit.md",
"7 - Introduction to quantum information processing/1 - Concetti base/★ concetti base.canvas",
"7 - Introduction to quantum information processing/2 - Gates semplici/Hadamard gate.md",
"7 - Introduction to quantum information processing/2 - Gates semplici/Identity gate.md",
"7 - Introduction to quantum information processing/2 - Gates semplici/Pauli X gate.md",
"7 - Introduction to quantum information processing/2 - Gates semplici/Pauli Y gate.md",
"7 - Introduction to quantum information processing/2 - Gates semplici/Pauli Z gate.md",
"7 - Introduction to quantum information processing/2 - Gates semplici/Pauli gate.md",
"7 - Introduction to quantum information processing/2 - Gates semplici/circuito quantistico.md",
"7 - Introduction to quantum information processing/2 - Gates semplici/gate quantistico universale.md",
"7 - Introduction to quantum information processing/2 - Gates semplici/gate quantistico.md",
"7 - Introduction to quantum information processing/2 - Gates semplici/★ gates semplici.canvas",
"7 - Introduction to quantum information processing/3 - Gates complessi/Swap gate.md",
"7 - Introduction to quantum information processing/3 - Gates complessi/controlled Pauli X gate.md",
"7 - Introduction to quantum information processing/3 - Gates complessi/gate quantistico controllato universale.md",
"7 - Introduction to quantum information processing/3 - Gates complessi/★ gates complessi.canvas",
"7 - Introduction to quantum information processing/2 - Gates/Hadamard gate.md",
"7 - Introduction to quantum information processing/2 - Gates/Identity gate.md",
"7 - Introduction to quantum information processing/2 - Gates/Pauli X gate.md",
"7 - Introduction to quantum information processing/2 - Gates/Pauli Y gate.md",
"7 - Introduction to quantum information processing/2 - Gates/Pauli Z gate.md",
"7 - Introduction to quantum information processing/2 - Gates/Pauli gate.md",
"7 - Introduction to quantum information processing/2 - Gates/Toffoli gate.md",
"7 - Introduction to quantum information processing/2 - Gates/X-axis rotation gate.md",
"7 - Introduction to quantum information processing/2 - Gates/Y-axis rotation gate.md",
"7 - Introduction to quantum information processing/2 - Gates/Z-axis rotation gate.md",
"7 - Introduction to quantum information processing/2 - Gates/circuito quantistico.md",
"7 - Introduction to quantum information processing/2 - Gates/controlled Pauli X gate.md",
"7 - Introduction to quantum information processing/2 - Gates/gate quantistico universale.md",
"7 - Introduction to quantum information processing/2 - Gates/gate quantistico.md",
"7 - Introduction to quantum information processing/2 - Gates/phase gate.md",
"7 - Introduction to quantum information processing/2 - Gates/swap gate.md",
"7 - Introduction to quantum information processing/2 - Gates/universal gate.md",
"7 - Introduction to quantum information processing/2 - Gates/★ gates.canvas",
"7 - Introduction to quantum information processing/4 - Modello computazionale/equal superposition.md",
"7 - Introduction to quantum information processing/4 - Modello computazionale/modello computazionale generale.md",
"7 - Introduction to quantum information processing/4 - Modello computazionale/★ modello computazionale.canvas",
@ -2370,6 +2385,7 @@
"9 - Kernel hacking/1 - Cercando di capire le cose/kernel e Visual Studio Code.md",
"9 - Kernel hacking/1 - Cercando di capire le cose/kselftest.md",
"9 - Kernel hacking/1 - Cercando di capire le cose/virtme-ng.md",
"9 - Kernel hacking/2 - Note di lavoro/Dualsense/Investigando il DualSense che non si connette.md",
"9 - Kernel hacking/★ kernel hacking.md",
"9 - Programmazione mobile/★ programmazione mobile.md",
"README.md",

View file

@ -1,43 +1,230 @@
\newcommand{\par}[1] {\left({#1}\right)}
\newcommand{\arr}[1] {\left[{#1}\right]}
\newcommand{\hsh}[1] {\left\{{#1}\right\}}
\newcommand{\abs}[1] {\left|{#1}\right|}
% Parentesi tonde
\newcommand{\par}[1] {
\left({#1}\right)
}
\newcommand{\basisCanon} {\mathbf{\hat{e}}}
\newcommand{\basisCanonElement}[1][i] {\basisCanon_{#1}}
% Parentesi quadre; liste
\newcommand{\arr}[1] {
\left[{#1}\right]
}
\newcommand{\varietyAffine}[2][X] {\mathscr{#1}\par{#2}}
% Parentesi verticali; norme
\newcommand{\abs}[1] {
\left|{#1}\right|
}
\newcommand{\smol} {\epsilon}
\newcommand{\derivativeDirectionalSimple}[3][f] {{#1}'\par{#2_0; #3}}
\newcommand{\derivativeDirectional}[3][f] {\frac{d #1 \par{#2_0; #3}}{d \smol}}
\newcommand{\derivativePartial}[3][f] {\frac{\partial #1 \par{#2_0}}{\partial x_{#3}}}
\newcommand{\derivativePartialOutput}[4][f] {\frac{\partial #1_{#3} \par{#2_0}}{\partial x_{#4}}}
\newcommand{\derivativeGradientSimple}[2][f] {\nabla_{#1} \par{#2_0}}
\newcommand{\continueField}[1][1] {\mathcal{C}^{#1}}
\newcommand{\hessianSimple}[2][f] {\mathbf{\nabla}^2_{#1} \par{#2_0}}
\newcommand{\hessianElement}[4][f] {\frac{\partial^2 #1 \par{#2}}{\partial #2_{#3}\ \cdot\ \partial #2_{#4}}}
\newcommand{\iacobianSimple}[2][f] {\mathbf{J}_{#1} \par{#2}}
% Base canonica
\newcommand{\basisCanon} {
\mathbf{\hat{e}}
}
\newcommand{\fmlDataset} {\mathbf{D}}
\newcommand{\fmlDatasetSize} {P}
\newcommand{\fmlDatasetTrain} {\fmlDataset_{train}}
\newcommand{\fmlDatasetValidate} {\fmlDataset_{validate}}
\newcommand{\fmlDatasetTest} {\fmlDataset_{test}}
\newcommand{\fmlInputs} {\mathbf{X}}
\newcommand{\fmlIndex} {i}
\newcommand{\fmlInput}[1][\fmlIndex] {\mathbf{x}_{#1}}
\newcommand{\fmlInputSize} {n}
\newcommand{\fmlInputField}[1][\fmlInputSize] {\mathbb{X}^{#1}}
\newcommand{\fmlElementIndex} {j}
\newcommand{\fmlInputElement}[1][\fmlIndex\fmlElementIndex] {x_{#1}}
\newcommand{\fmlInputElementField} {\mathbb{X}}
\newcommand{\fmlOutputs} {\mathbf{y}}
\newcommand{\fmlOutput}[1][\fmlIndex] {y_{#1}}
\newcommand{\fmlOutputField} {\mathbb{Y}}
\newcommand{\fmlClassifier} {f}
\newcommand{\fmlModel} {\fmlClassifier^*}
\newcommand{\fmlHypothesisSpace} {\mathcal{H}}
\newcommand{\fmlComplexity} {c}
\newcommand{\fmlComplexityCoefficient} {\lambda}
\newcommand{\fmlLoss} {V}
% Elemento della base canonica
\newcommand{\basisCanonElement}[1] {
\basisCanon_{#1}
}
% Infinitesimo
\newcommand{\smol} {
\epsilon
}
% Varietà affine
\newcommand{\affineVariety}[2] {
{\mathbf{#1}} \par{#2}
}
% Derivata
\newcommand{\derivative}[2] {
\frac
{\mathrm{d}\ {#1}}
{\mathrm{d}\ {#2}}
}
% Funzione che è stata derivata
\newcommand{\derivativeOf}[2][\mathrm{f}] {
{#1}' \par{#2}
}
% Derivata direzionale
\newcommand{\derivativeDirectional}[3][\mathrm{f}] {
\derivative
{{#1} \par{\mathbf{#2}; \mathbf{#3}}}
{\smol}
}
% Funzione che è stata derivata direzionalmente
\newcommand{\derivativeDirectionalOf}[3][\mathrm{f}] {
\derivativeOf
[#1]
{\mathbf{#2};\ \mathbf{#3}}
}
% Derivata parziale
\newcommand{\derivativePartial}[3][\mathrm{f}] {
\frac
{\mathrm{\partial}\ {#1} \par{\mathbf{#2}}}
{\mathrm{\partial}\ {#2}_{#3}}
}
% Funzione che è stata derivata parzialmente
\newcommand{\derivativePartialOf}[3][\mathrm{f}] {
\derivativeDirectionalOf
[#1]
{#2}
{\basisCanonElement{#3}}
}
% Gradiente di una funzione
\newcommand{\gradientOf}[2][\mathrm{f}] {
\mathbf{\nabla}_{#1} \par{\mathbf{#2}}
}
% Campo in cui le funzioni sono continue fino all'ordine #1
\newcommand{\continueField}[1] {
\mathcal{C}^{#1}
}
% Hessiana di una funzione
\newcommand{\hessianOf}[2][\mathrm{f}] {
\mathbf{\nabla}^{2}_{#1} \par{\mathbf{#2}}
}
% Elemento dell'Hessiana di una funzione
\newcommand{\hessianElement}[4][\mathrm{f}] {
\par{
\derivativePartial
[#1]
{#2}
{#3}
\cdot
\derivativePartial
[#1]
{#2}
{#4}
}
}
% Iacobiana di una funzione
\newcommand{\iacobianOf}[2][\mathrm{f}] {
\mathbf{J}_{#1} \par{\mathbf{#2}}
}
% Elemento della Iacobiana di una funzione
\newcommand{\iacobianElement}[4][\mathrm{f}] {
\par{
\derivativePartial
[{#1}_{#3}]
{#2}
{#4}
}
}
% Dataset
\newcommand{\fmlDataset} {
\mathbf{D}
}
% Cardinalità del dataset
\newcommand{\fmlDatasetSize} {
p
}
% Training set
\newcommand{\fmlDatasetTrain} {
\fmlDataset_{train}
}
% Validation set
\newcommand{\fmlDatasetValidate} {
\fmlDataset_{validate}
}
% Testing set
\newcommand{\fmlDatasetTest} {
\fmlDataset_{test}
}
% Matrice degli input
\newcommand{\fmlInputs} {
\mathbf{X}
}
% Indice campione della matrice degli input
\newcommand{\fmlDatasetIndex} {
i
}
% Campione della matrice degli input
\newcommand{\fmlInput}[1] {
\mathbf{x}_{#1}
}
% Cardinalità di un vettore di input
\newcommand{\fmlInputSize} {
n
}
% Campo dei campioni della matrice degli input
\newcommand{\fmlInputField}[1][\fmlInputSize] {
\mathbb{X}^{#1}
}
% Indice elemento di un campione di input
\newcommand{\fmlInputElementIndex} {
j
}
% Elemento di un campione di input
\newcommand{\fmlInputElement}[2] {
x_{{#1}{#2}}
}
% Campo di un elemento di un campione di input
\newcommand{\fmlInputElementField} {
\mathbb{X}
}
% Vettore degli output
\newcommand{\fmlOutputs} {
\mathbf{y}
}
% Elemento del vettore degli output
\newcommand{\fmlOutput}[1] {
y_{#1}
}
% Campo del vettore degli output
\newcommand{\fmlOutputField} {
\mathbb{Y}
}
% Classificatore
\newcommand{\fmlClassifier}[1][f] {
\mathrm{#1}
}
% Modello
\newcommand{\fmlModel}[1][f] {
\fmlClassifier[#1]^*
}
% Campo dei classificatori
\newcommand{\fmlHypothesisSpace} {
\mathcal{H}
}
% Complessità
\newcommand{\fmlComplexity} {
c
}
% Parametro di complessità della funzione perdita
\newcommand{\fmlComplexityCoefficient} {
\lambda
}
% Funzione perdita
\newcommand{\fmlLoss} {
\mathrm{V}
}