1
Fork 0
mirror of https://github.com/Steffo99/unisteffo.git synced 2024-11-23 16:34:21 +00:00
triennale-appunti-steffo/pages/year4/machinelearning/cenni.tsx

371 lines
16 KiB
TypeScript
Raw Normal View History

2022-10-04 23:47:53 +00:00
import {Heading, Chapter, Box, ListUnordered, BringAttention as B, Idiomatic as I, UAnnotation as U, Parenthesis} from "@steffo/bluelib-react"
2022-10-03 09:38:28 +00:00
import type { NextPage, NextPageContext } from 'next'
import { Link } from '../../../components/link'
import 'katex/dist/katex.min.css';
import TeX from "@matejmazur/react-katex"
const r = String.raw
export async function getStaticProps(_context: NextPageContext) {
return {
props: {}
}
}
const Page: NextPage = () => {
return <>
<Heading level={2}>
<Link href="/year4/machinelearning">
Machine learning
</Link>
</Heading>
<Chapter>
<Heading level={2}>
Analisi multivariata
</Heading>
2022-10-04 23:47:53 +00:00
<Box>
2022-10-03 09:38:28 +00:00
<Heading level={3}>
Spazio vettoriale
</Heading>
<p>
2022-10-04 23:47:53 +00:00
<B>Insieme</B> di elementi che tra loro possono essere:
2022-10-03 09:38:28 +00:00
</p>
2022-10-04 23:47:53 +00:00
<ListUnordered>
<ListUnordered.Item>
<U>sommati</U>: <TeX math={r`\mathbf{a}+\mathbf{b}`}/>
</ListUnordered.Item>
<ListUnordered.Item>
<U>scalati</U>: <TeX math={r`\langle \mathbf{a}, \mathbf{b} \rangle`}/>
</ListUnordered.Item>
</ListUnordered>
<Parenthesis>
Rappresenta una generalizzazione dei concetti euclidei di <B>piano</B> (2D) e <B>spazio</B> (3D).
</Parenthesis>
2022-10-03 09:38:28 +00:00
</Box>
2022-10-04 23:47:53 +00:00
<Box>
2022-10-03 09:38:28 +00:00
<Heading level={3}>
Sottospazio vettoriale
</Heading>
<p>
2022-10-05 10:48:11 +00:00
<B>Sottoinsieme</B> di uno spazio vettoriale le cui somma e scala sono <B>chiuse</B> nel sottoinsieme stesso.
2022-10-04 23:47:53 +00:00
</p>
2022-10-05 10:48:11 +00:00
<Parenthesis>
<p>
Un classico sottospazio è una riduzione di dimensioni di uno spazio, come uno spazio 3D che diventa un piano 2D.
</p>
</Parenthesis>
2022-10-04 23:47:53 +00:00
<p>
L'intersezione tra due sottospazi vettoriali è essa stessa un sottospazio vettoriale.
2022-10-03 09:38:28 +00:00
</p>
</Box>
2022-10-04 23:47:53 +00:00
<Box>
2022-10-03 09:38:28 +00:00
<Heading level={3}>
2022-10-04 23:47:53 +00:00
Varietà affine in <TeX math={r`\mathbb{R}^n`}/>
2022-10-03 09:38:28 +00:00
</Heading>
<p>
2022-10-04 23:47:53 +00:00
<B>Sottospazio vettoriale</B> generato da <TeX math={r`\mathbf{s}`}/> e traslato di <TeX math={r`\mathbf{x_0}`}/>:
2022-10-03 09:38:28 +00:00
</p>
<p>
2022-10-04 23:47:53 +00:00
<TeX block math={"\\mathrm{x}(\\alpha) = \\mathbf{x_0} + \\alpha s"}/>
2022-10-03 09:38:28 +00:00
</p>
2022-10-03 10:15:40 +00:00
<Parenthesis>
2022-10-04 23:47:53 +00:00
<p>
È l'astrazione di una <B>retta</B> euclidea in uno spazio vettoriale reale e multidimensionale.
</p>
<p>
2022-10-05 10:48:11 +00:00
Infatti, al variare di <TeX math={r`\alpha s`}/>, il vettore <TeX math={r`\mathbf{x_0}`}/> sposta avanti e indietro in quella direzione, disegnando una retta.
2022-10-04 23:47:53 +00:00
</p>
2022-10-03 10:15:40 +00:00
</Parenthesis>
2022-10-03 09:38:28 +00:00
</Box>
</Chapter>
<Chapter>
<Box>
<Heading level={3}>
Derivata direzionale unilaterale
</Heading>
<p>
2022-10-04 23:47:53 +00:00
Limite del rapporto incrementale nella direzione <TeX math={r`\mathbf{s}`}/> per uno spazio multidimensionale:
2022-10-03 09:38:28 +00:00
</p>
<p>
2022-10-04 23:47:53 +00:00
<TeX block math={r`f' (\mathbf{x_0}; \mathbf{s}) = \lim_{\alpha \to 0^+} \frac{f(\mathbf{x_0} + \alpha \mathbf{s}) - f(\mathbf{x_0})}{\alpha}`}/>
2022-10-03 09:38:28 +00:00
</p>
2022-10-04 23:47:53 +00:00
<Parenthesis>
<p>
<TeX math={r`\mathbf{x_0}`}/> è il punto fermo su cui viene effettuato il limite, mentre <TeX math={r`\alpha \mathbf{s}`}/> è il vettore direzionale che viene scalato sempre più "in piccolo".
</p>
</Parenthesis>
2022-10-03 09:38:28 +00:00
<p>
2022-10-04 23:47:53 +00:00
Il suo <U>opposto</U> è:
2022-10-03 09:38:28 +00:00
</p>
<p>
2022-10-04 23:47:53 +00:00
<TeX block math={r`{\color{Orange}-}f' (\mathbf{x_0}; {\color{Orange}-}\mathbf{s}) = \lim_{\alpha \to 0^{\color{Orange}-}} \frac{f(\mathbf{x_0} + \alpha \mathbf{s}) - f(\mathbf{x_0})}{\alpha}`}/>
2022-10-03 09:38:28 +00:00
</p>
</Box>
2022-10-04 23:47:53 +00:00
<Box>
2022-10-03 09:38:28 +00:00
<Heading level={3}>
2022-10-04 23:47:53 +00:00
Derivata direzionale bilaterale
2022-10-03 09:38:28 +00:00
</Heading>
<p>
2022-10-04 23:47:53 +00:00
Se <B>esistono entrambe</B> le derivate direzionali unilaterali opposte per un dato punto e una data direzione, allora si ha una derivata direzionale <I>bilaterale</I>:
2022-10-03 09:38:28 +00:00
</p>
<p>
2022-10-04 23:47:53 +00:00
<TeX block math={r`\frac{df(\mathbf{x_0}; \mathbf{s})}{d\alpha} = f'(\mathbf{x_0}; \mathbf{s}) = -f'(\mathbf{x_0}; -\mathbf{s})`}/>
2022-10-03 09:38:28 +00:00
</p>
</Box>
</Chapter>
<Chapter>
2022-10-04 23:47:53 +00:00
<Box>
2022-10-03 09:38:28 +00:00
<Heading level={3}>
2022-10-04 23:47:53 +00:00
<TeX math={r`i`}/>-esima derivata parziale
2022-10-03 09:38:28 +00:00
</Heading>
<p>
2022-10-04 23:47:53 +00:00
<B>Derivata direzionale bilaterale</B> nella direzione dell'<TeX math={r`i`}/>-esimo vettore della <B>base canonica</B> <TeX math={r`\mathbf{e}`}/>:
2022-10-03 09:38:28 +00:00
</p>
2022-10-04 23:47:53 +00:00
<p>
<TeX block math={r`\frac{{\color{Orange}\delta}f(\mathbf{x_0}; {\color{Orange}\mathbf{e_i}})}{{\color{Orange}\delta}\alpha} = f'(\mathbf{x_0}; {\color{Orange}\mathbf{e_i}}) = -f'(\mathbf{x_0}; -{\color{Orange}\mathbf{e_i}})`}/>
</p>
<Parenthesis>
<p>
Ovvero la pendenza lungo uno degli <B>assi</B>.
</p>
</Parenthesis>
2022-10-03 09:38:28 +00:00
</Box>
2022-10-04 23:47:53 +00:00
<Box>
2022-10-03 09:38:28 +00:00
<Heading level={3}>
Gradiente
</Heading>
<p>
2022-10-04 23:47:53 +00:00
<B>Vettore</B> contenenti tutte le derivate parziali di una funzione rispetto a ogni elemento della base canonica:
</p>
<p>
<TeX block math={r`\nabla f(x_0) = \left( \begin{matrix}
\frac{\delta f( \mathbf{x_0}; \mathbf{e_{\color{Orange}0}} )}{\delta \alpha} \\
\\
\frac{\delta f( \mathbf{x_0}; \mathbf{e_{\color{Orange}1}} )}{\delta \alpha} \\
\\
\vdots \\
\\
\frac{\delta f( \mathbf{x_0}; \mathbf{e_{\color{Orange}n}} )}{\delta \alpha}
\end{matrix} \right)`}/>
</p>
<p>
Se il gradiente <B>esiste</B>, allora la funzione è <B>differenziabile</B> in <TeX math={r`\mathbf{x_0}`}/>.
2022-10-03 09:38:28 +00:00
</p>
<p>
2022-10-04 23:47:53 +00:00
Se il gradiente è <B>continuo</B>, allora la funzione è <B>regolare</B> in <TeX math={r`\mathbf{x_0}`}/>.
2022-10-03 09:38:28 +00:00
</p>
</Box>
</Chapter>
<Chapter>
2022-10-04 23:47:53 +00:00
<Box>
2022-10-03 09:38:28 +00:00
<Heading level={3}>
2022-10-04 23:47:53 +00:00
Hessiana
2022-10-03 09:38:28 +00:00
</Heading>
2022-10-04 23:47:53 +00:00
<Parenthesis todo>
Migliorare la definizione.
</Parenthesis>
2022-10-03 09:38:28 +00:00
<p>
2022-10-04 23:47:53 +00:00
<B>Matrice quadrata</B> che applica alla derivata parziale un'altra derivata parziale:
</p>
<p>
<TeX block math={r`H(x) = \nabla^2 f(\mathbf{x}) = \left( \begin{matrix}
\frac{\delta f(\mathbf{x}) }{\delta x_{{\color{Orange} 1}} x_{{\color{Orange} 1}}} &
\frac{\delta f(\mathbf{x}) }{\delta x_{{\color{Orange} 1}} x_{{\color{Orange} 2}}} &
\dots &
\frac{\delta f(\mathbf{x}) }{\delta x_{{\color{Orange} 1}} x_{{\color{Orange} n}}} \\
\\
\frac{\delta f(\mathbf{x}) }{\delta x_{{\color{Orange} 2}} x_{{\color{Orange} 1}}} &
\frac{\delta f(\mathbf{x}) }{\delta x_{{\color{Orange} 2}} x_{{\color{Orange} 2}}} &
\dots &
\frac{\delta f(\mathbf{x}) }{\delta x_{{\color{Orange} 2}} x_{{\color{Orange} n}}} \\
\\
\vdots &
\vdots &
\ddots &
\vdots \\
\\
\frac{\delta f(\mathbf{x}) }{\delta x_{{\color{Orange} n}} x_{{\color{Orange} 1}}} &
\frac{\delta f(\mathbf{x}) }{\delta x_{{\color{Orange} n}} x_{{\color{Orange} 2}}} &
\dots &
\frac{\delta f(\mathbf{x}) }{\delta x_{{\color{Orange} n}} x_{{\color{Orange} n}}} &
\end{matrix} \right)`}/>
</p>
<p>
informazioni sulla <B>curvatura</B>.
2022-10-03 09:38:28 +00:00
</p>
2022-10-04 23:47:53 +00:00
<Parenthesis>
<p>
L'astrazione multidimensionale della <B>derivata seconda</B>.
</p>
</Parenthesis>
2022-10-03 09:38:28 +00:00
</Box>
2022-10-04 23:47:53 +00:00
<Box>
2022-10-03 09:38:28 +00:00
<Heading level={3}>
2022-10-04 23:47:53 +00:00
Iacobiana
2022-10-03 09:38:28 +00:00
</Heading>
<p>
2022-10-04 23:47:53 +00:00
In una funzione che <B>restituisce vettori</B>, è una <B>matrice quadrata</B> costituita dal gradiente nei confronti di ogni elemento del vettore restituito:
</p>
<p>
<TeX block math={r`J_f(x) = \nabla f(\mathbf{x})^{T} = \left( \begin{matrix}
\frac{\delta f_{{\color{Orange} 1}}(\mathbf{x}) }{\delta x_{{\color{Orange} 1}}} &
\frac{\delta f_{{\color{Orange} 1}}(\mathbf{x}) }{\delta x_{{\color{Orange} 2}}} &
\dots &
\frac{\delta f_{{\color{Orange} 1}}(\mathbf{x}) }{\delta x_{{\color{Orange} n}}} \\
\\
\frac{\delta f_{{\color{Orange} 2}}(\mathbf{x}) }{\delta x_{{\color{Orange} 1}}} &
\frac{\delta f_{{\color{Orange} 2}}(\mathbf{x}) }{\delta x_{{\color{Orange} 2}}} &
\dots &
\frac{\delta f_{{\color{Orange} 2}}(\mathbf{x}) }{\delta x_{{\color{Orange} n}}} \\
\\
\vdots &
\vdots &
\ddots &
\vdots \\
\\
\frac{\delta f_{{\color{Orange} m}}(\mathbf{x}) }{\delta x_{{\color{Orange} 1}}} &
\frac{\delta f_{{\color{Orange} m}}(\mathbf{x}) }{\delta x_{{\color{Orange} 1}}} &
\dots &
\frac{\delta f_{{\color{Orange} m}}(\mathbf{x}) }{\delta x_{{\color{Orange} 1}}}
\end{matrix} \right)`}/>
2022-10-03 09:38:28 +00:00
</p>
</Box>
2022-10-04 23:47:53 +00:00
</Chapter>
<Chapter>
<Box>
2022-10-03 09:38:28 +00:00
<Heading level={3}>
2022-10-04 23:47:53 +00:00
Calcolo dell'inclinazione
2022-10-03 09:38:28 +00:00
</Heading>
<p>
2022-10-04 23:47:53 +00:00
Usando le proprietà della moltiplicazione matriciale, la <B>direzione</B> <TeX math={r`\mathbf{s}`}/> che ci interessa e il <B>gradiente</B> <TeX math={r`\nabla`}/>, possiamo trovare in modo semplice tutte le derivate direzionali, l'<I>inclinazione</I> della funzione:
2022-10-03 09:38:28 +00:00
</p>
<p>
2022-10-04 23:47:53 +00:00
<TeX block math={r`s^T {\color{Orange} \nabla f(x(\alpha))} = s^T {\color{Orange}g}`}/>
2022-10-03 09:38:28 +00:00
</p>
</Box>
2022-10-04 23:47:53 +00:00
<Box>
2022-10-03 09:38:28 +00:00
<Heading level={3}>
2022-10-04 23:47:53 +00:00
Calcolo della curvatura
2022-10-03 09:38:28 +00:00
</Heading>
<p>
2022-10-04 23:49:16 +00:00
Come per l'inclinazione, sfruttando la <B>direzione</B> <TeX math={r`\mathbf{s}`}/> che ci interessa e l'<B>Hessiana</B> <TeX math={r`\nabla^2 f(x(\alpha))`}/>, possiamo trovare in modo semplice tutte le derivate seconde, la <I>curvatura</I> della funzione:
2022-10-03 09:38:28 +00:00
</p>
<p>
2022-10-04 23:47:53 +00:00
<TeX block math={r`s^T {\color{Orange}\nabla^2 f(x(\alpha))} s = s^T {\color{Orange}H} s`}/>
2022-10-03 09:38:28 +00:00
</p>
</Box>
</Chapter>
2022-10-05 10:48:11 +00:00
<Chapter>
<Box>
<Heading level={3}>
Curva di livello
</Heading>
<p>
<B>Insieme</B> di tutti i punti di una funzione multidimensionale con lo stesso "valore", ovvero tali che:
</p>
<p>
<TeX block math={r`\mathcal{L}_c (f) = { \mathbf{x} \in \mathbb{R}^n : f(\mathbf{x}) = c`}/>
</p>
</Box>
<Box todo>
<Heading level={3}>
Direzione di massima crescita e descrescita
</Heading>
</Box>
<Box todo>
<Heading level={3}>
Funzione obiettivo lineare
</Heading>
<p>
basically come trovare il gradiente di una funzione lineare
</p>
</Box>
<Box todo>
<Heading level={3}>
Funzione obiettivo quadratica
</Heading>
<p>
ovvero come trovare il gradiente di una funzione quadratica
</p>
</Box>
<Box todo>
<Heading level={3}>
Funzione obiettivo polinomiale
</Heading>
<p>
guess what goes here
</p>
</Box>
<Box todo>
<Heading level={3}>
Funzione di Taylor multidimensionale
</Heading>
<p>
utile per effettuare approssimazioni di funzioni troppo costose computazionalmente da calcolare
</p>
</Box>
</Chapter>
<Chapter>
<Heading level={2}>
Analisi convessa
</Heading>
<Box todo>
<Heading level={3}>
Insieme convesso
</Heading>
<p>
Sottospazio tale che:
</p>
<p>
<TeX block math={`\forall \alpha \in [0, 1] \alpha \mathbf{x} + (1 - alpha) \mathbf{y} \in \Omega`}/>
</p>
</Box>
<Box todo>
<Heading level={3}>
Funzione convessa
</Heading>
<p>
Una funzione multidimensionale con un minimo unico.
</p>
<p>
Si dice strettamente convessa se c'è un punto solo di minimo.
</p>
</Box>
<Box todo>
<Heading level={3}>
Funzione concava
</Heading>
<p>
Una funzione multidimensionale con un massimo unico.
</p>
</Box>
<Box todo>
<Heading level={3}>
Funzione quasi-convessa
</Heading>
</Box>
<Box todo>
<Heading level={3}>
Funzione pseudo-convessa
</Heading>
</Box>
<Box todo>
<Heading level={3}>
Proprietà delle funzioni convesse <TeX math={r`\in C^1`}/>
</Heading>
</Box>
<Box todo>
<Heading level={3}>
Proprietà delle funzioni convesse <TeX math={r`\in C^2`}/>
</Heading>
</Box>
<Box todo>
<Heading level={3}>
Proprietà delle funzioni quadratiche
</Heading>
</Box>
</Chapter>
2022-10-03 09:38:28 +00:00
</>
}
export default Page