mirror of
https://github.com/Steffo99/unisteffo.git
synced 2024-11-21 23:44:22 +00:00
machinelearning
: Add lesson 2
This commit is contained in:
parent
b8ec2efdeb
commit
1d86c2f3b9
1 changed files with 147 additions and 61 deletions
|
@ -1,13 +1,10 @@
|
||||||
import {Heading, Chapter, Box, ListUnordered, BringAttention as B, Idiomatic as I, UAnnotation as U, Parenthesis, Quote} from "@steffo/bluelib-react"
|
import {Heading, Chapter, Box, ListUnordered, BringAttention as B, Idiomatic as I, UAnnotation as U, Parenthesis} from "@steffo/bluelib-react"
|
||||||
import type { NextPage, NextPageContext } from 'next'
|
import type { NextPage, NextPageContext } from 'next'
|
||||||
import { Link } from '../../../components/link'
|
import { Link } from '../../../components/link'
|
||||||
import 'katex/dist/katex.min.css';
|
import 'katex/dist/katex.min.css';
|
||||||
import TeX from "@matejmazur/react-katex"
|
import TeX from "@matejmazur/react-katex"
|
||||||
const r = String.raw
|
const r = String.raw
|
||||||
|
|
||||||
const X = () => <TeX math={r`\mathbb{X}`}/>
|
|
||||||
const Y = () => <TeX math={r`\mathbb{Y}`}/>
|
|
||||||
|
|
||||||
export async function getStaticProps(_context: NextPageContext) {
|
export async function getStaticProps(_context: NextPageContext) {
|
||||||
return {
|
return {
|
||||||
props: {}
|
props: {}
|
||||||
|
@ -25,37 +22,53 @@ const Page: NextPage = () => {
|
||||||
<Heading level={2}>
|
<Heading level={2}>
|
||||||
Analisi multivariata
|
Analisi multivariata
|
||||||
</Heading>
|
</Heading>
|
||||||
<Box todo>
|
<Box>
|
||||||
<Heading level={3}>
|
<Heading level={3}>
|
||||||
Spazio vettoriale
|
Spazio vettoriale
|
||||||
</Heading>
|
</Heading>
|
||||||
<p>
|
<p>
|
||||||
<B>Struttura algebrica</B> che rappresenta una generalizzazione del concetto di "piano" e "spazio" dei piani cartesiani rispettivamente bi e tri-dimensionali.
|
<B>Insieme</B> di elementi che tra loro possono essere:
|
||||||
</p>
|
</p>
|
||||||
|
<ListUnordered>
|
||||||
|
<ListUnordered.Item>
|
||||||
|
<U>sommati</U>: <TeX math={r`\mathbf{a}+\mathbf{b}`}/>
|
||||||
|
</ListUnordered.Item>
|
||||||
|
<ListUnordered.Item>
|
||||||
|
<U>scalati</U>: <TeX math={r`\langle \mathbf{a}, \mathbf{b} \rangle`}/>
|
||||||
|
</ListUnordered.Item>
|
||||||
|
</ListUnordered>
|
||||||
|
<Parenthesis>
|
||||||
|
Rappresenta una generalizzazione dei concetti euclidei di <B>piano</B> (2D) e <B>spazio</B> (3D).
|
||||||
|
</Parenthesis>
|
||||||
</Box>
|
</Box>
|
||||||
<Box todo>
|
<Box>
|
||||||
<Heading level={3}>
|
<Heading level={3}>
|
||||||
Sottospazio vettoriale
|
Sottospazio vettoriale
|
||||||
</Heading>
|
</Heading>
|
||||||
<p>
|
<p>
|
||||||
<B>Spazio vettoriale</B> contenuto nello spazio vettoriale da cui deriva.
|
<B>Sottoinsieme chiuso</B> di uno spazio vettoriale.
|
||||||
|
</p>
|
||||||
|
<p>
|
||||||
|
L'intersezione tra due sottospazi vettoriali è essa stessa un sottospazio vettoriale.
|
||||||
</p>
|
</p>
|
||||||
<Parenthesis>
|
|
||||||
In genere ne riduce le dimensioni.
|
|
||||||
</Parenthesis>
|
|
||||||
</Box>
|
</Box>
|
||||||
<Box todo>
|
<Box>
|
||||||
<Heading level={3}>
|
<Heading level={3}>
|
||||||
Varietà affine
|
Varietà affine in <TeX math={r`\mathbb{R}^n`}/>
|
||||||
</Heading>
|
</Heading>
|
||||||
<p>
|
<p>
|
||||||
Traslazione del sottospazio generato da un dato spazio <TeX math={r`s`}/> in un dato punto <TeX math={r`x_0`}/>
|
<B>Sottospazio vettoriale</B> generato da <TeX math={r`\mathbf{s}`}/> e traslato di <TeX math={r`\mathbf{x_0}`}/>:
|
||||||
</p>
|
</p>
|
||||||
<p>
|
<p>
|
||||||
<TeX block math={r`x(\alpha) = x_0 + \alpha s`}/>
|
<TeX block math={"\\mathrm{x}(\\alpha) = \\mathbf{x_0} + \\alpha s"}/>
|
||||||
</p>
|
</p>
|
||||||
<Parenthesis>
|
<Parenthesis>
|
||||||
|
<p>
|
||||||
|
È l'astrazione di una <B>retta</B> euclidea in uno spazio vettoriale reale e multidimensionale.
|
||||||
|
</p>
|
||||||
|
<p>
|
||||||
|
Infatti, al variare di <TeX math={r`\alpha`}/>, il vettore <TeX math={r`\mathbf{x_0}`}/> contraendosi ed esapandendosi disegna una retta.
|
||||||
|
</p>
|
||||||
</Parenthesis>
|
</Parenthesis>
|
||||||
</Box>
|
</Box>
|
||||||
</Chapter>
|
</Chapter>
|
||||||
|
@ -65,102 +78,175 @@ const Page: NextPage = () => {
|
||||||
Derivata direzionale unilaterale
|
Derivata direzionale unilaterale
|
||||||
</Heading>
|
</Heading>
|
||||||
<p>
|
<p>
|
||||||
Limite del rapporto incrementale in una <B>specifica dimensione</B> per uno spazio multidimensionale:
|
Limite del rapporto incrementale nella direzione <TeX math={r`\mathbf{s}`}/> per uno spazio multidimensionale:
|
||||||
</p>
|
</p>
|
||||||
<p>
|
<p>
|
||||||
<TeX block math={r`f' (x_0; s) = \lim_{\alpha \to 0^+} \frac{f(x_0 + \alpha s) - f(x_0)}{\alpha}`}/>
|
<TeX block math={r`f' (\mathbf{x_0}; \mathbf{s}) = \lim_{\alpha \to 0^+} \frac{f(\mathbf{x_0} + \alpha \mathbf{s}) - f(\mathbf{x_0})}{\alpha}`}/>
|
||||||
|
</p>
|
||||||
|
<Parenthesis>
|
||||||
|
<p>
|
||||||
|
<TeX math={r`\mathbf{x_0}`}/> è il punto fermo su cui viene effettuato il limite, mentre <TeX math={r`\alpha \mathbf{s}`}/> è il vettore direzionale che viene scalato sempre più "in piccolo".
|
||||||
|
</p>
|
||||||
|
</Parenthesis>
|
||||||
|
<p>
|
||||||
|
Il suo <U>opposto</U> è:
|
||||||
</p>
|
</p>
|
||||||
<p>
|
<p>
|
||||||
Nell'altra direzione, diventa:
|
<TeX block math={r`{\color{Orange}-}f' (\mathbf{x_0}; {\color{Orange}-}\mathbf{s}) = \lim_{\alpha \to 0^{\color{Orange}-}} \frac{f(\mathbf{x_0} + \alpha \mathbf{s}) - f(\mathbf{x_0})}{\alpha}`}/>
|
||||||
</p>
|
|
||||||
<p>
|
|
||||||
<TeX block math={r`{\color{Orange}-}f' (x_0; {\color{Orange}-}s) = \lim_{\alpha \to 0^{\color{Orange}-}} \frac{f(x_0 + \alpha s) - f(x_0)}{\alpha}`}/>
|
|
||||||
</p>
|
</p>
|
||||||
</Box>
|
</Box>
|
||||||
<Box todo>
|
<Box>
|
||||||
<Heading level={3}>
|
<Heading level={3}>
|
||||||
Derivata direzionale (bilaterale)
|
Derivata direzionale bilaterale
|
||||||
</Heading>
|
</Heading>
|
||||||
<p>
|
<p>
|
||||||
Se esistono entrambe le derivate direzionali unilaterali, allora possiamo dire che è bilaterale e che
|
Se <B>esistono entrambe</B> le derivate direzionali unilaterali opposte per un dato punto e una data direzione, allora si ha una derivata direzionale <I>bilaterale</I>:
|
||||||
</p>
|
</p>
|
||||||
<p>
|
<p>
|
||||||
<TeX block math={r`\frac{df(x_0; s)}{d\alpha} = f'(x_0; s) = -f'(x_0; -s)`}/>
|
<TeX block math={r`\frac{df(\mathbf{x_0}; \mathbf{s})}{d\alpha} = f'(\mathbf{x_0}; \mathbf{s}) = -f'(\mathbf{x_0}; -\mathbf{s})`}/>
|
||||||
</p>
|
</p>
|
||||||
</Box>
|
</Box>
|
||||||
</Chapter>
|
</Chapter>
|
||||||
<Chapter>
|
<Chapter>
|
||||||
<Box todo>
|
<Box>
|
||||||
<Heading level={3}>
|
<Heading level={3}>
|
||||||
Derivata parziale
|
<TeX math={r`i`}/>-esima derivata parziale
|
||||||
</Heading>
|
</Heading>
|
||||||
<p>
|
<p>
|
||||||
Particolare <B>derivata direzionale</B> rispetto a un vettore della <B>base canonica</B>
|
<B>Derivata direzionale bilaterale</B> nella direzione dell'<TeX math={r`i`}/>-esimo vettore della <B>base canonica</B> <TeX math={r`\mathbf{e}`}/>:
|
||||||
</p>
|
</p>
|
||||||
|
<p>
|
||||||
|
<TeX block math={r`\frac{{\color{Orange}\delta}f(\mathbf{x_0}; {\color{Orange}\mathbf{e_i}})}{{\color{Orange}\delta}\alpha} = f'(\mathbf{x_0}; {\color{Orange}\mathbf{e_i}}) = -f'(\mathbf{x_0}; -{\color{Orange}\mathbf{e_i}})`}/>
|
||||||
|
</p>
|
||||||
|
<Parenthesis>
|
||||||
|
<p>
|
||||||
|
Ovvero la pendenza lungo uno degli <B>assi</B>.
|
||||||
|
</p>
|
||||||
|
</Parenthesis>
|
||||||
</Box>
|
</Box>
|
||||||
<Box todo>
|
<Box>
|
||||||
<Heading level={3}>
|
<Heading level={3}>
|
||||||
Gradiente
|
Gradiente
|
||||||
</Heading>
|
</Heading>
|
||||||
<p>
|
<p>
|
||||||
Vettore contenenti tutte le derivate parziali di un altro vettore rispetto a ogni elemento della base canonica
|
<B>Vettore</B> contenenti tutte le derivate parziali di una funzione rispetto a ogni elemento della base canonica:
|
||||||
</p>
|
</p>
|
||||||
<p>
|
<p>
|
||||||
<TeX block math={r`\nabla`}/>
|
<TeX block math={r`\nabla f(x_0) = \left( \begin{matrix}
|
||||||
|
\frac{\delta f( \mathbf{x_0}; \mathbf{e_{\color{Orange}0}} )}{\delta \alpha} \\
|
||||||
|
\\
|
||||||
|
\frac{\delta f( \mathbf{x_0}; \mathbf{e_{\color{Orange}1}} )}{\delta \alpha} \\
|
||||||
|
\\
|
||||||
|
\vdots \\
|
||||||
|
\\
|
||||||
|
\frac{\delta f( \mathbf{x_0}; \mathbf{e_{\color{Orange}n}} )}{\delta \alpha}
|
||||||
|
\end{matrix} \right)`}/>
|
||||||
|
</p>
|
||||||
|
<p>
|
||||||
|
Se il gradiente <B>esiste</B>, allora la funzione è <B>differenziabile</B> in <TeX math={r`\mathbf{x_0}`}/>.
|
||||||
|
</p>
|
||||||
|
<p>
|
||||||
|
Se il gradiente è <B>continuo</B>, allora la funzione è <B>regolare</B> in <TeX math={r`\mathbf{x_0}`}/>.
|
||||||
</p>
|
</p>
|
||||||
</Box>
|
</Box>
|
||||||
</Chapter>
|
</Chapter>
|
||||||
<Chapter>
|
<Chapter>
|
||||||
<Box todo>
|
<Box>
|
||||||
<Heading level={3}>
|
|
||||||
Differenziabile
|
|
||||||
</Heading>
|
|
||||||
<p>
|
|
||||||
Funzione con un gradiente per ogni valore reale
|
|
||||||
</p>
|
|
||||||
</Box>
|
|
||||||
<Box todo>
|
|
||||||
<Heading level={3}>
|
|
||||||
Differenziabile con continuità
|
|
||||||
</Heading>
|
|
||||||
<p>
|
|
||||||
Funzione differenziabile con un gradiente continuo per ogni valore reale
|
|
||||||
</p>
|
|
||||||
<p>
|
|
||||||
Alias funzione regolare
|
|
||||||
</p>
|
|
||||||
</Box>
|
|
||||||
<Box todo>
|
|
||||||
<Heading level={3}>
|
<Heading level={3}>
|
||||||
Hessiana
|
Hessiana
|
||||||
</Heading>
|
</Heading>
|
||||||
|
<Parenthesis todo>
|
||||||
|
Migliorare la definizione.
|
||||||
|
</Parenthesis>
|
||||||
<p>
|
<p>
|
||||||
<B>Matrice quadrata</B> di "doppie differenziazioni", praticamente l'equivalente matriciale della derivata seconda
|
<B>Matrice quadrata</B> che applica alla derivata parziale un'altra derivata parziale:
|
||||||
</p>
|
</p>
|
||||||
<p>
|
<p>
|
||||||
Dà informazioni sulla curvatura, secondo ordine
|
<TeX block math={r`H(x) = \nabla^2 f(\mathbf{x}) = \left( \begin{matrix}
|
||||||
|
\frac{\delta f(\mathbf{x}) }{\delta x_{{\color{Orange} 1}} x_{{\color{Orange} 1}}} &
|
||||||
|
\frac{\delta f(\mathbf{x}) }{\delta x_{{\color{Orange} 1}} x_{{\color{Orange} 2}}} &
|
||||||
|
\dots &
|
||||||
|
\frac{\delta f(\mathbf{x}) }{\delta x_{{\color{Orange} 1}} x_{{\color{Orange} n}}} \\
|
||||||
|
\\
|
||||||
|
\frac{\delta f(\mathbf{x}) }{\delta x_{{\color{Orange} 2}} x_{{\color{Orange} 1}}} &
|
||||||
|
\frac{\delta f(\mathbf{x}) }{\delta x_{{\color{Orange} 2}} x_{{\color{Orange} 2}}} &
|
||||||
|
\dots &
|
||||||
|
\frac{\delta f(\mathbf{x}) }{\delta x_{{\color{Orange} 2}} x_{{\color{Orange} n}}} \\
|
||||||
|
\\
|
||||||
|
\vdots &
|
||||||
|
\vdots &
|
||||||
|
\ddots &
|
||||||
|
\vdots \\
|
||||||
|
\\
|
||||||
|
\frac{\delta f(\mathbf{x}) }{\delta x_{{\color{Orange} n}} x_{{\color{Orange} 1}}} &
|
||||||
|
\frac{\delta f(\mathbf{x}) }{\delta x_{{\color{Orange} n}} x_{{\color{Orange} 2}}} &
|
||||||
|
\dots &
|
||||||
|
\frac{\delta f(\mathbf{x}) }{\delta x_{{\color{Orange} n}} x_{{\color{Orange} n}}} &
|
||||||
|
\end{matrix} \right)`}/>
|
||||||
</p>
|
</p>
|
||||||
|
<p>
|
||||||
|
Dà informazioni sulla <B>curvatura</B>.
|
||||||
|
</p>
|
||||||
|
<Parenthesis>
|
||||||
|
<p>
|
||||||
|
L'astrazione multidimensionale della <B>derivata seconda</B>.
|
||||||
|
</p>
|
||||||
|
</Parenthesis>
|
||||||
</Box>
|
</Box>
|
||||||
<Box todo>
|
<Box>
|
||||||
<Heading level={3}>
|
<Heading level={3}>
|
||||||
Iacobiana
|
Iacobiana
|
||||||
</Heading>
|
</Heading>
|
||||||
<p>
|
<p>
|
||||||
<B>Matrice quadrata</B>
|
In una funzione che <B>restituisce vettori</B>, è una <B>matrice quadrata</B> costituita dal gradiente nei confronti di ogni elemento del vettore restituito:
|
||||||
|
</p>
|
||||||
|
<p>
|
||||||
|
<TeX block math={r`J_f(x) = \nabla f(\mathbf{x})^{T} = \left( \begin{matrix}
|
||||||
|
\frac{\delta f_{{\color{Orange} 1}}(\mathbf{x}) }{\delta x_{{\color{Orange} 1}}} &
|
||||||
|
\frac{\delta f_{{\color{Orange} 1}}(\mathbf{x}) }{\delta x_{{\color{Orange} 2}}} &
|
||||||
|
\dots &
|
||||||
|
\frac{\delta f_{{\color{Orange} 1}}(\mathbf{x}) }{\delta x_{{\color{Orange} n}}} \\
|
||||||
|
\\
|
||||||
|
\frac{\delta f_{{\color{Orange} 2}}(\mathbf{x}) }{\delta x_{{\color{Orange} 1}}} &
|
||||||
|
\frac{\delta f_{{\color{Orange} 2}}(\mathbf{x}) }{\delta x_{{\color{Orange} 2}}} &
|
||||||
|
\dots &
|
||||||
|
\frac{\delta f_{{\color{Orange} 2}}(\mathbf{x}) }{\delta x_{{\color{Orange} n}}} \\
|
||||||
|
\\
|
||||||
|
\vdots &
|
||||||
|
\vdots &
|
||||||
|
\ddots &
|
||||||
|
\vdots \\
|
||||||
|
\\
|
||||||
|
\frac{\delta f_{{\color{Orange} m}}(\mathbf{x}) }{\delta x_{{\color{Orange} 1}}} &
|
||||||
|
\frac{\delta f_{{\color{Orange} m}}(\mathbf{x}) }{\delta x_{{\color{Orange} 1}}} &
|
||||||
|
\dots &
|
||||||
|
\frac{\delta f_{{\color{Orange} m}}(\mathbf{x}) }{\delta x_{{\color{Orange} 1}}}
|
||||||
|
\end{matrix} \right)`}/>
|
||||||
</p>
|
</p>
|
||||||
</Box>
|
</Box>
|
||||||
<Box todo>
|
</Chapter>
|
||||||
|
<Chapter>
|
||||||
|
<Box>
|
||||||
<Heading level={3}>
|
<Heading level={3}>
|
||||||
Curvatura
|
Calcolo dell'inclinazione
|
||||||
</Heading>
|
</Heading>
|
||||||
<p>
|
<p>
|
||||||
|
Usando le proprietà della moltiplicazione matriciale, la <B>direzione</B> <TeX math={r`\mathbf{s}`}/> che ci interessa e il <B>gradiente</B> <TeX math={r`\nabla`}/>, possiamo trovare in modo semplice tutte le derivate direzionali, l'<I>inclinazione</I> della funzione:
|
||||||
|
</p>
|
||||||
|
<p>
|
||||||
|
<TeX block math={r`s^T {\color{Orange} \nabla f(x(\alpha))} = s^T {\color{Orange}g}`}/>
|
||||||
</p>
|
</p>
|
||||||
</Box>
|
</Box>
|
||||||
<Box todo>
|
<Box>
|
||||||
<Heading level={3}>
|
<Heading level={3}>
|
||||||
Curva di livello
|
Calcolo della curvatura
|
||||||
</Heading>
|
</Heading>
|
||||||
|
<p>
|
||||||
|
Come per l'inclinazione, sfruttando la <B>direzione</B> <TeX math={r`\mathbf{s}`}/> che ci interessa e l'<B>Hessiana</B> <TeX math={"\nabla^2 f(x(\alpha))"}/>, possiamo trovare in modo semplice tutte le derivate seconde, la <I>curvatura</I> della funzione:
|
||||||
|
</p>
|
||||||
|
<p>
|
||||||
|
<TeX block math={r`s^T {\color{Orange}\nabla^2 f(x(\alpha))} s = s^T {\color{Orange}H} s`}/>
|
||||||
|
</p>
|
||||||
</Box>
|
</Box>
|
||||||
</Chapter>
|
</Chapter>
|
||||||
</>
|
</>
|
||||||
|
|
Loading…
Reference in a new issue