1
Fork 0
mirror of https://github.com/Steffo99/unisteffo.git synced 2024-11-21 23:44:22 +00:00

machinelearning: Complete lesson 1

This commit is contained in:
Steffo 2022-09-30 03:17:30 +02:00
parent 8693f06997
commit 3c2e1155ec
Signed by: steffo
GPG key ID: 6965406171929D01

View file

@ -1,4 +1,4 @@
import {Heading, Chapter, Box, ListUnordered, BringAttention as B, Idiomatic as I} from "@steffo/bluelib-react" import {Heading, Chapter, Box, ListUnordered, BringAttention as B, Idiomatic as I, UAnnotation as U, Parenthesis, Quote} from "@steffo/bluelib-react"
import type { NextPage, NextPageContext } from 'next' import type { NextPage, NextPageContext } from 'next'
import { Link } from '../../../components/link' import { Link } from '../../../components/link'
import 'katex/dist/katex.min.css'; import 'katex/dist/katex.min.css';
@ -22,8 +22,8 @@ const Page: NextPage = () => {
</Link> </Link>
</Heading> </Heading>
<Chapter> <Chapter>
<Heading level={3}> <Heading level={2}>
Concetto base Apprendimento
</Heading> </Heading>
<Box> <Box>
<Heading level={3}> <Heading level={3}>
@ -41,13 +41,50 @@ const Page: NextPage = () => {
<p> <p>
<TeX block math={r`D = { ( \mathbf{x}_i, y_i ), i = 1, \dots, N, \mathbf{x}_i \in {X}, y_i \in {Y} }`}/> <TeX block math={r`D = { ( \mathbf{x}_i, y_i ), i = 1, \dots, N, \mathbf{x}_i \in {X}, y_i \in {Y} }`}/>
</p> </p>
<Chapter>
<Box>
<Heading level={3}>
Training set
</Heading>
<p>
Insieme di associazioni su cui ci si basa per <B>creare</B> il modello matematico.
</p>
<Parenthesis>
Il codice di programmazione del modello!
</Parenthesis>
</Box>
<Box>
<Heading level={3}>
Validation set
</Heading>
<p>
Insieme di associazioni usate per <B>verificare</B> che il modello matematico sia <I>valido</I>.
</p>
<Parenthesis>
La Continuous Integration del modello!
</Parenthesis>
</Box>
<Box>
<Heading level={3}>
Testing set
</Heading>
<p>
Insieme di associazioni usate per <B>determinare l&apos;efficacia</B> del modello matematico.
</p>
<Parenthesis>
Il benchmark del modello!
</Parenthesis>
</Box>
</Chapter>
</Box>
</Chapter>
<Chapter> <Chapter>
<Box> <Box>
<Heading level={3}> <Heading level={3}>
Supervised learning Supervised learning
</Heading> </Heading>
<p> <p>
Quando <B>si è a conoscenza</B> del dominio dello spazio di output <Y/>, il machine learning è detto <I>supervised learning</I>. Quando <U builtinColor={"lime"}>si è a conoscenza</U> del dominio dello spazio di output <Y/>, il machine learning è detto <I>supervised learning</I>.
</p> </p>
<p> <p>
In particolare, i problemi risolti in questo caso sono detti: In particolare, i problemi risolti in questo caso sono detti:
@ -69,7 +106,7 @@ const Page: NextPage = () => {
Unsupervised learning Unsupervised learning
</Heading> </Heading>
<p> <p>
Quando <B>non si è a conoscenza</B> del dominio dello spazio di output <Y/>, il machine learning è detto <I>supervised learning</I>. Quando <U builtinColor={"red"}>non si è a conoscenza</U> del dominio dello spazio di output <Y/>, il machine learning è detto <I>supervised learning</I>.
</p> </p>
<p> <p>
In particolare, i problemi risolti in questo caso sono detti: In particolare, i problemi risolti in questo caso sono detti:
@ -84,31 +121,88 @@ const Page: NextPage = () => {
</ListUnordered> </ListUnordered>
</Box> </Box>
</Chapter> </Chapter>
</Box>
</Chapter>
<Chapter> <Chapter>
<Box todo> <Heading level={2}>
Ottimizzazione
</Heading>
<Box>
<Heading level={3}> <Heading level={3}>
Come un problema di ottimizzazione Come un problema di ottimizzazione
</Heading> </Heading>
<p> <p>
Possiamo astrarre il machine learning come il seguente problema di ottimizzazione di <B>minimizzazione dell&apos;errore</B>: Possiamo astrarre il machine learning come il seguente problema di ottimizzazione:
</p> </p>
<p> <p>
<TeX block math={r`\min_{f \in H} \quad \sum_{i=1}^N \quad V(y_i, f(x_i)) \quad + \quad \lambda \| f \|^2`}/> <TeX block math={r`\min_{f \in \mathcal{H}} \left( \quad \sum_{i=1}^N \hspace{0.5em} V(y_i, f(x_i)) \quad + \quad \lambda \| f \|^2 \quad \right)`}/>
</p> </p>
<Parenthesis>
<Quote>Trova la <B>funzione</B> che minimizza gli <B>errori sul training set</B> e la <B>complessità della funzione</B>, dando opzionalmente <B>priorità</B> a uno dei due addendi.</Quote>
</Parenthesis>
</Box>
</Chapter>
<Chapter> <Chapter>
<Box todo> <Box>
<Heading level={3}>
Hypothesis space
</Heading>
<p>
<TeX block math={r`\mathcal{H}`}/>
</p>
<p>
<I>Spazio</I> delle <B>funzioni adatte</B> a descrivere la relazione tra input e output.
</p>
</Box>
<Box>
<Heading level={3}> <Heading level={3}>
Loss function Loss function
</Heading> </Heading>
<p>
<TeX block math={r`\sum_{i=1}^N \hspace{0.5em} V(y_i, f(x_i))`}/>
</p>
<p>
Funzione <u>predeterminata</u> che <B>determina l&apos;errore</B> del modello su un elemento del training set.
</p>
</Box> </Box>
<Box todo> <Box>
<Heading level={3}> <Heading level={3}>
Complessità della funzione Complessità della funzione
</Heading> </Heading>
<p>
<TeX block math={r`\| f \|^2`}/>
</p>
<Parenthesis todo>
Non ancora spiegato.
</Parenthesis>
<Parenthesis todo>
È la <I>norma a infinito al quadrato</I> o la <I>norma quadratica</I>?
</Parenthesis>
</Box> </Box>
</Chapter> <Box>
<Heading level={3}>
Priorità
</Heading>
<p>
<TeX block math={r`\lambda`}/>
</p>
<p>
Parametro moltiplicativo <U>predeterminato</U> che permette di selezionare quanta <B>importanza</B> dare agli errori sul training set rispetto alla complessità del modello.
</p>
<Parenthesis>
<p>
Se <U>minore</U> di 1, prioritizza gli errori.<br/>
</p>
<p>
Se <U>maggiore</U> di 1, prioritizza la semplicità.
</p>
</Parenthesis>
<Parenthesis>
<p>
Se troppo <U>basso</U>, il modello commette <B>overfitting</B>.
</p>
<p>
Se troppo <U>alto</U>, il modello <B>perde accuratezza</B>.
</p>
</Parenthesis>
</Box> </Box>
</Chapter> </Chapter>
</> </>