Gli iperparametri nell'apprendimento automatico sono quei parametri definiti esplicitamente dall'utente per controllare il processo di apprendimento. Questi iperparametri vengono utilizzati per migliorare l'apprendimento del modello e i loro valori vengono impostati prima di iniziare il processo di apprendimento del modello.
In questo argomento discuteremo uno dei concetti più importanti dell'apprendimento automatico, ovvero gli iperparametri, i loro esempi, l'ottimizzazione degli iperparametri, le categorie di iperparametri, in che modo l'iperparametro è diverso dal parametro nell'apprendimento automatico? Ma prima di iniziare, comprendiamo l'iperparametro.
Cosa sono gli iperparametri?
Nel Machine Learning/Deep Learning, un modello è rappresentato dai suoi parametri. Al contrario, un processo di training prevede la selezione degli iperparametri migliori/ottimali utilizzati dagli algoritmi di apprendimento per fornire il miglior risultato. Quindi, quali sono questi iperparametri? La risposta è, ' Gli iperparametri sono definiti come i parametri definiti esplicitamente dall'utente per controllare il processo di apprendimento.'
Qui il prefisso 'iper' suggerisce che i parametri sono parametri di livello superiore utilizzati nel controllo del processo di apprendimento. Il valore dell'iperparametro viene selezionato e impostato dall'ingegnere del machine learning prima che l'algoritmo di apprendimento inizi ad addestrare il modello. Pertanto, questi sono esterni al modello e i loro valori non possono essere modificati durante il processo di training .
verilog sempre
Alcuni esempi di iperparametri nel machine learning
- Il k nell'algoritmo kNN o K-Nearest Neighbor
- Tasso di apprendimento per l'addestramento di una rete neurale
- Rapporto di suddivisione del test del treno
- Dimensione del lotto
- Numero di epoche
- Rami nell'albero decisionale
- Numero di cluster nell'algoritmo di clustering
Differenza tra parametro e iperparametro?
C'è sempre una grande confusione tra parametri e iperparametri o iperparametri del modello. Quindi, per chiarire questa confusione, comprendiamo la differenza tra entrambi e il modo in cui sono correlati tra loro.
Parametri del modello:
I parametri del modello sono variabili di configurazione interne al modello e un modello le apprende da solo. Per esempio , W Pesi o coefficienti di variabili indipendenti nel modello di regressione lineare . O Pesi o coefficienti di variabili indipendenti in SVM, peso e pregiudizi di una rete neurale, centroide del cluster nel clustering. Alcuni punti chiave per i parametri del modello sono i seguenti:
- Vengono utilizzati dal modello per effettuare previsioni.
- Vengono appresi dal modello dai dati stessi
- Solitamente non vengono impostati manualmente.
- Queste sono la parte del modello e la chiave per un algoritmo di apprendimento automatico.
Iperparametri del modello:
Gli iperparametri sono quei parametri definiti esplicitamente dall'utente per controllare il processo di apprendimento. Alcuni punti chiave per i parametri del modello sono i seguenti:
- Questi vengono solitamente definiti manualmente dall'ingegnere del machine learning.
- Non è possibile conoscere il valore migliore esatto degli iperparametri per il problema specificato. Il valore migliore può essere determinato tramite la regola pratica o per tentativi ed errori.
- Alcuni esempi di iperparametri sono il tasso di apprendimento per addestrare una rete neurale, K nell'algoritmo KNN,
Categorie di iperparametri
In generale gli iperparametri possono essere suddivisi in due categorie, che sono riportate di seguito:
Iperparametro per l'ottimizzazione
Il processo di selezione degli iperparametri migliori da utilizzare è noto come ottimizzazione degli iperparametri e il processo di ottimizzazione è noto anche come ottimizzazione degli iperparametri. I parametri di ottimizzazione vengono utilizzati per ottimizzare il modello.
Di seguito sono riportati alcuni dei parametri di ottimizzazione più diffusi:
Nota: la velocità di apprendimento è un iperparametro cruciale per l'ottimizzazione del modello, quindi se è necessario ottimizzare un solo iperparametro, si consiglia di ottimizzare la velocità di apprendimento.
Iperparametro per modelli specifici
Gli iperparametri coinvolti nella struttura del modello sono noti come iperparametri per modelli specifici. Questi sono riportati di seguito:
È importante specificare il numero di iperparametri di unità nascoste per la rete neurale. Dovrebbe essere compreso tra la dimensione del livello di input e la dimensione del livello di output. Più specificamente, il numero di unità nascoste dovrebbe essere pari a 2/3 della dimensione del livello di input, più la dimensione del livello di output.
Per funzioni complesse è necessario specificare il numero di unità nascoste, ma non deve adattarsi eccessivamente al modello.
Conclusione
Gli iperparametri sono i parametri definiti esplicitamente per controllare il processo di apprendimento prima di applicare un algoritmo di apprendimento automatico a un set di dati. Questi vengono utilizzati per specificare la capacità di apprendimento e la complessità del modello. Alcuni degli iperparametri vengono utilizzati per l'ottimizzazione dei modelli, come la dimensione del batch, la velocità di apprendimento, ecc., mentre altri sono specifici dei modelli, come il numero di livelli nascosti, ecc.