EO_514

La funzione di attivazione In sostanza, la funzione di attivazione di un nodo defini- sce l’output di quel nodo. La funzione di attivazione (o funzione di trasferimento) traduce i segnali di ingresso in segnali di uscita. Map- pa i valori di output su un intervallo da 0 a 1 o da -1 a 1. È un’astrazione che rappresenta il tasso di attivazio- ne del potenziale di azione nella cella. È un numero che rappresenta la probabilità che la cella si attivi. Nel modo più semplice, la funzione è binaria: il neurone si attiva o non si attiva. L’output può essere 0 o 1 (on/off o sì/no), oppure può essere qualsiasi valore all’interno di un range definito. Se si utilizza una funzione che mappa un ran- ge compreso tra 0 e 1 per determinare la probabilità che un’immagine sia un cane, ad esempio, un output di 0,9 mostrerebbe una probabilità del 90% che l’immagine sia, in effetti, un cane. Esistono molte funzioni di attivazione, ma le seguenti sono le più comuni: Funzione di soglia: questa è una funzione a gradino. Se il valore sommato dell’input raggiunge una certa soglia, la funzione passa a 0. Se è uguale o maggiore di 0, allora passerebbe a 1. È una funzione ON/OFF molto rigida, ma semplice. Funzione sigmoide: questa funzione viene utilizzata nella regressione logistica. A differenza della funzione soglia, è una progressione regolare e graduale da 0 a 1. È molto utile nello strato di output ed è ampiamente utiliz- zata per la regressione lineare. (La regressione lineare è TECH FOCUS NEURAL NETS uno degli algoritmi più noti in statistica e apprendimento automatico.). Funzione tangente iperbolica: questa funzione è molto simile alla funzione sigmoidea. A differenza della funzio- ne sigmoidea che va da 0 a 1, il valore della funzione tan- gente iperbolica va anche sotto lo zero, da -1 a 1. Anche se questo non è ciò che accade in biologia, questa funzione dà risultati migliori quando si tratta di addestrare le reti neurali. Le reti neurali a volte si bloccano durante il trai- ning con la funzione sigmoidea. Questo accade quando ci sono molti input fortemente negativi che mantengono l’output vicino allo zero, il che confonde il processo di ap- prendimento. Funzione raddrizzatore: questa potrebbe essere la fun- zione di attivazione più popolare nell’universo delle reti neurali. È il più efficiente e biologicamente plausibile. An- che se ha un nodo, è regolare e graduale dopo il nodo a 0. Ciò significa, ad esempio, che l’output sarebbe un “no” o una percentuale di “sì”. Questa funzione non richiede normalizzazione o altri calcoli complicati. Quindi, supponiamo ad esempio che il valore desiderato debba essere binario, allora stiamo cercando una funzio- ne che ci dia un “sì” o un “no” come output. La funzione di attivazione da utilizzare potrebbe essere la funzione di soglia o la funzione sigmoide. Al giorno d’oggi, le aspettative e i bisogni umani stanno aumentando ampiamente. Tutti sono interessati all’intel- ligenza artificiale per rendere il loro lavoro facile ed ef- ficace. Questo articolo ha descritto i concetti fondamen- tali delle reti neurali artificiali, i processi generalizzati coinvolti nelle reti neurali artificiali, l’ap- prendimento delle reti neurali artificiali, i vari tipi di funzioni di trasferimento. Gli elementi costitutivi delle reti neurali artificiali sono i neuroni, i collegamenti con connessione pesata, la funzione di attivazione e gli algoritmi di apprendimento. Tuttavia, molti lavori di ricerca si sono concentrati sul migliora- mento delle prestazioni della rete neurale artificiale. A un livello molto elementare, il deep learning è una speciale tecnica di machine learning ELETTRONICA OGGI 514 - NOVEMBRE/DICEMBRE 2023 36

RkJQdWJsaXNoZXIy Mzg4NjYz