EO_514

PUBBLICITÀ 80 anni d’esperienza nell’elettronica con più di 50.000 connettori disponibili! FX26, connettore flottante scheda-scheda ad alte prestazioni per ambienti soggetti a vibrazioni. • Passo di 1 mm e consente un disallineamento di ± 0,7 mm in direzione X e Y • La lunghezza effettiva di accoppiamento è di ± 0,75 mm in direzione Z • Temperatura di: da -40° C a + 140° C • Altezza: 15, 18, 20, 23, 25 mm • Numero di contatti: 20, 30, 40, 50, 60 Email: eu.info.3d@hirose-gl.com www.hirose.com/eu visto. Le prestazioni del modello sono valutate dalla fun- zione di costo. La funzione di costo è espressa come la differenza tra il valore effettivo e il valore previsto, ov- vero, tra le previsioni del modello che si sta addestrando e le istanze del problema reale. Esistono molte diverse funzioni di costo che si possono utilizzare, ad esempio se si sta valutando qual è l’errore nella rete, oppure se si sta lavorando per ridurre al mini- mo la funzione di perdita. In sostanza, più bassa è la fun- zione di perdita, più ci si avvicina all’output desiderato. Le informazioni tornano indietro e la rete neurale inizia ad apprendere con l’obiettivo di minimizzare la funzione di costo modificando i pesi. Questo processo è chiamato backpropagation. Nella “forwardpropagation” (propagazione in avanti), le informazioni vengono immesse nello strato di input e si propagano attraverso la rete per ottenere i valori di output richiesti. Si confrontano i valori con i risultati attesi. Suc- cessivamente, si calcolano gli errori e si propagano le in- formazioni all’indietro. Questo ci permette di addestrare la rete e aggiornare i pesi. La backpropagation (retro pro- pagazione) ci consente di regolare tutti i pesi contempo- raneamente. Durante questo processo, a causa del modo in cui è strutturato l’algoritmo, è possibile regolare tutti i pesi contemporaneamente. Ciò consente di vedere di qua- le parte dell’errore è responsabile ciascuno dei pesi nella rete neurale. Una volta regolati i pesi al livello ottimale, tutto è pronto per procedere alla fase di test. La somma pesata degli input Gli input immessi in un neurone possono essere caratte- ristici di un set di training o di un output dei neuroni di uno strato precedente. Ogni connessione tra due neuroni costituisce una sinapsi unica con un peso unico. Il pas- saggio da un neurone all’altro avviene mediante la sinap- si determinata dalla forza della connessione, ovvero dal valore del peso. Il neurone quindi applica una funzione di attivazione alla somma degli input pesati da ciascuna sinapsi in arrivo e passa il risultato a tutti i neuroni nello strato successivo. Quando parliamo di aggiornare i pesi in una rete, stiamo parlando di regolare i pesi su queste sinapsi. L’input di un neurone è la somma degli output pesati di tutti i neuroni dello strato precedente. Ogni input viene moltiplicato per il peso associato alla sinapsi che collega l’input al neurone corrente. Se ci sono 3 input o neuroni nello strato precedente, ogni neurone nello strato cor- rente avrà 3 pesi distinti, uno per ogni sinapsi. TECH FOCUS NEURAL NETS

RkJQdWJsaXNoZXIy Mzg4NjYz