EO_502

TECH INSIGHT NEURAL NETS un problema di classificazione). Se l’etichetta di output è sconosciuta, sono necessari approcci non supervisionati. Un esempio è l’uso del clustering per identificare i grup- pi nei dati o la riduzione della dimensionalità per gene- rare una rappresentazione meno complessa dei dati. Una terza categoria nota come apprendimento semi-super- visionato utilizza set di dati etichettati per migliorare i risultati dell’apprendimento non supervisionato. Gli algoritmi DL Gli algoritmi deep learning (DL) sono strutture matema- tiche complesse con diversi livelli di elaborazione che possono separare le caratteristiche dei dati, o rappre- sentazioni, in vari livelli di astrazione. Nell’apprendi- mento supervisionato, una DNN passa sequenzialmente i dati delle caratteristiche di input dai neuroni in uno strato ai neuroni nello strato successivo durante un pro- cesso che viene ripetuto molte volte, spesso migliaia (un ciclo o iterazione è noto come epoca). Ad ogni passaggio le informazioni vengono estratte e passate al livello suc- cessivo. Ogni neurone accetta input pesati da altri neu- roni (Fig. 1). Questi input vengono sommati e passati a una funzio- ne di attivazione interna, un iper-parametro scelto per ottimizzare le prestazioni del modello. Se la soglia di at- tivazione viene superata, il neurone genererà un output che viene combinato con un valore di peso prima di es- sere passato a più neuroni nello strato successivo. Se la soglia non viene superata, l’uscita sarà nulla. La “co- noscenza” della DNN viene catturata nei suoi valori di peso. I pesi sono analoghi ai coefficienti in un modello statistico tradizionale. Rispetto ad un grande modello statistico multivariabile che potrebbe contenere meno di 50 coefficienti, anche una piccola DNN può avere molte migliaia di pesi, mentre le grandi reti ricorrenti, o con- voluzionali, spesso ne hanno molti milioni. Una volta che le informazioni sono passate attraverso tutti gli strati, come descritto sopra, il modello genera un output che viene confrontato in base al valore dell’e- tichetta. Viene calcolato un errore e quindi utilizzato per aggiornare i pesi in un processo noto come back-propa- gation. Per questo, è necessario specificare una funzione matematica speciale, nota come funzione di perdita. Il tipo esatto di funzione di perdita dipende dalla natura del modello, ma è essenzialmente uno strumento per valutare le prestazioni di un modello su alcuni dati, con un valore basso che indica prestazioni migliori rispetto a un valore più alto. Durante le molteplici “epoche” di apprendimento, il modello mira a minimizzare l’errore e trovare la com- binazione di valori di peso che genera il valore di erro- re più basso. Questo aggiornamento ripetuto dei pesi in base alla dimensione dell’errore è ciò che viene definito “apprendimento”. L’intelligenza artificiale, in particolare il deep learning e le reti profonde, rappresenta un notevole e, molto proba- bilmente, dirompente balzo in avanti nel miglioramento delle attuali tecnologie. Tali algoritmi informatici sono strumenti che possono essere addestrati per migliorare la qualità di un’applicazione aumentandone l’accuratez- za e diminuendo il carico di lavoro umano. Gli algoritmi DL offrono opportunità di automazione e di previsione di guasti mai viste prima in cui grandi volumi di dati possono essere utilizzati in un modo che è pro- babilmente impossibile fare con il cervello umano senza l’ausilio di strumenti o approcci tradizionali. CATTURA OGNI DETTAGLIO ● 350 MHz –1 GHz ● 10 GS/s, fino a 250 Mpt di memoria ● Display da 15,6”, ingombro ridotto ● 12 bits senza compromessi NUOVO teledynelecroy.com/hdo6000

RkJQdWJsaXNoZXIy Mzg4NjYz