EO_497

ELETTRONICA OGGI 497 - OTTOBRE 2021 30 TECH-FOCUS ARTIFICIAL INTELLIGENCE Tenterebbe molti diversi input del controller e quando alla fine fa avanzare Mario (senza ricevere danni), l’algoritmo viene “premiato” ovvero, il comportamento è rinforzato. Attraverso questo processo, l’algoritmo inizia ad appren- dere quale comportamento si desidera (ad esempio, anda- re avanti è meglio che andare indietro, saltare sui nemici è meglio che incontrarli). Alla fine, l’algoritmo impara come muoversi dall’inizio alla fine. Sebbene il rinforzo abbia il suo posto nel campo dell’informatica e dell’apprendimen- to automatico, deve ancora avere un impatto sostanziale nelle applicazioni dell’intelligenza artificiale. Reti neurali e deep learning Una rete neurale artificiale (Artificial Neural Network - ANN) è un algoritmo di apprendimento automatico ispirato alle reti neurali biologiche. Ogni ANN contiene nodi (analo- ghi ai corpi cellulari) che comunicano con altri nodi tramite connessioni (analoghi agli assoni e ai dendriti). Allo stes- so modo in cui le sinapsi tra i neuroni vengono rafforzate quando i loro neuroni hanno output correlati in una rete neurale biologica (la teoria hebbiana postula che “i nervi che si attivano insieme, si collegano insieme”), le connes- sioni tra i nodi in una RNA sono ponderate in base alla loro capacità di fornire un risultato desiderato. Negli ultimi anni, il deep learning (o apprendimento pro- fondo) ha ottenuto un grande successo in molti campi, come la visione artificiale e l’elaborazione del linguaggio naturale. Rispetto ai tradizionali metodi di apprendimen- to automatico, il deep learning ha una forte capacità di ap- prendimento e può fare un uso migliore dei set di dati per l’estrazione delle funzionalità. Grazie alla sua praticabili- tà, il deep learning diventa sempre più popolare per molti ricercatori per svolgere lavori di ricerca. L’apprendimento profondo è stato sviluppato dalla rete neurale artificiale e ora è un campo prevalente dell’apprendimento automatico. La ricerca sulla rete neurale artificiale è iniziata 80 anni fa. Il DL è nato analizzando e riassumendo le caratteristiche dei neuroni sviluppando una teoria dell’assemblaggio cel- lulare per spiegare l’adattamento del neurone cerebrale du- rante il processo di apprendimento. Questa teoria ha avuto un’influenza importante sullo sviluppo delle reti neurali. Successivamente è stato inventato l’algoritmo perceptron . Questo algoritmo è una sorta di classificatore binario che appartiene all’apprendimento supervisionato. È stato poi introdotto l’ elemento lineare adattivo , ovvero, una rete neu- rale artificiale a singolo strato basata sul modello delle ca- ratteristiche del neurone. Purtroppo, è stato rilevato che l’algoritmo perceptron aveva grandi limiti in teoria e quindi è stata fatta una valutazione negativa sulle prospettive del- le reti neurali, il che ha portato lo sviluppo delle reti neu- rali a raggiungere il punto più basso di interesse. Tuttavia, negli ultimi decenni, e attualmente, con il deep learning la rete neurale artificiale ha riscosso ancora una volta mol- to interesse dalla comunità di ricerca. Il DL è diventato un tema caldo data la disponibilità digitale delle informazio- ni; tuttavia, esistono ancora molte difficoltà da superare. DL è limitato dalla quantità e qualità dei dati utilizzati per addestrare il modello. È difficile stimare quanti dati sono necessari per addestrare in modo sufficientemente affida- bile i sistemi DL perché dipende sia dalla qualità dei dati di addestramento di input sia dalla complessità del compito. In genere, sono necessari migliaia di esempi di addestra- mento per creare un modello che sia accurato e generaliz- zabile. Pertanto, lo sviluppo di modelli in cui grandi set di dati potrebbero non essere prontamente disponibili, è par- ticolarmente impegnativo. D’altra parte, sebbene si possa presumere che più dati porteranno sempre a modelli mi- gliori, se la qualità dei dati di addestramento è imprecisa, etichettata erroneamente o in qualche modo sistematica- mente diversa dai trial, l’addestramento su set di dati mol- to grandi può portare a modelli che non funzionano bene negli scenari del mondo reale. Inoltre, c’è un presupposto implicito che i set di dati siano accuratamente etichettati dai selezionatori umani. Purtroppo, spesso non è così e le etichette inaffidabili e/o mancanti sono spesso un danno grave per il lavoro degli scienziati. Anche i metodi DL sof- frono del problema della “scatola nera”: l’input viene for- nito all’algoritmo ed emerge un output, ma non è esatta- mente chiaro quali caratteristiche siano state identificate o come abbiano informato l’output del modello. Al contrario, i metodi semplici degli algoritmi lineari, sebbene non sem- pre potenti come il DL, sono facilmente interpretabili. I pesi calcolati per ogni caratteristica vengono forniti al comple- tamento del processo di addestramento, che consentono di interpretare esattamente come funziona il modello e pos- sibilmente scoprire importanti predittori che possono es- sere utili per la prevenzione di un evento critico. Con il deep learning, una serie complessa di moltiplicazione di matrici e filtri astratti rende l’interpretabilità significativamente più impegnativa. Questi metodi richiedono ancora l’inter- pretazione umana poiché spesso non vengono esaminati in modo critico e quindi questa rimane un’area di ricerca attiva. In questo articolo abbiamo descritto sinteticamente e con esempi i concetti necessari per una comprensione di base dell’apprendimento automatico, delle reti neurali e del deep learning, che è la chiave per essere introdotti nei fu- turi sviluppi dell’Intelligenza Artificiale. NOTE [1] L’intelligenza artificiale simbolica è un insieme di metodi utiliz- zati nella ricerca sull’intelligenza artificiale basati sul linguaggio simbolico ad alto livello di (leggibili dall’uomo), per la rappresen- tazione di problemi logici.

RkJQdWJsaXNoZXIy Mzg4NjYz