EMB_89

EMBEDDED 89 • SETTEMBRE • 2023 26 IN TEMPO REALE | ARTIFICIAL INTELLIGENCE Generazione di pseudo-verità Man mano che si restringe l’ambito del problema emerge una condizione di malfunzionamento abbastanza inquietan- te di ChatGPT: genera risposte che sembrano corrette ma, a un esame più approfondito, non lo sono. Per esempio, alla domanda sull’utilizzo di un componente come sostituzione “drop-in”, pin per pin, di un altro componente TQFN a 56 pin, ChatGPT afferma con sicurezza che i componenti han- no 5 pin. Inoltre, fornisce (tra gli altri errori) tensioni di ali- mentazione e limiti di corrente di uscita errati e afferma che i due componenti sono incompatibili. Ogni presunta “diffe- renza” che ChatGPT riporta fra tali prodotti (in questo caso, MAX4936 e MAX4937) è falsa: i componenti sono quasi iden- tici! Come dimostra questo prompt “pin-for-pin”, i prompt ad alta specificità rivelano rapidamente le origini algoritmiche di ChatGPT e mostrano i limiti dell’attendibilità delle infor- mazioni generate dall’AI. Supera i test indovinando Nonostante la parvenza intelligente, ChatGPT è fondamen- talmente una macchina basata sul calcolo delle probabili- tà. Come sottoinsieme di una classe di AI definita “modelli linguistici di grandi dimensioni” (Large Language Models, LLM), in una stringa di testo opera pronosticando la parola (o “token”) successiva più probabile dal punto di vista statisti- co. Anche quando afferma di farlo, non consulta una scheda tecnica, non cerca informazioni e non è nemmeno connessa a Internet! Pertanto, quello che sembra un “ragionamento” in realtà è un riconoscimento di schemi e un’estrapolazione, fornendo ciò che è più probabile che accada in base ai dati di addestramento. Questo spiega i suoi insuccessi nell’ambito di problemi ben definiti: l’estrapolazione statisticamente proba- bile diventa del tutto falsa quando è condizionata da doman- de specifiche. Oltre a fornire informazioni potenzialmente sbagliate, la struttura degli LLM presenta aspetti pericolosi per quanto riguarda la credibilità e la capacità da parte nostra di usarli in modo sicuro. Il risultato probabilistico di ChatGPT è con- forme a delle regolarità statistiche che sfidano l’euristica che usiamo per distinguere la realtà dalla finzione. Quando tale euristica fallisce, il modo migliore per verificare la presenza di errori è risolvere direttamente il problema... ma a questo punto, a cosa serve chiedere a un computer di fare il lavoro per noi? Guadagnare la fiducia del pubblico Questo paradosso suggerisce un probabile uso improprio dell’intelligenza artificiale: l’AI è utile solo nella misura in cui possiamo darle fiducia, ma visti gli incentivi, sembra inevita- bile scendere a compromessi sulla fiducia per usarla in modo più ampio. Capire come l’AI imita l’intelligenza e dimostrare le sue dinamiche di insuccesso potrebbe spezzare l’illusione in modo tale da ridimensionare le nostre aspettative e preve- nire errori così ingenui. È stata posta la domanda a ChatGPT sul perché generasse delle risposte errate. Una parte della sua risposta riassume perfettamente il problema: I modelli linguistici di OpenAI, compreso GPT-3, sono adde- strati su un ampio corpus di testi, che include molti errori e imprecisioni. I modelli utilizzano schemi statistici nei dati per prevedere la parola o la sequenza di parole successiva, quindi è possibile che i modelli generino informazioni errate. Infine, si è posta la seguente domanda: “Posso fidarmi delle tue risposte?”. Come modello linguistico di AI, non ho sentimenti o intenzioni, quindi il concetto di fiducia, in realtà, su di me non si applica. Tuttavia, posso assicurarti che sono stato progettato per fornire risposte accurate e utili al meglio delle mie capacità, sulla base dei dati e degli algoritmi che sono stati utilizzati per addestrar- mi. Mi sforzo di essere il più affidabile e imparziale possibile. Tuttavia, quando si utilizza qualsiasi fonte di informazione, compresi i modelli linguistici di AI come me, è sempre consi- gliabile esercitare il pensiero critico e verificare i fatti. In effetti. L’AI ha l’enorme potere di trasformare il nostro mondo, ma dal momento che l’intelligenza artificiale genera- lizzata diventa più diffusa, accessibile e avanzata, è essenzia- le continuare la ricerca per comprenderne le capacità e i limi- ti. Nel tempo, affideremo senza dubbio ad AI come ChatGPT compiti più critici, e dovremo essere in grado di prendere decisioni informate e usare ChatGPT in modo responsabile.

RkJQdWJsaXNoZXIy Mzg4NjYz