Più applicazioni e migliori insight in tempo reale, secondo Couchbase il 2024 sarà l’anno dell’Intelligenza Artificiale
Fabio Gerosa, Sales Director Italy di Couchbase, mette in luce i principali trend tecnologici che caratterizzeranno il prossimo anno
La tecnica Retrieval-Augmented Generation (RAG) sarà fondamentale per ottenere risultati fondati e contestuali con l’AI
L’entusiasmo per i modelli linguistici di grandi dimensioni e le loro capacità generative continuerà ad essere limitato dal problema delle allucinazioni. Si tratta di casi in cui i modelli producono output che, pur essendo coerenti, possono essere distanti dalla realtà fattuale o dal contesto dell’input. Con il progresso delle aziende sarà importante demistificare le allucinazioni dell’AI e implementare una tecnica emergente, definita Retrieval-Augmented Generation (RAG), la quale, abbinata a dati contestuali in tempo reale, può ridurre queste allucinazioni, migliorando accuratezza e valore del modello. La RAG introduce il contesto dell’azienda o dell’utente, riducendo le allucinazioni e aumentando veridicità e utilità.
I dati in tempo reale diventeranno lo standard per alimentare le esperienze di AI generativa; i dati dovranno supportare analytics transazionali e in tempo reale
La crescita sensazionale dell’AI generativa continuerà con forza anche nel 2024. Un numero maggiore di aziende la integrerà per alimentare applicazioni di dati in tempo reale e creare soluzioni dinamiche e adattive basate su AI. Diventando fondamentale per il business, le imprese dovranno assicurarsi che i dati su cui si basano i modelli di AI siano fondati su verità e realtà, sfruttando informazioni il più possibile “fresche”.
Proprio come gli alimenti, le card regalo e le medicine, anche i dati hanno una data di scadenza. Affinché l’AI generativa sia davvero efficace, accurata e fornisca risultati contestualmente rilevanti, deve basarsi su dati in tempo reale continuamente aggiornati. La crescente richiesta di insight in tempo reale spingerà l’adozione di tecnologie che consentono l’elaborazione e l’analisi di dati di questo tipo. Nel 2024 e oltre, le aziende sfrutteranno sempre più un livello di informazioni che supporti sia l’analisi transazionale che quella in tempo reale per prendere decisioni tempestive e rispondere istantaneamente alle dinamiche del mercato.
Il paradigma dell’AI passa da model-centric a data-centric
I dati sono fondamentali nel machine learning moderno, ma devono essere affrontati e gestiti correttamente nei progetti di AI. Poiché questa tecnologia adotta un approccio focalizzato sul modello, si sprecano centinaia di ore per mettere a punto modelli basati su dati di bassa qualità.
Con la maturazione, evoluzione e aumento dei modelli di AI, ci si impegnerà per avvicinare i modelli ai dati. L’AI data-centric consentirà alle aziende di fornire esperienze sia generative che predittive, basate sui dati più recenti, migliorando in modo significativo la resa dei modelli e riducendo al contempo le allucinazioni.
Le aziende si affideranno ai copiloti dell’intelligenza artificiale per ottenere insight in tempi più rapidi
L’integrazione di AI e machine learning nei processi di gestione dei dati e negli strumenti di analisi continuerà a evolversi. Con l’emergere dell’AI generativa, le aziende hanno bisogno di un metodo per interagire con l’AI e i dati che produce a livello contestuale. Sfruttando l’aumento di informazioni e analytics, le imprese inizieranno a integrare i copiloti dell’AI – che grazie alla capacità di comprendere ed elaborare grandi quantità di dati fungono da assistenti per i modelli di AI, ordinandoli e generando best practice e raccomandazioni – nei loro prodotti per ottenere insight più rapidamente.
L’incremento di informazioni è uno strumento potente che cambierà il modo di realizzare infrastrutture e applicazioni nei prossimi anni, in quanto la gestione aumentata dei dati ne automatizzerà le attività di routine di qualità e integrazione, mentre analytics aumentati forniranno insight avanzati e automatizzeranno il processo decisionale.
LLM e database multimodali abiliteranno una nuova frontiera di applicazioni AI in tutti i settori industriali
Uno dei trend più interessanti per il 2024 sarà l’ascesa dei LLM multimodali. Con l’emergere di questo fenomeno, è cresciuta l’esigenza di database multimodali in grado di archiviare, gestire e interrogare in modo efficiente diverse tipologie di dati. Tuttavia, dimensioni e complessità degli insiemi di dati multimodali rappresentano una sfida per i database tradizionali, tipicamente progettati per archiviare e interrogare un singolo tipo di dati, come testo o immagini.
I database multimodali, invece, sono molto più versatili e potenti e rappresentano una progressione naturale nell’evoluzione dei LLM per unire i diversi aspetti di elaborazione e comprensione delle informazioni, utilizzando modalità multiple come testo, immagini, audio e video. Sono numerosi i casi d’uso e i settori che beneficeranno direttamente di un approccio multimodale, tra cui sanitario, robotica, e-commerce, istruzione, retail e gaming. I database multimodali vedranno una crescita significativa e investimenti nel 2024 e oltre.
Il successo dell’Edge AI dipenderà dal progresso nei modelli leggeri di AI
L’innovazione che caratterizza l’AI è entusiasmante e l’edge computing è un modo per abilitare nuove applicazioni. Tuttavia, per rendere l’edge AI un’opzione praticabile, i modelli devono essere leggeri e in grado di funzionare su dispositivi embedded e server edge con risorse limitate, continuando a fornire risultati con livelli di accuratezza accettabili.
Sebbene siano già stati compiuti molti progressi nella compressione dei modelli, l’innovazione in questo settore continuerà ulteriormente, e, insieme ai progressi dei processori di intelligenza artificiale per l’edge, renderà l’EdgeAI onnipresente.
L’unico modo per scalare l’intelligenza artificiale sarà distribuirla, con l’aiuto dell’edge computing
La convergenza di edge e cloud AI sarà il modo per fornire AI su scala, cloud ed edge, con l’offloading delle attività di calcolo, se necessario. Ad esempio, l’edge può gestire le inferenze del modello e il cloud il suo addestramento o l’edge può scaricare le query al cloud a seconda della lunghezza di una richiesta e così via.
Quando si tratta di una strategia di AI di successo, non è pratico avere un approccio esclusivamente cloud. Le aziende devono considerare una strategia di edge computing – abbinata al cloud – per consentire previsioni di AI a bassa latenza e in tempo reale, in modo economicamente vantaggioso, senza compromettere privacy e sovranità dei dati.
L’apprendimento federato sarà un elemento chiave nel futuro dell’AI, soprattutto in un mondo in cui la privacy è messa a dura prova
Sebbene sia vero che potremmo aver archiviato l’apprendimento tradizionale quando si tratta di AI, ci sono ancora molte fonti di dati non sfruttate. Tutto ciò che facciamo sui nostri dispositivi viene sincronizzato con un server per addestrare modelli linguistici di grandi dimensioni (LLM) o mettere a punto LLM per un uso specifico.
È qui che entra in gioco l’apprendimento federato. Con la recente popolarità dell’intelligenza artificiale generativa, si è diffusa l’idea di adottare un approccio decentralizzato all’addestramento dei modelli di intelligenza artificiale, ovvero l’apprendimento federato.
Grazie alla capacità di protezione dei modelli di addestramento e di supporto delle applicazioni sensibili alla privacy, l’apprendimento federato sarà un elemento cruciale per sbloccare il futuro dell’AI, affrontando al contempo le preoccupazioni cruciali relative a privacy e sicurezza dei dati.
Contenuti correlati
-
Innodisk: l’AI per la sicurezza sul lavoro
Per migliorare la sicurezza negli ambienti industriali caratterizzati da un alto rischio, Innodisk ha introdotto la sua soluzione di riconoscimento InnoPPE basata sull’intelligenza artificiale. Questa soluzione garantisce il rilevamento in tempo reale dei dispositivi di protezione individuale...
-
Sei nuovi acceleratori per progetti di ML da Cloudera
Cloudera ha annunciato sei nuovi acceleratori per progetti di ML (AMP). Le AMP sono progetti end-to-end basati sull’apprendimento automatico (ML) che possono essere distribuiti direttamente dalla piattaforma Cloudera. Gli acceleratori sono stati concepiti per ridurre il time-to-value...
-
L’AI sul posto di lavoro: il buono, il cattivo e l’algoritmico
Se da un lato l’AI può liberarci da compiti noiosi e persino eliminare l’errore umano, dall’altro è fondamentale ricordare le sue lacune e le capacità uniche messe in campo dagli esseri umani Di Fabio Buccigrossi, Country Manager...
-
Artificial Intelligence: scudo e spada nella cybersecurity moderna
Daniel Rapp, Group Vice President, AI/ML, Proofpoint, riassume le opportunità e le sfide che la rapida diffusione dell’AI sta portando alle aziende in tema di sicurezza cyber. L’intelligenza artificiale è sulla bocca di tutti, e il mondo...
-
Tempi di remediation azzerati e massima sicurezza: la rivoluzione dell’automazione e dell’AI
L’automazione non toglie agli sviluppatori la responsabilità di una codifica sicura, bensì li supporta evidenziando errori o lacune in fase iniziale e suggerendo soluzioni Leggi l’articolo completo su EMB93
-
Ripensare l’AI per rivoluzionare i flussi di lavoro
In che modo l’intelligenza artificiale cambierà nel prossimo futuro il modo in cui lavoriamo, innoviamo e creiamo? È stato questo il tema del TOUGHBOOK Innovation Forum, un evento che ha avuto luogo a Stoccolma per approfondire le...
-
Intel porta le sue GPU Arc nelle automobili
Intel è entrata nel segmento delle GPU discrete per applicazioni automotive presentando la sua prima unità dGPU per questo settore. Le GPU sono quelle con architettura Arc e i prodotti inizieranno a essere distribuiti commercialmente nei veicoli...
-
AMD acquisisce ZT Systems e punta sull’AI
AMD ha annunciato la firma di un accordo definitivo per l’acquisizione di ZT Systems, un fornitore di infrastrutture AI per le più grandi aziende di elaborazione hyperscale al mondo. La transazione in contanti e azioni è valutata...
-
Un’analisi di Juniper Networks per l’AI nelle reti
Gli esperti di Juniper Networks hanno riassunto le principali potenzialità delle piattaforme di networking AI native, a seconda del caso d’uso specifico. Le piattaforme di networking AI native, infatti, possono essere utilizzate nell’ambito dell’AI per il networking,...
-
Ripensare l’AI per rivoluzionare i flussi di lavoro
di Ulrika Sturk, Nordics Regional Marketing Manager di Panasonic TOUGHBOOK In che modo l’intelligenza artificiale cambierà nel prossimo futuro il modo in cui lavoriamo, innoviamo e creiamo? È stato questo il tema del recente TOUGHBOOK Innovation Forum,...