Più applicazioni e migliori insight in tempo reale, secondo Couchbase il 2024 sarà l’anno dell’Intelligenza Artificiale

Pubblicato il 17 novembre 2023
Couchbase

Fabio Gerosa, Sales Director Italy di Couchbase, mette in luce i principali trend tecnologici che caratterizzeranno il prossimo anno

La tecnica Retrieval-Augmented Generation (RAG) sarà fondamentale per ottenere risultati fondati e contestuali con l’AI

L’entusiasmo per i modelli linguistici di grandi dimensioni e le loro capacità generative continuerà ad essere limitato dal problema delle allucinazioni. Si tratta di casi in cui i modelli producono output che, pur essendo coerenti, possono essere distanti dalla realtà fattuale o dal contesto dell’input. Con il progresso delle aziende sarà importante demistificare le allucinazioni dell’AI e implementare una tecnica emergente, definita Retrieval-Augmented Generation (RAG), la quale, abbinata a dati contestuali in tempo reale, può ridurre queste allucinazioni, migliorando accuratezza e valore del modello. La RAG introduce il contesto dell’azienda o dell’utente, riducendo le allucinazioni e aumentando veridicità e utilità.

I dati in tempo reale diventeranno lo standard per alimentare le esperienze di AI generativa; i dati dovranno supportare analytics transazionali e in tempo reale

La crescita sensazionale dell’AI generativa continuerà con forza anche nel 2024. Un numero maggiore di aziende la integrerà per alimentare applicazioni di dati in tempo reale e creare soluzioni dinamiche e adattive basate su AI. Diventando fondamentale per il business, le imprese dovranno assicurarsi che i dati su cui si basano i modelli di AI siano fondati su verità e realtà, sfruttando informazioni il più possibile “fresche”.

Proprio come gli alimenti, le card regalo e le medicine, anche i dati hanno una data di scadenza. Affinché l’AI generativa sia davvero efficace, accurata e fornisca risultati contestualmente rilevanti, deve basarsi su dati in tempo reale continuamente aggiornati. La crescente richiesta di insight in tempo reale spingerà l’adozione di tecnologie che consentono l’elaborazione e l’analisi di dati di questo tipo. Nel 2024 e oltre, le aziende sfrutteranno sempre più un livello di informazioni che supporti sia l’analisi transazionale che quella in tempo reale per prendere decisioni tempestive e rispondere istantaneamente alle dinamiche del mercato.

Il paradigma dell’AI passa da model-centric a data-centric

I dati sono fondamentali nel machine learning moderno, ma devono essere affrontati e gestiti correttamente nei progetti di AI. Poiché questa tecnologia adotta un approccio focalizzato sul modello, si sprecano centinaia di ore per mettere a punto modelli basati su dati di bassa qualità.

Con la maturazione, evoluzione e aumento dei modelli di AI, ci si impegnerà per avvicinare i modelli ai dati. L’AI data-centric consentirà alle aziende di fornire esperienze sia generative che predittive, basate sui dati più recenti, migliorando in modo significativo la resa dei modelli e riducendo al contempo le allucinazioni.

Le aziende si affideranno ai copiloti dell’intelligenza artificiale per ottenere insight in tempi più rapidi

L’integrazione di AI e machine learning nei processi di gestione dei dati e negli strumenti di analisi continuerà a evolversi. Con l’emergere dell’AI generativa, le aziende hanno bisogno di un metodo per interagire con l’AI e i dati che produce a livello contestuale. Sfruttando l’aumento di informazioni e analytics, le imprese inizieranno a integrare i copiloti dell’AI – che grazie alla capacità di comprendere ed elaborare grandi quantità di dati fungono da assistenti per i modelli di AI, ordinandoli e generando best practice e raccomandazioni – nei loro prodotti per ottenere insight più rapidamente.

L’incremento di informazioni è uno strumento potente che cambierà il modo di realizzare infrastrutture e applicazioni nei prossimi anni, in quanto la gestione aumentata dei dati ne automatizzerà le attività di routine di qualità e integrazione, mentre analytics aumentati forniranno insight avanzati e automatizzeranno il processo decisionale.

LLM e database multimodali abiliteranno una nuova frontiera di applicazioni AI in tutti i settori industriali

Uno dei trend più interessanti per il 2024 sarà l’ascesa dei LLM multimodali. Con l’emergere di questo fenomeno, è cresciuta l’esigenza di database multimodali in grado di archiviare, gestire e interrogare in modo efficiente diverse tipologie di dati. Tuttavia, dimensioni e complessità degli insiemi di dati multimodali rappresentano una sfida per i database tradizionali, tipicamente progettati per archiviare e interrogare un singolo tipo di dati, come testo o immagini.

I database multimodali, invece, sono molto più versatili e potenti e rappresentano una progressione naturale nell’evoluzione dei LLM per unire i diversi aspetti di elaborazione e comprensione delle informazioni, utilizzando modalità multiple come testo, immagini, audio e video. Sono numerosi i casi d’uso e i settori che beneficeranno direttamente di un approccio multimodale, tra cui sanitario, robotica, e-commerce, istruzione, retail e gaming. I database multimodali vedranno una crescita significativa e investimenti nel 2024 e oltre.

Il successo dell’Edge AI dipenderà dal progresso nei modelli leggeri di AI

L’innovazione che caratterizza l’AI è entusiasmante e l’edge computing è un modo per abilitare nuove applicazioni. Tuttavia, per rendere l’edge AI un’opzione praticabile, i modelli devono essere leggeri e in grado di funzionare su dispositivi embedded e server edge con risorse limitate, continuando a fornire risultati con livelli di accuratezza accettabili.

Sebbene siano già stati compiuti molti progressi nella compressione dei modelli, l’innovazione in questo settore continuerà ulteriormente, e, insieme ai progressi dei processori di intelligenza artificiale per l’edge, renderà l’EdgeAI onnipresente.

L’unico modo per scalare l’intelligenza artificiale sarà distribuirla, con l’aiuto dell’edge computing

La convergenza di edge e cloud AI sarà il modo per fornire AI su scala, cloud ed edge, con l’offloading delle attività di calcolo, se necessario. Ad esempio, l’edge può gestire le inferenze del modello e il cloud il suo addestramento o l’edge può scaricare le query al cloud a seconda della lunghezza di una richiesta e così via.

Quando si tratta di una strategia di AI di successo, non è pratico avere un approccio esclusivamente cloud. Le aziende devono considerare una strategia di edge computing – abbinata al cloud – per consentire previsioni di AI a bassa latenza e in tempo reale, in modo economicamente vantaggioso, senza compromettere privacy e sovranità dei dati.

L’apprendimento federato sarà un elemento chiave nel futuro dell’AI, soprattutto in un mondo in cui la privacy è messa a dura prova

Sebbene sia vero che potremmo aver archiviato l’apprendimento tradizionale quando si tratta di AI, ci sono ancora molte fonti di dati non sfruttate. Tutto ciò che facciamo sui nostri dispositivi viene sincronizzato con un server per addestrare modelli linguistici di grandi dimensioni (LLM) o mettere a punto LLM per un uso specifico.

È qui che entra in gioco l’apprendimento federato. Con la recente popolarità dell’intelligenza artificiale generativa, si è diffusa l’idea di adottare un approccio decentralizzato all’addestramento dei modelli di intelligenza artificiale, ovvero l’apprendimento federato.

Grazie alla capacità di protezione dei modelli di addestramento e di supporto delle applicazioni sensibili alla privacy, l’apprendimento federato sarà un elemento cruciale per sbloccare il futuro dell’AI, affrontando al contempo le preoccupazioni cruciali relative a privacy e sicurezza dei dati.



Contenuti correlati

  • Juniper
    Un’analisi di Juniper Networks per l’AI nelle reti

    Gli esperti di Juniper Networks hanno riassunto le principali potenzialità delle piattaforme di networking AI native, a seconda del caso d’uso specifico. Le piattaforme di networking AI native, infatti, possono essere utilizzate nell’ambito dell’AI per il networking,...

  • Panasonic
    Ripensare l’AI per rivoluzionare i flussi di lavoro

    di Ulrika Sturk, Nordics Regional Marketing Manager di Panasonic TOUGHBOOK In che modo l’intelligenza artificiale cambierà nel prossimo futuro il modo in cui lavoriamo, innoviamo e creiamo? È stato questo il tema del recente TOUGHBOOK Innovation Forum,...

  • AMD
    La nuova generazione di acceleratori e processori AI AMD a Computex 2024

    In occasione del keynote di apertura di Computex 2024, Lisa Su, presidente e CEO di AMD, ha annunciato un ampliamento della roadmap degli acceleratori per data center e sono stati presentati numerosi nuovi prodotti dedicati all’AI. La...

  • La diffusione dell’intelligenza artificiale

    L’intelligenza artificiale generativa sta trovando applicazione in un numero sempre maggiore di settori e i produttori si stanno adeguando rapidamente con l’introduzione di soluzioni sempre più innovative e pervasive Leggi l’articolo completo su EO518

  • Veracode
    Implementare l’Intelligenza Artificiale: comprendere le tecniche di attacco dei cybercriminali per bilanciare obiettivi di business e requisiti di sicurezza

    A cura di Massimo Tripodi, Country Manager di Veracode Italia Artificial Intelligence (AI) e machine learning sono diventati strumenti essenziali per le aziende di ogni settore e dimensione. A ragione, se consideriamo che per il 56% dei...

  • Realizzare telecamere smart basate sull’AI con un processore “ad hoc”

    Il processore AM62A è progettato per applicazioni di visione da bassa a media che richiedono una o due telecamere. Grazie al suo innovativo acceleratore per AI, all’encoder/decoder H264/H265 e al processore ISP (Image Sensor Processor) integrato dotato...

  • L’intelligenza artificiale analogica

    L’intelligenza artificiale (AI), a causa della sua complessità, costituisce una sfida impegnativa per l’informatica digitale. L’intelligenza artificiale analogica consente di ottenere efficienza energetica e velocità, grazie anche all’evoluzione dei nuovi circuiti integrati. L’intelligenza artificiale analogica può anche...

  • SECO
    SECO ha presentato la piattaforma StudioX

    StudioX è la nuova piattaforma di intelligenza artificiale di SECO, progettata per un supporto aziendale personalizzato. Questa piattaforma permette infatti alle aziende di sviluppare servizi di supporto basati dall’IA, per elevare standard interni e migliorare l’esperienza cliente....

  • ADI
    ADI implementa l’AI generativa con SambaNova System

    Analog Devices (ADI) ha annunciato la collaborazione con  SambaNova System per implementare l’AI generativa. L’obiettivo di ADI è quello di guidare la sua trasformazione globale, rendendo l’AI pervasiva in tutta l’azienda. Come parte della fase iniziale dell’implementazione,...

  • Rimozione del rumore in immagini a raggi X basata su algoritmi di deep-learning

    Hamamatsu Photonics ha sviluppato una nuova tecnologia di riduzione del rumore basata su algoritmi di deep learning e su un nuovo metodo di simulazione delle immagini a raggi X Leggi l’articolo completo su EO Lighting33

Scopri le novità scelte per te x