L’AI Generativa, o Generative AI, o ancora Intelligenza Artificiale Generativa, può essere oggi considerato l’ultimo grande traguardo dell’Intelligenza Artificiale. Sebbene anche per gli addetti ai lavori quest’area dell’AI non sia una novità, il 2023 rimarrà alla storia come l’anno che ha segnato il confine tra due ere, quella antecedente e quella l’exploit commerciale della GenAI.
Infatti, se la più popolare tra le soluzioni di AI Generativa, ChatGPT, è stata rilasciata nel novembre 2022, è stato proprio il 2023 l’anno in cui si è compresa la portata del reale cambiamento indotto, sotto molteplici prospettive. Aiutati dalla Ricerca dell’Osservatorio Artificial Intelligence della POLIMI School of Management, in questo articolo approfondiremo cos’è l’AI Generativa e come funziona, quali sono le principali piattaforme e qual è il suo livello di diffusione in Italia.
Cos’è l’AI Generativa
L’AI Generativa è un tipo di Intelligenza Artificiale che utilizza algoritmi di Machine Learning (ossia apprendimento automatico) per generare nuovi contenuti che in precedenza si basavano sulla creatività dell’uomo. Questi contenuti possono essere ad esempio testo, audio, immagini, video e codice informatico.
Per l’AI questa nuova capacità di generare contenuti ha rappresentato una nuova grande conquista, abilitata da tre principali fattori:
il primo è la disponibilità di dati che, grazie a Internet, alla sensoristica IoT e al digitale, in generale sono oggi disponibili in quantità senza precedenti;
il secondo è la grande evoluzione dei modelli e degli algoritmi alla base dell’AI, che citavamo in precedenza;
il terzo è l’avanzamento tecnologico degli hardware di nuova generazione che sono sempre più performanti e permettono di sfruttare appieno questa tecnologia.
In questo contesto, dobbiamo tenere presente che l’AI Generativa viene alimentata da enormi quantità di dati elaborati da strutture con altissime complessità e hanno quindi bisogno di molta capacità computazionale.
Come funziona l’AI Generativa: i foundation model
La generazione di contenuti è possibile grazie ad avanzati sistemi di Machine Learning addestrati su enormi quantità di dati, progettati per creare nuovi contenuti che sembrano prodotti da esseri umani. Il Machine Learning, una branca dell’Intelligenza Artificiale, consente ai sistemi di apprendere automaticamente dai dati e migliorare con l’esperienza senza essere esplicitamente programmati. All’interno di questo dominio, il Deep Learning rappresenta un approccio particolarmente potente che utilizza reti neurali artificiali con numerosi strati nascosti (da cui il termine “deep”, profondo) per creare i cosiddetti foundation model, alla base dell’AI generativa. Proviamo ora di seguito a capire meglio cosa sono e come funzionano questi modelli
I foundation model
Come abbiamo appena accennato, il Deep Learning ha permesso lo sviluppo dei cosiddetti foundation model, vale a dire su modelli di AI addestrati su enormi quantità di dati. Questi modelli analizzano pattern nei dati di addestramento per apprendere le relazioni statistiche tra elementi (come parole, pixel o note musicali). Durante il processo di generazione, il modello predice probabilisticamente quale dovrebbe essere l’elemento successivo nella sequenza, basandosi sul contesto fornito. Ad esempio, quando genera testo, il modello prevede la parola successiva più probabile data la sequenza precedente, creando così contenuti coerenti e contestualmente appropriati.
Sebbene tramite l’AI Generativa si spazi dalla generazione di codice alla progettazione di nuove proteine, i foundation model sono emersi in ambito linguaggio naturale e immagini. I foundation model per l’interpretazione del linguaggio naturale prendono il nome di Large Language Model (LLM), famiglia di cui fanno parte gli stessi GPT4 e Gemini. Dopo un pre-addestramento, è possibile adattare i LLM a diverse esigenze specifiche, rendendoli utilizzabili per una vasta gamma di applicazioni, come la traduzione o il riassunto.
Architettura dei foundation model
I foundation model di Generative AI si basano su tre architetture principali che hanno rivoluzionato il modo in cui le macchine creano contenuti originali:
i Transformer
le Reti Generative Avversarie (GAN)
Autocodificatori Variazionali (VAE)
Transformer
Molti dei foundation model di Generative IA sono oggi basati sull’architettura dei Transformer. Apparsi al grande pubblico con ChatGPT, sono invece noti nella comunità di studio sull’Intelligenza Artificiale, dal 2017 grazie al paper Attention is all you need.
I Transformer in AI Generativa sono un’architettura di reti neurali basata su un meccanismo di attenzione, che si focalizza su particolari elementi di una sequenza di dati. Esattamente come la mente umana, che in una frase si focalizza su elementi essenziali come sostantivi, pronomi, aggettivi, verbi, comprendendone le relazioni, allo stesso modo i Transformerapprendono relazioni di dipendenza a lungo raggio tra le parole in una sequenza.
Questa caratteristica li rende più performanti rispetto ad altre architetture, come le RNN (Reti Neurali Ricorrenti), che invece procedono in modo sequenziale e con un limite sulla lunghezza delle sequenze in input. L’architettura dei transformer, originariamente sviluppata per il trattamento del linguaggio naturale, si è dimostrata flessibile e adatta anche per altre applicazioni al di fuori del solo linguaggio. Si tratta, ad esempio, della generazione di testo basato su immagini o la generazione di immagini stesse.
Tuttavia, i Transformer non sono l’unica architettura su cui si basa l’AI generativa.
Reti Generative Avversarie (GAN)
Le GAN, o Reti Generative Avversarie, introdotte nel 2014, rappresentano un paradigma fondamentale nell’AI generativa, particolarmente efficace nella creazione di contenuti visivi. Queste reti sono composte da due componenti che operano in competizione: un generatore che cerca di creare dati realistici e un discriminatore che tenta di distinguere i dati generati artificialmente da quelli reali. Attraverso questa dinamica competitiva, il generatore migliora progressivamente fino a produrre output difficilmente distinguibili dai dati autentici.
Autocodificatori Variazionali (VAE)
I VAE, o Autocodificatori Variazionali, sono anch’essi emersi nel 2014 ma, a differenza delle GAN, sono composti da un encoder che comprime i dati in uno spazio latente e un decoder che ricostruisce i dati partendo da questa rappresentazione compressa. La particolarità dei VAE risiede nella natura probabilistica di questo spazio latente, che permette di generare nuovi contenuti campionando da distribuzioni probabilistiche. Questo approccio consente un maggiore controllo sugli attributi specifici del contenuto generato e facilita l’interpolazione tra diversi esempi, rendendoli particolarmente adatti per applicazioni che richiedono manipolazione semantica dei dati.
Nell’ecosistema dell’AI Generativa moderna, queste tre architetture non operano in isolamento ma rappresentano approcci complementari con punti di forza distinti. I Transformer eccellono nella comprensione contestuale e nella generazione sequenziale complessa, le GAN nella creazione di contenuti visivi ad alta fedeltà, mentre i VAE offrono un maggior controllo sulle proprietà specifiche della generazione.
Esempi di foundation model
Tra gli esempi di foundation model di AI Generativa che possiamo citare troviamo i due modelli elaborati dalla società statunitense OpenAI. Il primo è GPT-4 (Generative Pre-trained Transformer 4), utilizzato per ChatGPT (la cui versione 4, a pagamento, è multimodale, poiché è in grado di rispondere a input testuali e visivi, mentre il profilo base può comprendere solo input testuali e fa leva sul modello 3.5). Il secondo è DALL·E 3, il modello di generazione immagini alla base dell’omonima soluzione generativa.
Tra i foundation model di Generative IA rilasciati da Google troviamo, invece, LaMDA (Language Model for Dialogue Applications), Bert (Bidirectional Encoder Representations from Transformers), PaLM 2 (Pathways Autoregressive Language Model) e Gemini. Quest’ultimo, anch’esso multimodale, è alla base della piattaforma Gemini, a cui dà il nome, subentrata a Bard l’8 febbraio 2024.
Un ultimo esempio di foundation model di Generative IA è rappresentato dal recente lancio della terza generazione dei modelli Claude, rilasciati dalla società Anthropic. Al pari di GPT4 e Gemini, si caratterizza per la multimodalità, ovvero la capacità di gestire testo e immagini. Inoltre, secondo i benchmark che comparano tali modelli, è in grado di performare meglio degli stessi GPT4 e Gemini.
AI Generativa e Big Tech: alcuni esempi
Vista la centralità dell’AI Generativa, tutte le principali BigTech sono scese in campo per competere in questa corsa all’innovazione. Prima fra tutte è stata la società OpenAI con la nota piattaforma ChatGPT.
AI Generativa e ChatGPT
ChatGPT, come detto in precedenza, è l’interfaccia del foundation model di AI Generativa di OpenAI, GPT-4 (Generative Pre-trained Transformer). È disponibile in due versioni: una gratuita, denominata ChatGPT 3.5, e una premium, chiamata ChatGPT 4. In entrambe le versioni il chatbot è in grado di elaborare testi, sia essi articoli, traduzioni, codici, ricette, ecc. Nella versione a pagamento, inoltre, ChatGPT è multimodale, ovvero in grado di comprendere e rispondere a input sia testuali che visivi.
Il programma di AI Generativa, che ha avuto un grande hype già a partire dal suo rilascio (si è parlato di un milione di utenti al giorno nella prima settimana) ha però un limite, che consiste nell’aggiornamento delle informazioni. L’ultimo aggiornamento del dataset di ChatGPT 3.5 risale a gennaio 2022, mentre quelle di ChatGPT 4 a dicembre 2023. Nelle versioni avanzate, come GPT-4 Turbo, è possibile utilizzare tecniche simili alla Retrieval-Augmented Generation (RAG), che permettono di recuperare informazioni aggiornate da fonti esterne come il web o documenti, superando i limiti dei dati statici.
A partire dal suo rilascio al grande pubblico, avvenuto a novembre 2022, sono poi seguite le risposte delle altre Big Tech.
AI Generativa e Google
In risposta all’AI Generativa di OpenAI, ChatGPT, Google a febbraio del 2023 ha lanciato la sua soluzione conversazionale chiamata Bard. Un anno dopo questo strumento è stato rinominato Gemini, proprio come l’ultimo grande LLM (Large Language Model) presentato dalla stessa azienda di Mountain View a fine 2023.
Multimodale come ChatGPT, questa AI Generativa differisce però per diversi aspetti. Mentre uno dei limiti principali di ChatGPT è l’aggiornamento delle informazioni, Google può sfruttare la sua immensa mole di dati per perfezionare Gemini. Inoltre, un’altra delle caratteristiche della piattaforma di Google è la possibilità di integrare anche altri servizi, come Gmail e Google Documenti.
AI Generativa e Microsoft
L’azienda di Bill Gates è stata forse la prima BigTech che pubblicamente è entrata nella partita dell’AI Generativa investendo in OpenAI. Basandosi proprio sull’AI sviluppata da OpenAI, a maggio 2023 Microsoft ha rilasciato Bing Chat, l’assistente conversazionale che oggi è stato sostituito da Copilot Questa piattaforma di GenAI, diversamente da ChatGPT, è in grado di produrre immagini. Inoltre, secondo un esperimento condotto dall’Osservatorio Design Thinking for Business del Politecnico di Milano, Bing AI, attraverso contenuti visuali, è in grado di elaborare contenuti visuali intensi e maggiormente impattanti a livello emotivo.
Microsoft Copilot è disponibile principalmente su Windows 11, tramite il web e come assistente per Microsoft 365. La piattaforma agisce come un “compagno digitale” capace di assistere l’utente in modo sempre più contestuale, personalizzato e intelligente, offrendo funzionalità potenziate e un accesso più profondo alle capacità generative. Al centro di questa evoluzione c’è Bing AI, un motore di ricerca evoluto che utilizza modelli linguistici avanzati per fornire risposte più precise, adattandosi alle esigenze dell’utente.
AI Generativa e Amazon
L’azienda di Jeff Bezos ha diversificato la strategia sull’AI Generativa. Oltre aver investito nella startup Anthropic, nata da ex dirigenti di OpenAI e proprietaria del modello linguistico multimodale Claude, nel corso del 2023 Amazon ha fatto altri due annunci.
Il primo è il lancio della suite Bedrock, la cui feature principale è che permette agli sviluppatori di integrare servizi AI in grado di generare testo, appunto come ChatGPT, nei loro software. Il secondo è la nascita dell’AWS Generative AI Innovation Center per mettere in contatto gli esperti di Amazon con i clienti che desiderano creare applicazioni basate su Intelligenza Artificiale. L’obiettivo è lavorare a una soluzione per sfidare gli altri player.
AI Generativa e Apple
Negli ultimi mesi, Apple ha continuato a progredire nel campo dell’AI Generativa, seppur mantenendo un profilo più discreto. È importante sottolineare che nell’ottobre del 2023 Apple ha divulgato uno studio relativo al modello linguistico multimodale di ampia portata, denominato Ferret, successivamente reso disponibile anche su GitHub a fini di ricerca.
Nel 2024, Apple compie un passo decisivo nel campo dell’Intelligenza Artificiale Generativa con il lancio di Apple Intelligence, una suite di funzionalità integrate in iOS 18, iPadOS 18 e macOS Sequoia. Basata sui chip Apple, questa tecnologia permette di comprendere e generare testi, immagini e azioni personalizzate nelle app, mantenendo al centro privacy e sicurezza grazie a un sistema chiamato Private Cloud Compute. Tra le novità ci sono strumenti di scrittura intelligenti, che aiutano l’utente a migliorare e semplificare i contenuti. In Italia Apple Intelligence è disponibile da aprile 2025.
Apple prevede inoltre di estendere Apple Intelligence a nuove lingue, tra cui l’italiano, a partire da aprile 2025, rendendola accessibile a un pubblico sempre più ampio.
AI Generativa e Meta
Tra le prime azioni per sviluppare un AI Generativa messe in campo da Meta c’è il rilascio del suo modello linguistico di grandi dimensioni Llama. Si tratta sempre di un LLM, rilasciato però in modalità open source (ovvero accessibile a chiunque voglia usarla). Dopo le prime versioni, l’azienda ha continuato a investire nello sviluppo del modello, rilasciando nel 2024 Llama 3 (in versioni da 8B e 70B parametri) e successivamente Llama 3.3, ottimizzato per compiti multilingue e generazione di codice, con performance elevate.
A queste novità si affianca il lancio di AI Studio, reso disponibile a luglio 2024. Si tratta di una piattaforma che consente a creator e aziende di creare chatbot personalizzati, anche senza competenze tecniche, utilizzando i modelli AI di Meta anche al di fuori dei suoi ambienti proprietari.
AI Generativa e xAI
Dopo aver inizialmente firmato una lettera per sospendere lo sviluppo dell’Intelligenza Artificiale, alla fine del 2023 Elon Musk ha lanciato xAI, con l’obiettivo di competere con le principali BigTech. Uno dei prodotti di punta di xAI è il chatbot Grok, noto per il suo tono ribelle, sarcastico e irriverente, capace di affrontare domande provocatorie in modo distintivo rispetto ai concorrenti.
Nel marzo 2024, xAI ha reso open source il codice di Grok 1.0, permettendo alla comunità di sviluppatori di contribuire al suo miglioramento. Successivamente, nell’agosto dello stesso anno, sono stati rilasciati Grok-2 e Grok-2 mini, con avanzate capacità di comprensione del testo e delle immagini, integrando informazioni in tempo reale dalla piattaforma X.
AI Generativa e DeepSeek
DeepSeek è una famiglia di modelli linguistici di grandi dimensioni (LLM) sviluppata dalla startup cinese DeepSeek AI, fondata nel 2023 da ex ricercatori di Baidu. Progettati per comprendere, generare e manipolare linguaggio naturale e codice, questi modelli si pongono come alternativa competitiva ai principali LLM internazionali. Il modello di punta, DeepSeek-R1, rilasciato nel gennaio 2025, è stato addestrato interamente da zero con un budget di circa 6 milioni di dollari, dimostrando performance elevate in diversi task, a fronte di costi molto inferiori rispetto a quelli di GPT-4. Si tratta a tutti gli effetti di un foundation model, capace di adattarsi a molteplici applicazioni testuali.
Parallelamente, è stato anche sviluppato DeepSeek-VL, un foundation model multimodale in grado di elaborare contemporaneamente input testuali e visivi, ideale per applicazioni che richiedono comprensione e generazione di contenuti su più canali informativi.
Le applicazioni dell’AI Generativa
L’AI Generativa, nella pratica, può essere integrata attraverso le API (Application Programming Interface) o utilizzata tramite interfacce conversazionali, permettendo di sfruttare la potenza dei foundation model come i transformer in diversi contesti applicativi.
Una volta integrata, la GenAI può influire positivamente su molteplici settori. Nella programmazione, ad esempio, può essere utilizzata per generare codice automaticamente, semplificando i processi di sviluppo software e accelerando la creazione di nuove applicazioni.
Nei servizi di customer service, i Chatbot basati sull’AI Generativa migliorano l’esperienza dell’utente fornendo risposte intelligenti e contestualizzate. In questo modo contribuiscono a una gestione più efficace delle richieste e riducendo i tempi di attesa.
Nel contesto aziendale, la AI Generativa può essere impiegata per la generazione di nuove idee, supportando il processo creativo attraverso la proposta di concetti innovativi e soluzioni originali. Ciò può essere particolarmente utile per l’innovazione e lo sviluppo di nuovi prodotti o servizi.
Quanto alla gestione della knowledge base aziendale, l’AI Generativa può automatizzare la creazione, l’organizzazione e l’aggiornamento delle informazioni aziendali. Queste azioni semplificano la ricerca e l’accesso a conoscenze specifiche, migliorando l’efficienza operativa e lacondivisione di informazioni all’interno dell’organizzazione.
In generale, le applicazioni dell’AI Generativa stanno contribuendo in modo significativo a ottimizzare processi, migliorare l’esperienza utente e stimolare l’innovazione in diversi settori.
I vantaggi della Generative AI
L’Intelligenza Artificiale Generativa offre strumenti potenti che rivoluzionano il modo in cui creiamo e lavoriamo e innoviamo. Tutto ciò porta a diversi vantaggi. Vediamo i principali:
aumento della produttività: l’AI Generativa automatizza la creazione di contenuti, codice e design, riducendo i tempi e liberando risorse per attività strategiche;
potenziamento della creatività: propone idee, concetti e spunti originali, ampliando le possibilità espressive e ispirando nuove soluzioni;
personalizzazione su larga scala: crea contenuti su misura per utenti o segmenti specifici, migliorando comunicazione ed esperienza;
accesso a competenze avanzate: abilita anche chi non ha formazione tecnica a scrivere, programmare o progettare, abbattendo le barriere d’ingresso;
accelerazione dell’innovazione: consente di prototipare e testare rapidamente, riducendo il time-to-market;
ottimizzazione delle risorse: abbassa i costi di sviluppo e produzione, rendendo competitive anche realtà più piccole;
superamento dei limiti cognitivi: identifica pattern e soluzioni che potrebbero sfuggire all’analisi umana;
supporto decisionale avanzato: genera analisi e simulazioni basate su dati, per decisioni più informate e rapide.
L’AI Generativa in Italia
L’Intelligenza Artificiale in Italia sta crescendo in maniera impetuosa e i dati di mercato lo dimostrano.
Secondo la Ricerca dell’Osservatorio Artificial Intelligence, nel 2024 è la Generative AI che traina il mercato dell’AI. Ben il 43% della spesa in soluzioni di IA riguarda esclusivamente la GenAI o progetti ibridi (ossia che includono nelle tecniche di sviluppo anche l’AI tradizionale).
Per quanto riguarda invece l’adozione di questa tecnologia da parte delle aziende, emerge che il 65% delle realtà attive sull’Intelligenza Artificiale sperimentano anche nel campo della Generative AI. L’applicazione per cui la tecnologia viene impiegata maggiormente riguarda lo sviluppo di sistemi conversazionali a supporto di operatori interni.
Analizzando l’adozione dell’Intelligenza Artificiale nelle PMI, invece, è emerso dalla Ricerca che le realtà interessate sono il 58%, ma l’adozione di strumenti di GenAI pronti all’uso tramite licenze riguarda l’8% delle realtà. Queste corrispondono perlopiù alle realtà che lavorano sull’AI anche in ottica progettuale.
Guardando al punto di vista dei cittadini, dalla Ricerca emerge che il 99% degli italiani dichiara di conoscere il termine Intelligenza Artificiale. Parallelamente, raggiunge l’89% la quota di coloro che affermano di aver sentito parlare di Intelligenza Artificiale Generativa (+32% rispetto al 2023).
Questa crescita non deve sorprenderci: l’attenzione mediatica, il dibattito pubblico e le iniziative di governi, imprenditori e autorità regolatorie hanno contribuito all’aumento della consapevolezza sul tema.
Grazie moltissime per questo articolo, che raccoglie e riprende concetti chiave, ben argomentati e aggiornati alle ultime news a fronte dell’evoluzione della ai stessa, che ho seguito strada facendo. Ho trovato molto proficui anche altri articoli classificati nella stessa categoria del blog (ai) proposti tra gli articoli da leggere e più letti. Una full immersion 🙂
Tramite il nostro Cookie Center, l'utente ha la possibilià di selezionare/deselezionare le singole categorie di cookie che sono utilizzate sui siti web.
Per ottenere maggiori informazioni sui cookie utilizzati, è comunque possibile visitare la nostra COOKIE POLICY
Cookie tecnici (strettamente necessari)
I cookie tecnici sono necessari al funzionamento del sito web perché abilitano funzioni per facilitare la navigazione dell'utente, che per esempio potrà accedere al proprio profilo senza dover eseguire ogni volta il login oppure potrà selezionare la lingua con cui desidera navigare il sito senza doverla impostare ogni volta.
Cookie analitici
I cookie analitici, che possono essere di prima o di terza parte, sono installati per collezionare informazioni sull'uso del sito web. In particolare, sono utili per analizzare statisticamente gli accessi o le visite al sito stesso e per consentire al titolare di migliorarne la struttura, le logiche di navigazione e i contenuti
Attiva i cookie strettamente necessari così da poter salvare le tue preferenze!
Cookie di profilazione e social plugin
I cookie di profilazione e i social plugin, che possono essere di prima o di terza parte, servono a tracciare la navigazione dell'utente, analizzare il suo comportamento ai fini marketing e creare profili in merito ai suoi gusti, abitudini, scelte, etc. In questo modo è possibile ad esempio trasemettere messaggi pubblicitari mirati in relazione agli interessi dell'utente ed in linea con le preferenze da questi manifestate nella navigazione online.
Attiva i cookie strettamente necessari così da poter salvare le tue preferenze!
Grazie moltissime per questo articolo, che raccoglie e riprende concetti chiave, ben argomentati e aggiornati alle ultime news a fronte dell’evoluzione della ai stessa, che ho seguito strada facendo. Ho trovato molto proficui anche altri articoli classificati nella stessa categoria del blog (ai) proposti tra gli articoli da leggere e più letti. Una full immersion 🙂