Condividi

Intelligenza Artificiale Generativa (AGI): una guida semplice e chiara per capire come funziona (perfetta per chi non ne capisce nulla)

  • AI Avvocati
  • AI Commercialisti
  • AI Consulenti del lavoro
  • AI Notai
  • Innovazione e tecnologia
  • Intelligenza Artificiale
  • Marketing e sviluppo business

Indice dei contenuti

Per capire come funziona l’Intelligenza Artificiale Generativa (AGI), che sta cambiando irrimediabilmente il mondo in cui viviamo, utilizzeremo come esempio la nascita e la crescita di un bambino, in modo da capire i passaggi fondamentali con cui l’AI nasce, cresce e si sviluppa. In questo momento, l’AI è come un bambino di 6 anni che inizia ad andare a scuola. Siamo solo all’inizio di questo viaggio, dunque, ma andiamo per gradi.

IL CONCEPIMENTO

Un bambino, dopo essere stato concepito, crea le sue strutture fisiche e neuronali nella pancia della mamma, così che una volta nato possa apprendere dalla realtà e interagire con essa. La stessa cosa accade (è accaduto) con l’Intelligenza Artificiale. Proprio come un bambino inizia la sua vita come una singola cellula, che si sviluppa in un organismo complesso nel grembo materno, un sistema di IA è nato dall’idea di realizzare una struttura programmata capace di ‘pensare’ e ‘apprendere’. Le strutture fisiche e neuronali del bambino che si formano durante la gravidanza possono essere paragonate agli algoritmi e alle reti neurali di un sistema di AI in fase di sviluppo.

Il concetto moderno di Intelligenza Artificiale (AI) è stato per la prima volta definito nella metà del ventesimo secolo, quando fu coniato il termine da John McCarthy, un informatico americano. Correva l’anno 1955. McCarthy è considerato il padre dell’AI per il suo ruolo nel promuovere lo studio dei processi di intelligenza e la sua implementazione nelle macchine. La famosa Conferenza di Dartmouth del 1956, da lui organizzata, è da molti considerato il momento di nascita ufficiale dell’AI come campo accademico. È importante sottolineare come le idee che hanno portato alla creazione dell’AI non sono state il prodotto di una singola mente, ma di un collettivo di scienziati provenienti da diverse discipline, che hanno contribuito ciascuno con la propria visione e il proprio lavoro. Uno dei più importanti scienziati in tal senso fu Alan Turing, con il suo famoso test di Turinge i lavori sulla computazione, con cui ha gettato le basi teoriche per l’informatica e l’AI molti anni prima della conferenza di Dartmouth.

LA NASCITA E I PRIMI PASSI

Come un neonato dopo la nascita inizia a conoscere il mondo e ad apprendere attraverso l’osservazione e l’interazione con l’ambiente, così ha fatto l’AI negli ultimi anni. Anche se il concetto di AI non è recente, come abbiamo visto, ciò che ha fatto la differenza negli ultimi anni è stato il WEB, quindi la possibilità di avere a disposizione i “big data”: una infinità di dati che il web produce e accumula sin dagli anni ’90. Negli ultimi anni l’evoluzione tecnologica e l’accesso a questo immenso patrimonio di dati hanno permesso il pre-trainingall’AI. È arrivato il momento di capire perché si parla di pre-training (GPT è l’acronimo di “Generative Pre-trained Transformer”), che differenza c’è dal training vero e proprio e cos’è un “prompt system”.

Un bambino impara come comportarsi e come interpretare le esperienze mediante l’imitazione degli adulti. I genitori, dunque, sono i primi “programmatori” dei bambini, che lo vogliano o no: sono loro a dare un modelloda seguire ai bambini; è come se dessero (di fatto) delle istruzioni di comportamento, permettendo così ai bambini di avere istruzioni per gestire le informazioni che acquisiranno nel corso della propria vita.

La stessa cosa accade con l’Intelligenza Artificiale: i programmatori forniscono istruzioni (system prompt) all’AI, in modo che sappia come gestire i dati che le verranno forniti dagli utenti (user prompt): schemi, linguaggio, immagini e comportamenti. Per poter preparare l’AI ad interagire con gli esseri umani che la utilizzeranno è necessario fornirle, oltre alle istruzioni di comportamento (come), anche un bagaglio di conoscenze (cosa): questa è la fase di pre-training. In questa fase all’AI vengono dati in pasto miliardi di informazioni prese dal web (e non solo). È così che l’AI crea la propria conoscenza iniziale. Adesso l’AI è pronta per interagire con gli utenti. La fase di training inizia ora: ciascun utilizzatore farà richieste all’AI e le fornirà dati nuovi arricchendola di nuove informazioni e perfezionando con l’uso e i feedback che riceverà dagli utenti le informazioni già in possesso nel suo data base. Il pre-training crea le basi e il training perfeziona e arricchisce (fine tuning).

Come un bambino con il tempo apprende a riconoscere volti, oggetti e il significato delle parole, allo stesso modo l’AI, attraverso processi come l’apprendimento automatico e il deep learning, affina le proprie capacità di riconoscere schemi complessi, interpretare il linguaggio naturale e persino generare risposte nuove, creative.

GPT (GENERATIVE PRE-TRAINED TRANSFORMER)

GPT sta per “Generative Pre-trained Transformer”: come abbiamo visto, è un tipo di modello di Intelligenza Artificiale sviluppato dalla società OpenAI, che utilizza tecniche di apprendimento profondo (deep learning) per produrre testo che assomiglia a quello scritto da un essere umano.

  • Generative: indica che il modello è in grado di generare nuovi contenuti con stili diversi e non si limita ad “assemblare” contenuti già presenti nel proprio data base.
  • Pre-trained: indica l’addestramento preliminare su un ampio set di dati di testo. Questo allenamento iniziale, noto come pre-training, consente al modello di apprendere una comprensione generale della lingua, della grammatica, del contesto e della conoscenza del mondo.
  • Transformer: è la parte centrale dell’architettura del modello. “Transformer” si riferisce a un tipo di architettura di rete neurale che gestisce sequenze di dati, come il testo, in modo più efficace rispetto ai precedenti modelli; il meccanismo del Transformer permette al modello di considerare il contesto globale di una parola all’interno di un’intera sequenza di testo, rendendolo particolarmente potente nell’elaborare e generare testo.

CHAT GPT

Questo termine sconosciuto a tutti prima del 22 ottobre 2022, giorno in cui fu lanciata sul mercato la chat di intelligenza artificiale della società Open AI, descrive un modello di AI che utilizza la tecnologia GPT per chattare in modo interattivo e naturale con gli utenti. La parola CHAT, infatti, indica la modalità dialogativa che il sistema adopera: può, infatti, condurre conversazioni in forma di chat con gli utenti. Il software è progettato per rispondere a domande, fornire informazioni, partecipare a dialoghi su una varietà di argomenti e persino imitare una conversazione umana in modo coerente e comprensibile. Quindi “chat” è la modalità di interazione con l’utente, GPT è il modello di AI utilizzato.

INTELLIGENZA ARTIFICIALE GENERATIVA

Facciamo ora un passo in più in questo mondo: l’Intelligenza Artificiale Generativa si riferisce a sistemi di AI capaci di creare contenuti nuovi e originali. A differenza delle forme tradizionali di AI, che si basano sull’analisi e l’interpretazione dei dati, l’AGI è progettata per generare nuove informazioni, immagini, testi, musica. Questo tipo di AI “apprende” da grandi quantità di dati esistenti e poi usa queste informazioni per creare qualcosa di completamente nuovo.

L’AGI si avvale di reti neurali, strutture complesse che imitano il funzionamento del cervello umano. Queste reti “apprendono” da enormi set di dati attraverso un processo noto come apprendimento automatico.

LLM (LARGE LANGUAGE MODEL) 

Pensavate fosse finita qui? E invece c’è ancora qualcos’altro che dobbiamo sapere per orientarci in questo nuovo mondo. Avrete sicuramente sentito parlare di LLM o “Large Language Model” (lett. Grande Modello di Linguaggio). È il modello di Intelligenza Artificiale in cui rientra GPT. In sostanza, LLM è l’insieme che comprende GPT, che è uno dei modelli LLM, dove “large” sta per “grandi” riferito all’enorme set di dati su cui sono addestrati.

MACHINE LEARNING

Ancora un ultimo passaggio e ci siamo: gli LLM a loro volta sono una sottocategoria di modelli di Machine Learning. Sono questi modelli (o “macchine”) che hanno la capacità di gestire una vasta gamma di compitilegati al linguaggio, come la traduzione automatica, la risposta a domande, il riassunto di testi, la generazione di contenuti, la comprensione del testo e molto altro. 

RIASSUMIAMO

Abbiamo visto in modo semplice come nasce e cresce l’Intelligenza Artificiale Generativa che sarà il nostro compagno di viaggio per il futuro. Come ha evidenziato Bill Gates in una sua recente intervista l’AI sarà la tecnologia dominante nel 2024 e nei prossimi 5 anni ciascuno di noi avrà la sua AI “ su misura” per assisterlo nei vari compiti lavorativi e non.

Considerate che se nel 2023 si è sentito parlare tanto di Intelligenza Artificiale Generativa, nel 2024 essa sarà inserita in tutti i dispositivi mobili (cellulari), portabili (smartwatch), nei programmi software per il lavoro (pensate a Copilot di Microsoft inserito nella suite Office 365) e interagiremo con chatbot di ogni tipo on line sui siti della pubblica amministrazione, come di aziende private.

Dunque, abbiamo visto che:

  • Machine Learning (Apprendimento automatico) è il campo dell’AI che permette ai computer di imparare dai dati e migliorare le proprie prestazioni nel tempo senza essere esplicitamente programmati. È il fondamento su cui si basano le altre tecnologie elencate.
  • Deep Learning (Apprendimento profondo) è una sottocategoria del machine learning che utilizza reti neurali con molteplici strati (o “profonde”) per apprendere dai dati. Il deep learning è particolarmente efficace nell’elaborare dati non strutturati come immagini, suoni e testi.
  • Large Language Models (LLM) sono modelli di deep learning specializzati nel processare e comprendere il linguaggio naturale. Sono “grandi” perché utilizzano un’enorme quantità di dati di testo per l’addestramento, permettendo loro di comprendere e generare linguaggio con un alto grado di sofisticatezza.
  • Generative Pre-trained Transformer (GPT) è una specifica architettura di LLM che utilizza il meccanismo dei Transformer nel deep learning. GPT è addestrato inizialmente su grandi quantità di testo (pre-training) e poi ulteriormente adattato (o fine-tuned) per specifici compiti di linguaggio. GPT può essere considerato un esempio di un LLM altamente avanzato.

In pratica, i programmatori utilizzano il machine learning per costruire modelli che possano apprendere dai dati. Quando questi modelli sono reti neurali profonde specializzate nel linguaggio, li chiamiamo LLM. Se l’LLM è costruito usando l’architettura Transformer e addestrato su una vasta gamma di dati di testo per generare o completare testi, si parla di GPT.

Tutto chiaro adesso? 

Ti interessa capire come utilizzare in modo pratico questi strumenti nella tua professione per migliorare i flussi di lavoro, ottimizzare i tempi, organizzare lo studio?

Sei un avvocato, commercialista, notaio o consulente del lavoro? 

Il seminario è specificamente pensato per gli studi professionali dell’area giuridico-economica (studi legali, notarili, commercialisti, cdl) AI REVOLUTION si terrà in webinar.

Il seminario è aperto all’intero studio professionale, per permettere a tutti i componenti dello studio di crescere in questa transizione culturale. 

Pertanto,

con una sola quota di iscrizione è possibile far partecipare tutti i componenti dello studio

(professionisti e collaboratori).

Ci sono ancora posti disponibili, approfittane ora!

Intelligenza Artificiale per Studi professionali

Scopri il nostro corso AI REVOLUTION
di 4+4 ore in webinar live
CORSO BASE e AVANZATO

RICONOSCIUTI N. 4 CREDITI FORMATIVI PER CDL

Mario Alberto Catarozzo - Founder Partner & CEO MYPlace Communications

In evidenza

Risorse correlate

Resta aggiornato

Iscriviti alla nostra newsletter

    Mario Alberto Catarozzo

    Formatore, Business Coach professionista e Consulente, è specializzato nell’affiancare professionisti, manager e imprenditori nei progetti di sviluppo e riorganizzazione.
    È fondatore e CEO di MYPlace Communications, società dedicata al marketing e comunicazione nel business. Nella sua carriera professionale è stato dapprima professionista, poi manager e infine imprenditore. Per questa ragione conosce molto bene le dinamiche aziendali e del mondo del business. Si è formato presso le migliori scuole di coaching internazionali conseguendo le maggiori qualifiche del settore.
    Collabora con Enti, Istituzioni e Associazioni professionali e di categoria e lavora con aziende italiane e internazionali di ogni dimensione, dalle pmi alle multinazionali.
    È autore di numerosi volumi dedicati agli strumenti manageriali e di crescita personale e professionale. È direttore della collana Studi Professionali di Alpha Test Editore e autore de “Il Futuro delle professioni in Italia” edito da Teleconsul editore.
    Professional Certified Coach (PCC), presso la International Coach Federation (ICF).
    Per sapere di più sulle attività di formazione, coaching, consulenza e marketing visita i siti:

    .
    Per info e contatti: coach@mariocatarozzo.it.