L’Intelligenza Artificiale è entrata nelle nostre vite non propriamente in punta di piedi. La sua capacità di progredire in fretta pare non consenta di prendere fiato, eppure l’AI generativa può diventare una valida alleata nel lavoro quotidiano, soprattutto nel marketing e nella formazione.
Onnipresente, ma non onnisciente, l’Intelligenza Artificiale guida le scelte non certo dal 2024, ma da molto prima. Ecco perché comprendere come orientarsi nell’uso di queste macchine è una competenza fondamentale per preservare quanto di più importante disponiamo come persone: l’immaginazione.
Ma cos’è l’intelligenza artificiale , come funziona e quali sono le differenze tra Intelligenza Artificiale e AI generativa? Voilà un excursus per esplorare quest’affascinante e utile disciplina. E andiamo!
Cos’è l’Intelligenza Artificiale in parole semplici?
L’Intelligenza Artificiale (AI) è un ramo dell’informatica il cui obiettivo è riprodurre la complessità del meccanismo cognitivo umano. Il compito di queste macchine è proprio quello di apprendere e reagire agli input come farebbe il nostro cervello.
L’Intelligenza Artificiale è sempre stata tra noi: un breve excursus storico
Ebbene sì: l’AI è tra noi da un bel po’ di tempo. Immagina una situazione del genere: cerchi qualcosa su Google. Stai per digitare la tua domanda (o query, in gergo da digital marketer) sulla searchbar e, d’un tratto, inizi a vedere alcune parole che completano la tua frase. Ecco: questo è un esempio di algoritmo di raccomandazione, oracolo contemporaneo che orienta le scelte. Così, clicchi un risultato, poi magari sbirci un video su Youtube e dal tutorial che racconta come creare il tuo personal brand ti ritrovi anche un contenuto a tema storie e reel di Instagram che ti osserva, in attesa del click. Oppure, potremmo iniziare a cercare esempi di Intelligenza Artificiale nel lavoro, per poi intercettare un altro contenuto su ChatGPT e altre app di AI da conoscere
Click dopo click, raccontiamo la nostra storia ad algoritmi di apprendimento che migliorano la nostra esperienza sul web.
Un altro esempio? Il feed Esplora di Instagram! Fai una prova: aprilo e osserva i post. Se adorabili gattini e scoiattoli compongono il puzzle con altri contenuti a tema attualità, startup, innovazione e digital marketing, allora sappi che abbiamo molto in comune!
Gli algoritmi di raccomandazione si addestrano con la ridondanza: quanto più interagiamo sulle piattaforme come Meta o Google, tanto più acquisiscono informazioni sul nostro comportamento, gusti, preferenze e abitudini.
Clicchiamo, dunque esistiamo.
Come funziona l’Intelligenza Artificiale?
Ma facciamo chiarezza per capire come funziona l’AI. Machine Learning, Deep Learning, LLM, NPL, Learner, Token e Transformer possono creare un po’ di confusione. La stessa Intelligenza Artificiale non è un unicum, ma esistono varie sfaccettature da conoscere.
Cos’è il Machine Learning?
Il Machine Learning è un ramo dell’Intelligenza Artificiale, ovvero uno dei possibili meccanismi di funzionamento alla base dell’AI. La specificità del machine learning consiste nello sviluppo di algoritmi in grado di imparare autonomamente dall’analisi dei dati che possono essere strutturati ed etichettati.
E cos’è, invece, il deep learning?
Il deep learning è un ramo del machine learning che utilizza reti neurali artificiali per svolgere compiti complessi. Le reti neurali artificiali sono ispirate al funzionamento del cervello umano, quindi possono elaborare nuove informazioni a partire da input con determinati dati. Per esempio, è quello che accade quando chiediamo a Dall-E, il text-to-image di OpenAI, un’immagine di un gatto dagli occhi grandi. Quello che otteniamo sarà un gatto mai visto prima. Questo è possibile perché il funzionamento è quello del cervello umano, ovvero la capacità di elaborare pensieri a partire da esperienze pregresse “conservate” nella memoria con pacchetti di dati.
Cosa s’intende per Intelligenza Artificiale Generativa? LLM: Large Language Model , token, learner e Transformer
L’Intelligenza Artificiale Generativa è quel particolare ramo dell’AI capace di creare ex novo contenuti a partire da input specifici. Ma com’è possibile?
Per comprendere appieno il meccanismo di funzionamento, vale la pena dare un’occhiata ai LLM – Large Language Model- modelli di apprendimento pazzeschi, nonchè un ramo avanzato del NLP – Natural Language Processing (NLP) – strumento che ci consente di dialogare con i sistemi informatici. Gli LLM sono in grado di comprendere, generare e interpretare il linguaggio umano. Proprio per questo, comprendono il contesto e le relazioni semantiche tra i token.
La musa ispiratrice dei Large Language Model è il cervello umano, quindi stiamo parlando del modello del deep learning con un’ingegnosa applicazione di reti neurali concatenate predisposte all’apprendimento migliorativo progressivo. Tutto questo rende possibile la creazione di nuovi testi a partire da un input, ovvero un prompt.
GPT-4 e GPT-4o (la o sta per OMNI) di OpenAI è un Large Language Model, così come lo è PaLM2 , l’LLM di Gemini Advanced e Ultra (ex Bard), ovvero l’AI generativa di Google.
L’Intelligenza Artificiale Generativa è anche Conversazionale, ecco perché interagiamo con ChatGPT e Gemini con la conversazione, dunque con il linguaggio.
Come Funziona l’Addestramento dei Large Language Model – Modelli linguistici di grandi dimensioni?
L’addestramento di LLM come GPT-4 e GPT-4o si basa su metodi come:
- l’apprendimento supervisionato, dove l’IA impara da dati etichettati con esempi per formulare risposte corrette;
- l’apprendimento per rinforzo, che affina le risposte dell’IA basandosi sul feedback umano. Questo processo permette all’IA di prevedere quale token verrà dopo in una sequenza, permettendole di generare testo coeso e contestualmente rilevante.
Come funziona l’Intelligenza Artificiale Generativa?
L’Intelligenza Artificiale Generativa utilizza un processo complesso per comprendere un “prompt”, ovvero un’istruzione che fornisce all’IA le informazioni su che tipo di risposta elaborare sulla base di un modello predittivo probabilistico e non deterministico. Questo processo vede protagonisti due componenti chiave: token, learner (chiamati anche Crawler) e Transformer.
- Token: i token sono le unità di informazioni che compongono il prompt. Possono essere parole, numeri, immagini o altri tipi di dati.
- Learner: sono algoritmi capaci di passare in rassegna i token per collocarli nella cornice semantica e predittiva adeguata. I learner hanno capacità di migliorare la capacità di apprendimento, nonchè di creare modelli di apprendimento che migliorano nel tempo con un allenamento. Nell’intelligenza artificiale generativa questi learner basano i loro processi sui Large Language Models.
- Transformer: un tipo di rete neurale capace di mettere a sistema e contestualizzare enormi set di dati creando,così, relazioni significative dal punto di vista semantico, anche per creare ex novo dei testi, immagini o video.
In questo processo, i transformer e i learner svolgono ruoli complementari per trasformare il prompt in un output (un testo o un’immagine, per esempio):
- I transformer sono responsabili della generazione del contenuto. Sono in grado di farlo perché sono stati addestrati su un’enorme quantità di dati di testo e sono in grado di comprendere le relazioni tra le parole.
- I learner sono responsabili dell’apprendimento a partire dai dati. Sono in grado di farlo perché sono stati addestrati su algoritmi di apprendimento automatico.
Lavorando insieme, i transformer e i learner sono in grado di generare contenuti nuovi e creativi che sono in linea con il prompt.
Possiamo, dunque, immaginare il token come un’entità, un’untà di significato da poter identificare in uno specifico frame (o cornice), proprio come accade nell’analisi SEO!
Come migliorare il training degli LLM delle AI generative
L’Intelligenza Artificiale non è un unicum, bensì sono le diverse applicazioni e meccanismi che vanno ad alimentare l’ecosistema del futuro. Tuttavia, allenare un LLM come GPT-4o, Claude Sonnet 3.5 con le proprie risorse, non è sempre così semplice.
Cos’è la RAG e perché è importante per gli LLM
L’acronimo RAG sta per Retrieval-Augumented Generation e consiste in un framework AI di recupero di informazione a partire da query in database strutturati oppure in knowledge base. In sostanza, quando costruiamo un nostro GPT o un Project con Claude, forniamo al Modello dati e documenti o siti web. Ma il problema che riscontriamo è che il recupero delle informazioni risulta farraginoso e non sempre allineato alle nostre aspettative. Questo è un problema, soprattutto quando un chatbot ha come scopo quello di dover dare risposte pertinenti in funzione di un certo tipo di dati.
Ecco perché la RAG si rivela utile durante il training dei chatbot. Fondamentale è l’organizzazione della knowledge base con informazioni strutturate e organizzate, un po’ come per la SEO, per intenderci. Infatti, per allenare al meglio i nostri Prompt’n’Play Assistant, abbiamo dovuto organizzare la knowledge base con tassonomie e una gerarchia semantica precisa. I risultati sono notevolmente migliorati!
Come usare l’Intelligenza Artificiale Generativa correttamente e al meglio? E cosa succede quando scriviamo un prompt per l’AI? Vediamo qualche esempio:
Quando un’AI generativa riceve un prompt, questo viene decodificato per creare ex novo un output. Facciamo un esempio con un testo.
Il processo di elaborazione di un prompt da parte dell’Intelligenza Artificiale può essere suddiviso in tre fasi:
- Tokenizzazione:
Il prompt viene scomposto in token. Ad esempio, il prompt “Scrivi una poesia sull’amore” potrebbe essere scomposto nei seguenti token:
- “Scrivi”
- “una”
- “poesia”
- “sull'”
- “amore”
- Apprendimento:
I learner e i Transformer, analizzano i token per creare modelli di apprendimento. Questi modelli possono essere basati su diversi fattori, come la frequenza dei token, la loro posizione nel prompt e la loro relazione con altri token.
- Generazione:
I learner utilizzano i modelli di apprendimento LLM e NPL per generare una risposta al prompt. La risposta, in questo caso, sarà un testo.
Applicazione pratica: facciamo un esperimento cercando di indossare gli occhiali di GPT per capire come funziona l’intelligenza artificiale:
Ecco come GPT interpreta il prompt “racconta gli LLM come se stessi parlando a un bambino di 10 anni”:
ChatGPT:
“Immagina i modelli di linguaggio di grandi dimensioni (LLM) come degli enormi libri magici che possono leggere e scrivere storie da soli. Ogni volta che parliamo con loro, riescono a capirci e a rispondere, quasi come se fossero dei vecchi amici che sanno un sacco di cose.
Poi ci sono i learners, che sono un po’ come gli studenti più curiosi della classe. Passano tutto il tempo a guardare foto, leggere libri, o ascoltare conversazioni per imparare nuove cose. Poi, con quello che hanno imparato, ci aiutano a fare un sacco di compiti difficili, rendendo le cose più facili e divertenti per noi.”
Una chicca davvero interessante da consultare è l’articolo interattivo del Financial Times per comprendere il meccanismo di funzionamento dell’Intelligenza Artificiale Generativa.
Come usare l’Intelligenza Artificiale nel nostro quotidiano? E cosa chiedere all’AI? La risposta si chiama Prompt Engineering, o prompt design, ovvero l’arte di formulare richieste all’AI
A partire dal 2022, nella storia dell’AI cambia qualcosa: il solo click è un segnale superato. Iniziamo, così, a parlare con le macchine. Voilà l’intelligenza artificiale generativa conversazionale. Alla portata di tutte e tutti, se sai cosa chiedere.
Cos’è un prompt?
Un prompt è un input, un comando che diamo all’AI per ottenere un output, dunque una risposta. Un prompt è costituito da elementi costanti, quindi basta pensare al processo di formulazione di un quesito, proprio come se stessimo scrivendo ad una persona. Bisogna poi conisderare gli elementi variabili, ovvero competenza, contesto e chiarezza.
Come parlare con l’AI in modo corretto? Principi di creazione di prompt efficaci (e non perfetti) per l’AI come GPT e Gemini:
- Prima regola: il prompt perfetto NON esiste;
- Seconda regola: non esistono diktat, ma quello che può aiutare è un approccio alla sperimentazione. Fare Test è la chiave, proprio come accade nelle startup.
Contesto, Competenza e Chiarezza sono le 3 C per iniziare una conversazione di qualità con ChatGPT, Gemini, Claude soprattutto per quel che riguarda il text-to-text,quindi per la scrittura di testi con l’AI, il text-to-image per creare immagini con l’AI e il text-to-code, ovvero ottenere codice a partire da un prompt:
- La Competenza: l’ingrediente fondamentale di qualsiasi prompt: quando ci approcciamo alla macchina dobbiamo avere in mente il percorso da proporle;
- Il Contesto: essenziale per evitare ambiguità semantiche;
- La Chiarezza: se l’autore o autrice del prompt non sa cosa vuole ottenere, nessun output di nessuna AI potrà risolvere il problema.
- Specificità: scrivi prompt dettagliati, con paragrafi, grassetti. Dai istruzioni chiare: l’AI non può leggerti nella mente, nè è un motore di ricerca. Sì, è vero: la funzione di SearchGPT può apparire come un competitor di Google, ma occorre fare opportune riflessioni a riguardo. Un esempio? SearchGPT mostra i primi 10 risultati di Bing, spesso poco esaustivi e , soprattutto, a discapito degli editori e brand più piccoli. L’impatto di SearchGPT, piuttosto, lo si testa nel modo differente di intendere l’intento di ricerca con un mood molto più conversazionale.
Viva il Prompt Gentile: scrivere con gentilezza fa bene anche all’Intelligenza Artificiale
Ebbene sì: rivolgerci alle intelligenze artificiali con gentilezza ha innumerevoli benefici.
- Allena l’assertività, principio alla base della comunicazione inclusiva;
- Migliora la qualità dell’output: rivolgerci con un tono gentile e cordiale non solo è sempre un ottimo esercizio, ma rende la risposta dell’AI più efficiente in termini della qualità della conversazione. Il compito di queste macchine è aiutarci. Anche laddove incorrano errori, è bene provare a riformulare il prompt in un modo diverso;
- Implementa la memoria dell’AI: le macchine ricordano come interagiamo, il nostro tono di voce.
- Nel caso dei GPT Personalizzati con ChatGPT, la gentilezza nel modo di porsi è fondamentale proprio per migliorare l’impatto sociale dell’Intelligenza Artificiale garantendo una conformità del linguaggio per le persone tutte.
A tal proposito, è bene dare un’occhiata a uno studio di Google DeepMind
Cosa succede quando l’Intelligenza Artificiale risponde in modo ambiguo, ovvero quando l’AI ha le allucinazioni?
Può capitare che l’AI abbia qualche piccola svista o che inventi di sana pianta le informazioni. In questo caso non c’è alcuna formula magica se non testare e ripetere il prompt.
Per esempio, può capitare di fornire un link per chiedere di “riassumere un articolo”. In molti casi la risposta potrebbe essere non soddisfacente. Con GPT-4 e GPT-4o il problema è possibile risolverlo ricordando che è nelle sue capacità attivare la funzione web browsing!
Inoltre, il fact-checking è fondamentale. Con Gemini, soprattutto, è utilissimo chiedere le fonti, così da andare a dare un’occhiata al contenuto dell’AI.
Ultimo consiglio è leggere i manuali d’uso per formulare prompt, come nel caso di Open AI per quanto riguarda ChatGPT. Può sembrare qualcosa di noioso, ma è molto importante farlo per costruire prompt efficaci.
Ora che hai compreso cos’è l’Intelligenza Artificiale, passiamo alle applicazioni del Prompt engineering o Prompt Designing: ma quindi cosa possiamo fare con l’AI e come possiamo utilizzarla al meglio nel nostro lavoro quotidiano?
Un po’ di esempi di AI con il digital marketing, brainstorming, copywriting, analisi dei dati, creatività e GPT personalizzati detti GPTs:
L’AI è un’opportunità per implementare task o per dare un piccolo booster alla creatività, soprattutto in fase di feedback. Ma, ancora, con i nostri prompt possiamo:
- creare mockup di asset visivi per una campagna di digital marketing o di comunicazione integrata basandoci, magari, sull’analisi dei dati raccolti dal sito web o social media;
- chiedere feedback in fase di brainstorming, per comprendere con un processo di reverse se i pensieri tornano;
- testare una storia o un racconto, proprio a livello di fabula, per valutare il filo logico non sempre scontato;
- Possiamo creare immagini con l’AI per poi personalizzarle al meglio con altri tool (Canva docet);
- valutare un’idea e un suo possibile sviluppo attraverso l’analisi degli scenari;
- pulire database per visualizzare i dati che contano, per esempio con la funzione Data Analysis di GPT-4 e GPT-4o e del nuovissimo GPT-01 preview;
- caricare i tuoi documenti direttamente da Google Drive per un’usabilità ancora più immediata
- creare visual chart con grafici in modo sinergico con ChatGPT e Google Colab, lo strumento che ti consente di lavorare con Python in modo intuitivo;
- analizzare i dati per ottimizzare il processo di elaborazione e web scraping durante una ricerca di mercato. Un esempio è la sentiment analysis a partire dalle recensioni di uno specifico prodotto o servizio. L’analisi dei dati con l’AI è un’opportunità per le PMI;
- creare una nostra AI con una knowledge base (in sostanza documenti e fonti), ovvero i nostri GPTs. Un esempio? I nostri Prompt’n’Play Assistant, gli assistenti di AI del nostro gioco di carte per imparare a dialogare e usare l’Intelligenza Artificiale. Puoi provare a dare un’occhiata alla versione base di Prompt’n’Play, alla versione premium di P’n’P con più di 100 sfide, o a Prompt’n’Play for Kids, una versione specificamente strutturata per la formazione edutech, per insegnanti, formatori e genitori.
- scrivere articoli per il Blog: con il nuovo modello GPT-40 with canvas e Claude project puoi davvero mettere in atto un processo collaborativo con l’Intelligenza Artificiale Generativa
L’approccio migliore da adottare quando sperimentiamo prompt è quello del bambino che esplora e impara giocando.
Rischi dell’Intelligenza Artificiale e opportunità. L’AI Generativa è un’alleata, ma la nostra supervisione è fondamentale
Il pensiero critico è la soft skill da implementare per non cadere nel tranello della scelta indotta dalle macchine: è qui che si cela il confine sottile tra libero arbitrio e libertà apparente. Per questo, ragionare sull’uso consapevole delle Intelligenze Artificiali è necessario, non rivoluzionario. La supervisione del nostro intelletto è una costante che non dovrà mai cadere nella tentazione dell’affidare totalmente cervello e anima a una macchina. Le implicazioni etiche e sociali sono emblematiche, soprattutto in questa fase delicata che tutto il Mondo sta vivendo. In Europa l’AI è regolamentata dall’apposito AI Act e su questo dedicheremo prossimamente un apposito spazio.
Il pluralismo dei dati è indispensabile per un’AI accessibile e inclusiva:
L’obiettivo dell’algoritmo definitivo – così come lo descrive Pedro Domingos nel suo libro “L’Algoritmo Definitivo” – è imparare tutto quello che è possibile sapere. E come impara? Dai dati. Quindi, la sfida sarà sempre più quella di non condizionare un algoritmo definitivo con deduzioni errate. Perché l’AI può sì prevedere il nesso tra eventi, ma non sempre la conclusione è logica.
Il pluralismo dei dati, così come nella vita offline, diventa l’elemento che può fare la differenza tra progresso e involuzione. Ecco perché è importante rendere accessibile a tutte e tutti questi strumenti, senza timori o preconcetti.
La creatività e l’immaginazione, del resto, sono talmente umane da renderne complessa l’imitazione a priori, perfino per l’algoritmo più astuto.
Cos’hAI detto? Intelligenza Artificiale? Scopri come funziona l’Intelligenza Artificiale giocando, ma sul serio! Dai un’occhiata a Prompt’n’Play, il nostro serious game per imparare a dialogare con l’Intelligenza Artificiale Generativa
Entra in Flowerista per accedere a contenuti di digital marketing gentili e non solo!
Digital Marketing Manager per Flowerista
Sono appassionata di Innovazione e Progresso. Amo la scrittura in tutte le sue forme, la creatività, i dati e l’uso consapevole dell’Intelligenza Artificiale. Mi piace immaginare che l’innovazione possa davvero concretizzarsi in progetti utili alle persone, proprio come accade qui, nel mondo Flowerista!