L’Intelligenza Artificiale è entrata nelle nostre vite non propriamente in punta di piedi. La sua capacità di progredire in fretta pare non consenta di prendere fiato, eppure l’AI generativa può diventare una valida alleata nel lavoro quotidiano, soprattutto nel marketing e nella formazione.

Onnipresente, ma non onnisciente, l’Intelligenza Artificiale guida le scelte non certo dal 2025, ma da molto prima. Ecco perché comprendere come orientarsi nell’uso di queste macchine è una competenza fondamentale per preservare quanto di più importante disponiamo come persone: l’immaginazione. 

Ma cos’è l’intelligenza artificiale , come funziona e quali sono le differenze tra Intelligenza Artificiale e AI generativa? Voilà un excursus per esplorare quest’affascinante e utile disciplina. E andiamo!

Cos’è l’Intelligenza Artificiale in parole semplici?

L’Intelligenza Artificiale (AI) è un ramo dell’informatica il cui obiettivo è riprodurre la complessità del meccanismo cognitivo umano. Il compito di queste macchine è proprio quello di apprendere e reagire agli input come farebbe il nostro cervello

L’Intelligenza Artificiale è sempre stata tra noi: un breve excursus storico

Ebbene sì: l’AI è tra noi da un bel po’ di tempo. Immagina una situazione del genere: cerchi qualcosa su Google. Stai per digitare la tua domanda  (o query, in gergo da digital marketer) sulla searchbar e, d’un tratto, inizi a vedere alcune parole che completano la tua frase. Ecco: questo è un esempio di algoritmo di raccomandazione, oracolo contemporaneo che orienta le scelte. Così, clicchi un risultato, poi magari sbirci un video su Youtube e dal tutorial che racconta come e perché creare un blog ottimizzato SEO ti ritrovi anche un contenuto a tema storie e reel di Instagram che ti osserva, in attesa del click. Oppure, potremmo iniziare a cercare esempi di Intelligenza Artificiale nel lavoro, per poi intercettare un altro contenuto su ChatGPT e altre app di AI da conoscere

Click dopo click, raccontiamo la nostra storia ad algoritmi di apprendimento che migliorano la nostra esperienza sul web. 

Un altro esempio? Il feed Esplora di Instagram! Fai una prova: aprilo e osserva i post. Se adorabili gattini e scoiattoli compongono il puzzle con altri contenuti a tema attualità, startup, innovazione e digital marketing, allora sappi che abbiamo molto in comune!

Gli algoritmi di raccomandazione si addestrano con la ridondanza: quanto più interagiamo sulle piattaforme come Meta o Google, tanto più acquisiscono informazioni sul nostro comportamento, gusti, preferenze e abitudini. 

Clicchiamo, dunque esistiamo. 

Come funziona l’Intelligenza Artificiale?

Ma facciamo chiarezza per capire come funziona l’AIMachine Learning, Deep Learning, LLM, NPL, Token e Transformer possono creare un po’ di confusione. La stessa Intelligenza Artificiale non è un unicum, ma esistono varie sfaccettature da conoscere. 

Cos’è il Machine Learning?

Il Machine Learning è un ramo dell’Intelligenza Artificiale, ovvero uno dei possibili meccanismi di funzionamento alla base dell’AI. La specificità del machine learning consiste nello sviluppo di algoritmi in grado di imparare autonomamente dall’analisi dei dati che possono essere strutturati ed etichettati.

E cos’è, invece, il deep learning?

Il deep learning è un ramo del machine learning che utilizza reti neurali artificiali per svolgere compiti complessi. Le reti neurali artificiali sono ispirate al funzionamento del cervello umano, quindi possono elaborare nuove informazioni a partire da input con determinati dati. Per esempio, è quello che accade quando chiediamo a Dall-E, il text-to-image di OpenAI, un’immagine di un gatto dagli occhi grandi. Quello che otteniamo sarà un gatto mai visto prima. Questo è possibile perché il funzionamento è quello del cervello umano, ovvero la capacità di elaborare pensieri a partire da esperienze pregresse “conservate” nella memoria con pacchetti di dati. Con 4o Image Generation assistiamo a un salto quantico per quanto riguarda la creazione di immagini: possiamo definire pattern stilistici e definire una coerenza del personaggio. 

un gatto al chiaro di luna su un tetto prodotto dall'intelligenza artificiale generativa ChatGPT

Cosa s’intende per Intelligenza Artificiale Generativa? I Large Language Model (LLM) funzionano con le reti neurali artificiali Transformer

L’Intelligenza Artificiale Generativa è quel particolare ramo dell’AI capace di creare ex novo contenuti a partire da input specifici. Ma com’è possibile?

Per comprendere appieno il meccanismo di funzionamento, vale la pena dare un’occhiata ai LLM – Large Language Model- modelli di apprendimento pazzeschi, nonchè un ramo avanzato del NLP – Natural Language Processing (NLP) – strumento che ci consente di dialogare con i sistemi informatici. Gli LLM sono in grado di comprendere, generare e interpretare il linguaggio umano. Proprio per questo, comprendono il contesto e le relazioni semantiche tra i token. 

La musa ispiratrice dei Large Language Model è il cervello umano, quindi stiamo parlando del modello del deep learning con un’ingegnosa applicazione di reti neurali concatenate predisposte all’apprendimento migliorativo progressivo. Tutto questo rende possibile la creazione di nuovi testi a partire da un input, ovvero un prompt. 

GPT-4 e GPT-4o (la o sta per OMNI) di OpenAI è un Large Language Model, così come lo è PaLM2 , l’LLM di Gemini Advanced e Ultra (ex Bard), ovvero l’AI generativa di Google. 

L’Intelligenza Artificiale Generativa è anche Conversazionale, ecco perché interagiamo con ChatGPT e Gemini con la conversazione, dunque con il linguaggio. 

Come Funziona l’Addestramento dei Large Language Model – Modelli linguistici di grandi dimensioni?

L’addestramento di modelli linguistici di grandi dimensioni (LLM) come GPT-4 si basa su tecniche di apprendimento automatico, tra cui:

  • Apprendimento supervisionato: l’IA impara da dati etichettati contenenti esempi di input e output corretti, come domande e risposte, o completamenti di frasi, per formulare risposte appropriate.
  • Apprendimento per rinforzo: l’IA affina le sue risposte grazie a un processo chiamato Reinforcement Learning with Human Feedback (RLHF), dove il feedback umano aiuta a migliorare la qualità delle risposte. Questa tecnica consente all’IA di prevedere quale token verrà dopo in una sequenza, permettendole di generare testo coeso e contestualmente rilevante.

Come funziona l’Intelligenza Artificiale Generativa?

L’Intelligenza Artificiale Generativa utilizza un processo complesso per comprendere un “prompt”, ovvero un’istruzione che fornisce all’IA le informazioni su che tipo di risposta elaborare sulla base di un modello predittivo probabilistico e non deterministico. Questo processo vede protagonisti due componenti chiave: token e Transformer.

I Transformer sono un tipo avanzato di rete neurale introdotto nel 2017, progettato per elaborare sequenze di dati, come il linguaggio naturale, in modo efficiente e preciso. Questo modello ha rivoluzionato il campo dell’intelligenza artificiale generativa, grazie alla capacità di cogliere relazioni complesse all’interno di grandi quantità di dati testuali, anche tra elementi molto distanti nella sequenza.

Il funzionamento dei Transformer si basa su tre passaggi chiave:

  1. Tokenizzazione: il testo in ingresso viene suddiviso in unità fondamentali chiamate token, che possono essere parole, sillabe o addirittura singoli caratteri. Ogni token rappresenta una porzione significativa del testo che sarà elaborata. Possiamo, dunque, immaginare il token come un’entità, un’untà di significato da poter identificare in uno specifico frame (o cornice), proprio come accade nell’analisi SEO!
  2. Word Embeddings e Positional Encoding: ogni token viene trasformato in una rappresentazione numerica densa chiamata embedding, che cattura le sue caratteristiche semantiche. Poiché il modello deve considerare anche la posizione dei token nella sequenza (il significato di una parola dipende spesso dalla sua posizione relativa), viene aggiunto un positional encoding che consente al modello di distinguere l’ordine dei token.
  3. Self-Attention: questa è la componente chiave che distingue i Transformer dai modelli precedenti. Il meccanismo di self-attention permette al modello di attribuire un diverso peso a ogni token in relazione agli altri, identificando così le parole più rilevanti per comprendere il contesto. Ad esempio, nella frase “Il gatto guarda il pesce”, il modello attribuirà più importanza alla relazione tra “gatto” e “pesce” rispetto ad altre combinazioni.

Dopo l’applicazione del self-attention, i dati vengono ulteriormente elaborati attraverso strati di reti neurali feedforward, producendo un output codificato che rappresenta l’intero significato della sequenza in ingresso.

Ruolo dei Transformer nell’AI generativa

Grazie alla loro architettura, i Transformer sono alla base dei modelli di linguaggio di grandi dimensioni (Large Language Models, LLM) come GPT. Questi modelli sono addestrati su enormi quantità di testo e sono in grado di generare contenuti coerenti e plausibili, completare frasi, tradurre lingue e rispondere a domande. La capacità di apprendere relazioni complesse all’interno dei dati ha permesso ai modelli basati sui Transformer di superare metodi preesistenti in numerosi compiti linguistici.

Perché si chiama Intelligenza Artificiale Generativa?

Parliamo di intelligenza artificiale generativa poiché questi modelli come GPT o Claude Sonnet non si limitano a classificare o analizzare dati esistenti, ma sono in grado di generare nuovi contenuti originali. A partire da un input (il prompt), creano testi, immagini o altri output che non esistevano precedentemente, basandosi sui pattern appresi durante l’addestramento. Questo processo è alla base di molte applicazioni creative e produttive, come la scrittura automatica di articoli, la creazione di opere d’arte digitali e la generazione di codice.

Distinzione tra agente, modello interno e algoritmo

È importante distinguere tra:

  • L’agente, cioè l’interfaccia con cui interagiamo (ad esempio, ChatGPT).
  • Il modello interno, che rappresenta le conoscenze apprese e utilizzate per generare risposte (ad esempio, GPT-3 o GPT-4).
  • L’algoritmo, cioè il Transformer, che elabora i dati e produce il modello interno partendo dall’addestramento su grandi dataset.

Questa distinzione aiuta a comprendere che il Transformer è l’architettura sottostante che consente la creazione del modello di linguaggio, mentre l’agente è il sistema con cui interagiamo direttamente.

L’introduzione dei Transformer ha segnato una svolta epocale nell’intelligenza artificiale generativa, permettendo di costruire modelli estremamente potenti in grado di svolgere compiti complessi, come la creazione di testi e immagini. Grazie al meccanismo di self-attention e all’uso di word embeddings, questi modelli riescono a comprendere il contesto linguistico e a generare output di alta qualità, avvicinandosi sempre di più a una forma di intelligenza artificiale versatile e creativa.

Un altro aspetto fondamentale è la capacità di trasferire la conoscenza appresa, ottimizzando così le risorse durante l’addestramento. In passato, era necessario etichettare manualmente enormi quantità di dati per l’apprendimento supervisionato, mentre i modelli basati su Transformer riescono a generalizzare meglio dai dati non etichettati. Questo rappresenta un cambiamento epocale, poiché riduce significativamente i costi e i tempi necessari per creare modelli accurati e performanti.

Come migliorare il training degli LLM – modelli di linguaggio – delle AI generative

L’Intelligenza Artificiale non è un unicum, bensì sono le diverse applicazioni e meccanismi che vanno ad alimentare l’ecosistema del futuro. Tuttavia, allenare un LLM come GPT-4o, Claude Sonnet 3.5 con le proprie risorse, non è sempre così semplice. 

Cos’è la RAG e perché è importante per gli LLM

L’acronimo RAG sta per Retrieval-Augumented Generation e consiste in un framework AI di recupero di informazione a partire da query in database strutturati oppure in knowledge base. In sostanza, quando costruiamo un nostro GPT o un Project con Claude, forniamo al Modello dati e documenti o siti web. Ma il problema che riscontriamo è che il recupero delle informazioni risulta farraginoso e non sempre allineato alle nostre aspettative. Questo è un problema, soprattutto quando un chatbot ha come scopo quello di dover dare risposte pertinenti in funzione di un certo tipo di dati. 

Ecco perché la RAG si rivela utile durante il training dei chatbot. Fondamentale è l’organizzazione della knowledge base con informazioni strutturate e organizzate, un po’ come per la SEO, per intenderci. Infatti, per allenare al meglio i nostri Prompt’n’Play Assistant, abbiamo dovuto organizzare la knowledge base con tassonomie e una gerarchia semantica precisa. I risultati sono notevolmente migliorati!

Cos’è Titans, la nuova rete neurale di Google Research che rivoluziona gli LLM

I modelli Titans rappresentano una nuova generazione di rete neurale per l’AI per l’elaborazione del linguaggio naturale e delle sequenze, progettati per superare i limiti dei Transformers tradizionali. L’architettura di Titans si basa su tre moduli principali:

  • Core: responsabile dell’elaborazione principale, utilizza un’attenzione con una finestra di contesto limitata, simile a una memoria a breve termine.
  • Memoria a lungo termine: agisce come una memoria neurale persistente, memorizzando il contesto passato.
  • Memoria persistente: un insieme di parametri indipendenti che codifica conoscenze specifiche per determinati compiti.

I modelli Titans hanno dimostrato prestazioni eccellenti in diverse applicazioni, come modellazione del linguaggio, ragionamento di buon senso, recupero di informazioni, previsione di serie temporali e persino modellazione del DNA. Una delle loro capacità più impressionanti è la gestione di finestre di contesto superiori a 2 milioni, mantenendo un’elevata accuratezza in compiti complessi come l’individuazione di “aghi nel pagliaio”.

Grazie alla combinazione di memoria a breve e lungo termine, Titans offre una maggiore espressività teorica rispetto ai Transformers, dimostrandosi estremamente efficace per compiti che richiedono una gestione avanzata delle sequenze.

Come usare l’Intelligenza Artificiale Generativa correttamente e al meglio? E cosa succede quando scriviamo un prompt per l’AI? Vediamo qualche esempio:

Quando un’AI generativa riceve un prompt, questo viene decodificato per creare ex novo un output. Facciamo un esempio con un testo.

Il processo di elaborazione di un prompt da parte dell’Intelligenza Artificiale può essere suddiviso in tre fasi:

  1. Tokenizzazione:

Il prompt viene scomposto in token. Ad esempio, il prompt “Scrivi una poesia sull’amore” potrebbe essere scomposto nei seguenti token:

  • “Scrivi”
  • “una”
  • “poesia”
  • “sull'”
  • “amore”
  1. Apprendimento:

I Transformer, analizzano i token per creare modelli di apprendimento. Questi modelli possono essere basati su diversi fattori, come la frequenza dei token, la loro posizione nel prompt e la loro relazione con altri token. Parliamo esattamente del processo raccontato qui sopra, ovvero quello del word embeddings e positional encoding e quello della self-attention. Hai presente l’esercizio del”fill in the gap” nella comprensione del testo? Più o meno funziona così!

  1. Generazione:

I Transformer considerano il contesto semantico, la posizione e attribuiscono un “peso” a ciascuna parola per determinare l’output, ovvero per generare una risposta al prompt che, in questo caso, sarà sottoforma di testo.

Applicazione pratica: facciamo un esperimento cercando di indossare gli occhiali di GPT per capire come funziona l’intelligenza artificiale:

Ecco come GPT interpreta il prompt “racconta gli LLM come se stessi parlando a un bambino di 10 anni”:

ChatGPT:

“Immagina i modelli di linguaggio di grandi dimensioni (LLM) come degli enormi libri magici che possono leggere e scrivere storie da soli. Ogni volta che parliamo con loro, riescono a capirci e a rispondere, quasi come se fossero dei vecchi amici che sanno un sacco di cose.

I neuroni artificiali dei Transformer sono un po’ come studenti appassionati e curiosi. Passano tutto il tempo a guardare foto, leggere libri, o ascoltare conversazioni per imparare nuove cose. Poi, con quello che hanno imparato, ci aiutano a fare un sacco di compiti difficili, rendendo le cose più facili e divertenti per noi.”

Una chicca davvero interessante da consultare è l’articolo interattivo del Financial Times per comprendere il meccanismo di funzionamento dell’Intelligenza Artificiale Generativa. 

come funziona l'Intelligenza artificiale generativa da un'infografica del Financial Times

Come usare l’Intelligenza Artificiale nel nostro quotidiano? E cosa chiedere all’AI? La risposta si chiama Prompt Engineering, o prompt design, ovvero l’arte di formulare richieste all’AI

A partire dal 2022, nella storia dell’AI cambia qualcosa: il solo click è un segnale superato. Iniziamo, così, a parlare con le macchine. Voilà l’intelligenza artificiale generativa conversazionale. Alla portata di tutte e tutti, se sai cosa chiedere.

Cos’è un prompt?

Un prompt è un input, un comando che diamo all’AI per ottenere un output, dunque una risposta. Un prompt è costituito da elementi costanti, quindi basta pensare al processo di formulazione di un quesito, proprio come se stessimo scrivendo ad una persona. Bisogna poi conisderare gli elementi variabili, ovvero competenza, contesto e chiarezza.

Come parlare con l’AI in modo corretto? Principi di creazione di prompt efficaci (e non perfetti) per l’AI come GPT e Gemini:

  • Prima regola: il prompt perfetto NON esiste;
  • Seconda regola: non esistono diktat, ma quello che può aiutare è un approccio alla sperimentazione. Fare Test è la chiave, proprio come accade nelle startup. 

Contesto, Competenza e Chiarezza sono le 3 C per iniziare una conversazione di qualità con ChatGPT, Gemini, Claude soprattutto per quel che riguarda il text-to-text,quindi per la scrittura di testi con l’AI,  il text-to-image per creare immagini con l’AI e il text-to-code, ovvero ottenere codice a partire da un prompt:

  • La Competenza: l’ingrediente fondamentale di qualsiasi prompt: quando ci approcciamo alla macchina dobbiamo avere in mente il percorso da proporle;
  • Il Contesto: essenziale per evitare ambiguità semantiche;
  • La Chiarezza: se l’autore o autrice del prompt non sa cosa vuole ottenere, nessun output di nessuna AI potrà risolvere il problema.
  • Specificità: scrivi prompt dettagliati, con paragrafi, grassetti. Dai istruzioni chiare: l’AI non può leggerti nella mente, nè è un motore di ricerca. Sì, è vero: la funzione di SearchGPT può apparire come un competitor di Google, ma occorre fare opportune riflessioni a riguardo. Un esempio? SearchGPT mostra i primi 10 risultati di Bing, spesso poco esaustivi e , soprattutto, a discapito degli editori e brand più piccoli. L’impatto di SearchGPT, piuttosto, lo si testa nel modo differente di intendere l’intento di ricerca con un mood molto più conversazionale.

Viva il Prompt Gentile: scrivere con gentilezza fa bene anche all’Intelligenza Artificiale

Ebbene sì: rivolgerci alle intelligenze artificiali con gentilezza ha innumerevoli benefici. 

  • Allena l’assertività, principio alla base della comunicazione inclusiva;
  • Migliora la qualità dell’output: rivolgerci con un tono gentile e cordiale non solo è sempre un ottimo esercizio, ma rende la risposta dell’AI più efficiente in termini della qualità della conversazione. Il compito di queste macchine è aiutarci. Anche laddove incorrano errori, è bene provare a riformulare il prompt in un modo diverso;
  • Implementa la memoria dell’AI: le macchine ricordano come interagiamo, il nostro tono di voce. 
  • Nel caso dei GPT Personalizzati con ChatGPT, la gentilezza nel modo di porsi è fondamentale proprio per migliorare l’impatto sociale dell’Intelligenza Artificiale garantendo una conformità del linguaggio per le persone tutte. 

A tal proposito, è bene dare un’occhiata a uno studio di Google DeepMind

Cosa succede quando l’Intelligenza Artificiale risponde in modo ambiguo, ovvero quando l’AI ha le allucinazioni?

Può capitare che l’AI abbia qualche piccola svista o che inventi di sana pianta le informazioni. In questo caso non c’è alcuna formula magica se non testare e ripetere il prompt. 

Per esempio, può capitare di fornire un link per chiedere di “riassumere un articolo”. In molti casi la risposta potrebbe essere non soddisfacente. Con GPT-4 e GPT-4o  il problema è possibile risolverlo ricordando che è nelle sue capacità attivare la funzione web browsing!

Inoltre, il fact-checking è fondamentale. Con Gemini, soprattutto, è utilissimo chiedere le fonti, così da andare a dare un’occhiata al contenuto dell’AI.  

Ultimo consiglio è leggere i manuali d’uso per formulare prompt, come nel caso di Open AI per quanto riguarda ChatGPT. Può sembrare qualcosa di noioso, ma è molto importante farlo per costruire prompt efficaci.

Ora che hai compreso cos’è l’Intelligenza Artificiale, passiamo alle applicazioni del Prompt engineering o Prompt Designing: ma quindi cosa possiamo fare con l’AI e come possiamo utilizzarla al meglio nel nostro lavoro quotidiano?

Un po’ di esempi di AI con il digital marketing, brainstorming, copywriting, analisi dei dati, creatività e GPT personalizzati detti GPTs:

L’AI è un’opportunità per implementare task o per dare un piccolo booster alla creatività, soprattutto in fase di feedback. Ma, ancora, con i nostri prompt possiamo: 

  • creare mockup di asset visivi per una campagna di digital marketing o di comunicazione integrata basandoci, magari, sull’analisi dei dati raccolti dal sito web o social media;
  • chiedere feedback in fase di brainstorming, per comprendere con un processo di reverse se i pensieri tornano;
  • testare una storia o un racconto, proprio a livello di fabula, per valutare il filo logico non sempre scontato;
  • Possiamo creare immagini con l’AI per poi personalizzarle al meglio con altri tool (Canva docet);
  • valutare un’idea e un suo possibile sviluppo attraverso l’analisi degli scenari;
  • pulire database per visualizzare i dati che contano, per esempio con la funzione Data Analysis di GPT-4 e GPT-4o e del nuovissimo GPT-01 preview;
  • caricare i tuoi documenti direttamente da Google Drive per un’usabilità ancora più immediata
  • creare visual chart con grafici in modo sinergico con ChatGPT e Google Colab, lo strumento che ti consente di lavorare con Python in modo intuitivo;
  • analizzare i dati per ottimizzare il processo di elaborazione e web scraping durante un’analisi di mercato. Un esempio è la sentiment analysis a partire dalle recensioni di uno specifico prodotto o servizio. L’analisi dei dati con l’AI è un’opportunità per le PMI;
  • creare una nostra AI con una knowledge base (in sostanza documenti e fonti), ovvero i nostri GPTs. Un esempio? I nostri Prompt’n’Play Assistant, gli assistenti di AI del nostro gioco di carte per imparare a dialogare e usare l’Intelligenza Artificiale. Puoi provare a dare un’occhiata alla versione base di Prompt’n’Play, alla versione premium di P’n’P con più di 100 sfide,  o a Prompt’n’Play for Kids, una versione specificamente strutturata per la formazione edutech, per insegnanti, formatori e genitori. 
  • scrivere articoli per il Blog: con il nuovo modello GPT-40 with canvas e Claude project puoi davvero mettere in atto un processo collaborativo con l’Intelligenza Artificiale Generativa

L’approccio migliore da adottare quando sperimentiamo prompt è quello del bambino che esplora e impara giocando

Rischi dell’Intelligenza Artificiale e opportunità. L’AI Generativa è un’alleata, ma la nostra supervisione è fondamentale

Il pensiero critico è la soft skill da implementare per non cadere nel tranello della scelta indotta dalle macchine: è qui che si cela il confine sottile tra libero arbitrio e libertà apparente. Per questo, ragionare sull’uso consapevole delle Intelligenze Artificiali è necessario, non rivoluzionario. La supervisione del nostro intelletto è una costante che non dovrà mai cadere nella tentazione dell’affidare totalmente cervello e anima a una macchina. Le implicazioni etiche e sociali sono emblematiche, soprattutto in questa fase delicata che tutto il Mondo sta vivendo. In Europa l’AI è regolamentata dall’apposito AI Act e su questo dedicheremo prossimamente un apposito spazio.

Il pluralismo dei dati è indispensabile per un’AI accessibile e inclusiva:

L’obiettivo dell’algoritmo definitivo – così come lo descrive Pedro Domingos nel suo libro “L’Algoritmo Definitivo” – è imparare tutto quello che è possibile sapere. E come impara? Dai dati. Quindi, la sfida sarà sempre più quella di non condizionare un algoritmo definitivo con deduzioni errate. Perché l’AI può sì prevedere il nesso tra eventi, ma non sempre la conclusione è logica. 

Il pluralismo dei dati, così come nella vita offline, diventa l’elemento che può fare la differenza tra progresso e involuzione. Ecco perché è importante rendere accessibile a tutte e tutti questi strumenti, senza timori o preconcetti. Queste considerazioni sono fondamentali per l’impatto dell’AI sul futuro del lavoro.

La creatività e l’immaginazione, del resto, sono talmente umane da renderne complessa l’imitazione a priori, perfino per l’algoritmo più astuto.

Cos’hAI detto? Intelligenza Artificiale? Scopri come funziona l’Intelligenza Artificiale giocando, ma sul serio! Dai un’occhiata a Prompt’n’Play, il nostro serious game per imparare a dialogare con l’Intelligenza Artificiale Generativa

Entra in Flowerista per accedere a contenuti di digital marketing gentili e non solo!

guida intelligenza artificiale di Flowerista