Come funziona l'intelligenza artificiale generativa, intervista a Dario Piga
AGI e GenAI: Dialogo sull'Intelligenza Artificiale - Blog Formazione continua
¾«¶«Ó°Òµ Image Default
Page Categories List
Un giro d’affari che promette di raggiungere i 110.8 miliardi entro il 2030. Uno strumento il cui impatto è stato dirompente, che minaccia di cambiare il paradigma lavorativo, pone nuove sfide ai legislatori e alle aziende, rischia di creare bolle finanziare, rischia di minare la buona informazione a causa della sua capacità di restituire output del tutto verosimili. Allo stesso tempo permette di aumentare notevolmente la produttività , ridurre le imprecisioni
Facciamo chiarezza
Per intelligenza artificiale generativa (GAI o anche: Gen A.I.) s’intende un insieme di tecnologie di machine learning capaci di creare contenuti in risposta a dei comandi (prompt) rapidamente.
Mentre l'Intelligenza Artificiale Generale (AGI) è un concetto teorico che rappresenta una macchina con capacità cognitive simili a quelle umane, in grado di comprendere, apprendere e applicare conoscenze in modo flessibile e autonomo a dipendenza dei contesti; l’intelligenza artificiale generativa, basandosi su dati e modelli del mondo reale, è capace in più di generare nuovi dati: immagini, testi, audio, video, codice informatico… A differenza delle intelligenze artificiali generali, gran parte dell'apprendimento della Gen A.I. è non supervisionato, anche se può includere tecniche di apprendimento supervisionato o semi-supervisionato, soprattutto nella fase di miglioramento.
Per usare una metafora, potremmo dire che l’intelligenza artificiale generale cerca di emulare un cervello umano già formato e specializzato per risolvere problemi specifici, mentre l’intelligenza artificiale generativa è più simile a un cervello di un neonato che, partendo da una base non formata, sviluppa una propria intelligenza e capacità creative assimilando dati, bilioni di dati, dal mondo reale.
​â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹Alla base di tutto ci sono i due principali ambiti di specializzazione dell’A.I generale: Il Machine learning e il Deep learning.
Per usare una metafora, potremmo dire che l’intelligenza artificiale generale cerca di emulare un cervello umano già formato e specializzato per risolvere problemi specifici, mentre l’intelligenza artificiale generativa è più simile a un cervello di un neonato che, partendo da una base non formata, sviluppa una propria intelligenza e capacità creative assimilando dati, bilioni di dati, dal mondo reale.
​â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹Alla base di tutto ci sono i due principali ambiti di specializzazione dell’A.I generale: Il Machine learning e il Deep learning.
¾«¶«Ó°Òµ Icon
Machine Learning
Focalizzato sullo sviluppo di algoritmi e tecniche che permettono alle macchine di apprendere dai dati.
¾«¶«Ó°Òµ Icon
Deep Learning
Una sottocategoria del machine learning, utilizza modelli computazionali ispirati al funzionamento del cervello umano, noti come reti neurali artificiali. Una rete neurale è un sistema adi elaborazione con nodi interconnessi, il cui output del primo costituisce l’input del secondo. Le reti neurali utilizzano algoritmi per riconoscere modelli e correlazioni nascoste nei dati, raggrupparli e classificarli.
Il punto di partenza per comprendere il funzionamento di un modello di intelligenza artificiale generativa è il cervello umano. Tutti i modelli di intelligenza artificiale generativa partono da una rete neurale artificiale, cioè una riproduzione del cervello e dei suoi neuroni che viene codificata all’interno dei software.
Secondo quanto ipotizzato da Hawkins nel 2004, il cervello umano, a livello neurologico, prevede continuamente ciò che accadrà , apprendendo dalle discrepanze tra le sue previsioni e la realtà a seguire.
È il caso di quando ci spaventiamo per un rumore improvviso, come l’esplosione di un palloncino, il nostro cervello interpreta immediatamente la situazione come pericolosa, mettendoci in allerta e facendoci percepire spavento. Quando realizziamo che non è successo nulla di grave, il cervello reinterpreta la realtà , facendoci tornare a uno stato di calma. L'intelligenza artificiale generativa funziona in modo analogo, apprendendo e adattandosi attraverso un processo di previsione e correzione.
Una rete neurale artificiale può essere paragonata a un foglio di calcolo tridimensionale, dove le celle corrispondono ai neuroni. Ogni cella/neurone contiene una formula che la collega alle altre celle della rete, similmente alle connessioni tra i neuroni nel cervello umano. Più che il numero di celle, è rilevante la quantità di connessioni tra di esse. Ogni cella ha un proprio coefficiente (peso o parametro) che definisce la connessione con le altre, risultando in un'equazione matematica.
I modelli di rete neurale funzionano grazie a unità chiamate token. Nei modelli linguistici di grandi dimensioni, una parola può avere un proprio token, mentre parole meno comuni possono essere rappresentate da insiemi di token.
​â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹
Per effettuare le sue previsioni, il modello inserisce un token in un livello particolare della sua pila di neuroni. Tornando all'analogia del foglio di calcolo tridimensionale, il token viene inserito in una delle celle a un determinato livello del nostro foglio di calcolo 3D. Quel livello elabora il token, e il primo neurone restituisce un risultato (output) che diventa il punto di partenza (input) per il secondo neurone. Questo processo continua, con ogni neurone che elabora l'output del neurone precedente, passando attraverso tutti i livelli e i neuroni presenti nella rete, fino a che l'output finale non viene generato. In fase di addestramento, i primi risultati e le prime previsioni non saranno accurati. Grazie a un algoritmo di retro propagazione, il modello analizza la correttezza degli output sulla base dei dati di addestramento, regolando e modificando i parametri (cioè i coefficienti delle formule all'interno delle celle). Dopo che questo processo è stato ripetuto per miliardi di token di testo, le previsioni diventano sempre più accurate. A questo punto, i modelli continuano a migliorare attraverso tecniche di apprendimento supervisionato.
Secondo quanto ipotizzato da Hawkins nel 2004, il cervello umano, a livello neurologico, prevede continuamente ciò che accadrà , apprendendo dalle discrepanze tra le sue previsioni e la realtà a seguire.
È il caso di quando ci spaventiamo per un rumore improvviso, come l’esplosione di un palloncino, il nostro cervello interpreta immediatamente la situazione come pericolosa, mettendoci in allerta e facendoci percepire spavento. Quando realizziamo che non è successo nulla di grave, il cervello reinterpreta la realtà , facendoci tornare a uno stato di calma. L'intelligenza artificiale generativa funziona in modo analogo, apprendendo e adattandosi attraverso un processo di previsione e correzione.
Una rete neurale artificiale può essere paragonata a un foglio di calcolo tridimensionale, dove le celle corrispondono ai neuroni. Ogni cella/neurone contiene una formula che la collega alle altre celle della rete, similmente alle connessioni tra i neuroni nel cervello umano. Più che il numero di celle, è rilevante la quantità di connessioni tra di esse. Ogni cella ha un proprio coefficiente (peso o parametro) che definisce la connessione con le altre, risultando in un'equazione matematica.
I modelli di rete neurale funzionano grazie a unità chiamate token. Nei modelli linguistici di grandi dimensioni, una parola può avere un proprio token, mentre parole meno comuni possono essere rappresentate da insiemi di token.
​â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹
Per effettuare le sue previsioni, il modello inserisce un token in un livello particolare della sua pila di neuroni. Tornando all'analogia del foglio di calcolo tridimensionale, il token viene inserito in una delle celle a un determinato livello del nostro foglio di calcolo 3D. Quel livello elabora il token, e il primo neurone restituisce un risultato (output) che diventa il punto di partenza (input) per il secondo neurone. Questo processo continua, con ogni neurone che elabora l'output del neurone precedente, passando attraverso tutti i livelli e i neuroni presenti nella rete, fino a che l'output finale non viene generato. In fase di addestramento, i primi risultati e le prime previsioni non saranno accurati. Grazie a un algoritmo di retro propagazione, il modello analizza la correttezza degli output sulla base dei dati di addestramento, regolando e modificando i parametri (cioè i coefficienti delle formule all'interno delle celle). Dopo che questo processo è stato ripetuto per miliardi di token di testo, le previsioni diventano sempre più accurate. A questo punto, i modelli continuano a migliorare attraverso tecniche di apprendimento supervisionato.
¾«¶«Ó°Òµ Image Focus
Abbiamo chiesto a Chat GPT di generare un'immagine basata sulla descrizione sopra
Come fa ad indovinare quello che voglio dire?
I modelli linguistici di grandi dimensioni (LLM) come ChatGPT riescono a elaborare e identificare relazioni complesse nel linguaggio naturale, riuscendo a dialogare con gli utenti attraverso la generazione di testo. Un'innovazione dovuta ai transformer...
Sebbene la spiegazione precedente si adatti alla maggior parte dei modelli, l’intelligenza artificiale generativa rappresenta un’ampia categoria di applicazioni basate su un pool sempre più ricco di variazioni della rete neurale. I modelli linguistici di grandi dimensioni (LLM) come ChatGPT riescono a elaborare e identificare relazioni complesse nel linguaggio naturale, riuscendo a dialogare con gli utenti attraverso la generazione di testo. In quest’ambito, la grande innovazione è dovuta ai “transformerâ€.... Non i giocattoli popolari negli ottanta, ma una classe di modelli di Deep learning introdotti nel 2017 nel paper intitolato: "Attention is All You Need". La principale innovazione dei transformer è il meccanismo di attenzione, che ha permesso di superare alcune delle limitazioni dei precedenti modelli di rete neurale.
​â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹
Come ci spiega Dario Piga (docente e ricercatore ¾«¶«Ó°Òµ, responsabile del CAS Intelligenza artificiale generativa al Dipartimento di Tecnologie Innovative) “ChatGPT funziona un po' come un grande predittore di parole. In maniera semplicistica, immaginatelo come un esperto che, basandosi su tutto ciò che ha letto fino ad ora, cerca di indovinare quale parola verrà dopo in una frase. Quando gli fai una domanda o gli chiedi di scrivere qualcosa, prima cerca di capire bene il contesto e cosa stai chiedendo, trasformando le tue parole in una forma numerica che può elaborare. Poi, un meccanismo di generazione di testo, che è fondamentalmente un modello statistico avanzato, calcola quale token pezzo di parola)è più probabile che venga dopo, dato il contesto. Se fino a questo momento il modello ha elaborato "Oggi è una bella", è molto probabile che suggerirà "giornata" come prosecuzione. Questo avviene grazie a miliardi di parametri che il modello ha imparato durante la sua "formazione", analizzando enormi quantità di testi umani disponibili online, permettendogli di imitare il linguaggio umano in modo convincenteâ€.
​â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹
Come ci spiega Dario Piga (docente e ricercatore ¾«¶«Ó°Òµ, responsabile del CAS Intelligenza artificiale generativa al Dipartimento di Tecnologie Innovative) “ChatGPT funziona un po' come un grande predittore di parole. In maniera semplicistica, immaginatelo come un esperto che, basandosi su tutto ciò che ha letto fino ad ora, cerca di indovinare quale parola verrà dopo in una frase. Quando gli fai una domanda o gli chiedi di scrivere qualcosa, prima cerca di capire bene il contesto e cosa stai chiedendo, trasformando le tue parole in una forma numerica che può elaborare. Poi, un meccanismo di generazione di testo, che è fondamentalmente un modello statistico avanzato, calcola quale token pezzo di parola)è più probabile che venga dopo, dato il contesto. Se fino a questo momento il modello ha elaborato "Oggi è una bella", è molto probabile che suggerirà "giornata" come prosecuzione. Questo avviene grazie a miliardi di parametri che il modello ha imparato durante la sua "formazione", analizzando enormi quantità di testi umani disponibili online, permettendogli di imitare il linguaggio umano in modo convincenteâ€.
​â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹
A partire da un comando (prompt) iniziale, i transformer convertono il testo in rappresentazioni numeriche. Il testo viene poi suddiviso in unità più piccole (token) che possono rappresentare parole, sottoparti di parole o caratteri, a seconda del modello. Ogni token viene quindi trasformato in un vettore numerico attraverso una tabella di embedding che assegna a ciascun token una rappresentazione numerica in uno spazio vettoriale. I vettori di parole con contesto simile avranno una distanza minore tra loro rispetto a parole che non condividono lo stesso contesto. Ogni token, in base al contesto, riceve un peso di rilevanza diverso rispetto agli altri (meccanismo di attenzione), questo permette di individuare le parole chiave all’interno del testo e di determinare quali parole sono più importanti per il contesto. Il token con probabilità più alta viene selezionato come parte dell’output e il processo continua più volte fino a generare il token finale (end of sequence token). In pratica, si tratta di un calcolo continuo che permette di predire a ogni step la parola successiva più probabile.
Ad esempio, la parola "gatto" avrà una distanza minima dalla parola "felino" nello spazio vettoriale, mentre avrà una distanza maggiore rispetto alla parola "tavola". In base alle parole successive, il modello è capace di escluderne alcune e individuare altre come più probabili. Se dopo la parola "gatto" troviamo la parola "regno", possiamo essere quasi certi che la parola successiva sarà "felini". Lo stesso principio è utilizzato dai motori di ricerca per restituire risultati ordinati agli utenti, basandosi sulle parole usate per effettuare ricerche su internet (query).
Ad esempio, la parola "gatto" avrà una distanza minima dalla parola "felino" nello spazio vettoriale, mentre avrà una distanza maggiore rispetto alla parola "tavola". In base alle parole successive, il modello è capace di escluderne alcune e individuare altre come più probabili. Se dopo la parola "gatto" troviamo la parola "regno", possiamo essere quasi certi che la parola successiva sarà "felini". Lo stesso principio è utilizzato dai motori di ricerca per restituire risultati ordinati agli utenti, basandosi sulle parole usate per effettuare ricerche su internet (query).
¾«¶«Ó°Òµ Image Focus
Chiediamo a Dario Piga di aiutarci a fare chiarezza sulla quantità di modelli esistenti:
​â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹
“Per quanto riguarda la quantità di modelli esistenti, ce ne sono moltissimi. ChatGPT stesso si basa su vari modelli di base, il più potente dei quali è GPT-4, alla base della versione più recente di ChatGPT, con circa 175 miliardi di parametri. È stato perfezionato anche grazie al feedback umano, che ha permesso di affinare il modello in base alle valutazioni ricevute per le risposte proposte. Esistono però altri modelli, come LLaMA di Meta, che al momento possono essere meno performanti di ChatGPT ma offrono vantaggi come essere "più leggeri", ovvero avere meno parametri, e soprattutto essere aperti. Ciò offre il grande vantaggio di permettere ai modelli di funzionare su macchine locali, garantendo così che le aziende che li utilizzano o li adattano ai propri scopi non debbano trasmettere informazioni ai server di OpenAI, proteggendo la privacy e la sicurezza dei dati. Oltre ai modelli linguistici, ci sono modelli che generano immagini, musica e, di recente, abbiamo visto SORA che produce video ad alta definizione. La ricerca si sta orientando anche verso altre direzioni, come modelli che generano sequenze di aminoacidi che trovano applicazione in ambiti specializzati come la biotecnologia e facilitano lo sviluppo di nuovi farmaci. Attualmente, si sta avanzando anche nello sviluppo di modelli multi-modali, capaci di integrare diversi tipi di dati (testo, immagini, audio, database, segnali elettrici, ecc.) per interazioni sempre più variegateâ€.
​â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹
“Per quanto riguarda la quantità di modelli esistenti, ce ne sono moltissimi. ChatGPT stesso si basa su vari modelli di base, il più potente dei quali è GPT-4, alla base della versione più recente di ChatGPT, con circa 175 miliardi di parametri. È stato perfezionato anche grazie al feedback umano, che ha permesso di affinare il modello in base alle valutazioni ricevute per le risposte proposte. Esistono però altri modelli, come LLaMA di Meta, che al momento possono essere meno performanti di ChatGPT ma offrono vantaggi come essere "più leggeri", ovvero avere meno parametri, e soprattutto essere aperti. Ciò offre il grande vantaggio di permettere ai modelli di funzionare su macchine locali, garantendo così che le aziende che li utilizzano o li adattano ai propri scopi non debbano trasmettere informazioni ai server di OpenAI, proteggendo la privacy e la sicurezza dei dati. Oltre ai modelli linguistici, ci sono modelli che generano immagini, musica e, di recente, abbiamo visto SORA che produce video ad alta definizione. La ricerca si sta orientando anche verso altre direzioni, come modelli che generano sequenze di aminoacidi che trovano applicazione in ambiti specializzati come la biotecnologia e facilitano lo sviluppo di nuovi farmaci. Attualmente, si sta avanzando anche nello sviluppo di modelli multi-modali, capaci di integrare diversi tipi di dati (testo, immagini, audio, database, segnali elettrici, ecc.) per interazioni sempre più variegateâ€.
Reti neurali
¾«¶«Ó°Òµ Icon
Recurrent neural network (RNN)
Le RNN hanno connessioni ricorrenti che permettono di mantenere informazioni di contesto attraverso le sequenze di dati.
Elaborano dati sequenziali utilizzando connessioni ricorrenti tra i neuroni, che consentono di mantenere e aggiornare informazioni di contesto durante l'elaborazione della sequenza, rendendole particolarmente adatte per compiti come il riconoscimento vocale, la traduzione automatica e l'analisi delle serie temporali.
Elaborano dati sequenziali utilizzando connessioni ricorrenti tra i neuroni, che consentono di mantenere e aggiornare informazioni di contesto durante l'elaborazione della sequenza, rendendole particolarmente adatte per compiti come il riconoscimento vocale, la traduzione automatica e l'analisi delle serie temporali.
¾«¶«Ó°Òµ Icon
Generative Adversarial Network (GAN)
Utilizzate per generare nuovi dati simili a quelli di un set di dati di addestramento.
Le GAN consistono in due reti neurali che competono l'una contro l'altra: un generatore che crea dati e un discriminatore cerca di distinguere tra dati reali (appartenenti al set d'addestramento) e falsi (prodotti in maniera randomica dal generatore). Il processo continua fino a che gli output prodotti dal generatore non risultano indistinguibili dai dati reali.
Le GAN consistono in due reti neurali che competono l'una contro l'altra: un generatore che crea dati e un discriminatore cerca di distinguere tra dati reali (appartenenti al set d'addestramento) e falsi (prodotti in maniera randomica dal generatore). Il processo continua fino a che gli output prodotti dal generatore non risultano indistinguibili dai dati reali.
¾«¶«Ó°Òµ Icon
Convolutional Neural Networks (CNN)
Utilizzate principalmente per il riconoscimento di immagini e l'elaborazione di dati spaziali.
Le CNN applicano filtri (o kernel) alle immagini di input. Ogni filtro è una piccola matrice che scorre sull'immagine (operazione di convoluzione), moltiplicando i valori dei pixel dell'immagine per i valori del filtro e sommando il risultato fino ad ottenere una mappa delle caratteristiche dell'immagine, che serve a identificare e rappresentare le caratteristiche visive rilevanti per compiti come la classificazione, il riconoscimento degli oggetti o l'analisi delle immagini.
Le CNN applicano filtri (o kernel) alle immagini di input. Ogni filtro è una piccola matrice che scorre sull'immagine (operazione di convoluzione), moltiplicando i valori dei pixel dell'immagine per i valori del filtro e sommando il risultato fino ad ottenere una mappa delle caratteristiche dell'immagine, che serve a identificare e rappresentare le caratteristiche visive rilevanti per compiti come la classificazione, il riconoscimento degli oggetti o l'analisi delle immagini.
Una questione di etica
Sebbene il funzionamento tecnico possa essere spiegato, è importante capire che è impossibile sapere esattamente come un'intelligenza artificiale generativa prenda le sue decisioni per fornire un output piuttosto che un altro.
Fakenews, violazioni della privacy, discriminazioni robotizzate a causa dei bias presenti nei dati d’addestramento, il timore della scomparsa di alcune professioni che potrebbero venir interamente sostituite dall’A.I, cattiva qualità dei contenuti, impatto sui giovani e l’apprendimento… I rischi sono molteplici e le potenziali conseguenze appaiono gravi.
D: La situazione è davvero così tragica?
R: “ La situazione non è tragica se si mantiene una piena consapevolezza dei limiti intrinseci della tecnologia e dei pericoli legati a un suo impiego inappropriato. Questo comporta la necessità di adottare misure concrete ed efficaci che vadano oltre la semplice prevenzione dell'uso improprio della tecnologia, affrontando proattivamente le sfide etiche, sociali e di privacy che ne derivano. Allo stesso tempo, è fondamentale non ostacolare la competitività delle nostre aziende, evitando restrizioni eccessive che potrebbero favorire imprese di altri paesi, quali Stati Uniti e Cina, a discapito delle aziende svizzere ed europeeâ€
D: Quali sono i rischi maggiori che si potrebbero correre con una diffusione non controllata e su larga scala di queste tecnologie?
R: Tra i principali rischi associati alla diffusione su larga scala dell’AI generariva, ne evidenzio alcuni, senza escludere l'importanza di altri non menzionati:
​â¶Ä‹â¶Ä‹
D: La situazione è davvero così tragica?
R: “ La situazione non è tragica se si mantiene una piena consapevolezza dei limiti intrinseci della tecnologia e dei pericoli legati a un suo impiego inappropriato. Questo comporta la necessità di adottare misure concrete ed efficaci che vadano oltre la semplice prevenzione dell'uso improprio della tecnologia, affrontando proattivamente le sfide etiche, sociali e di privacy che ne derivano. Allo stesso tempo, è fondamentale non ostacolare la competitività delle nostre aziende, evitando restrizioni eccessive che potrebbero favorire imprese di altri paesi, quali Stati Uniti e Cina, a discapito delle aziende svizzere ed europeeâ€
D: Quali sono i rischi maggiori che si potrebbero correre con una diffusione non controllata e su larga scala di queste tecnologie?
R: Tra i principali rischi associati alla diffusione su larga scala dell’AI generariva, ne evidenzio alcuni, senza escludere l'importanza di altri non menzionati:
​â¶Ä‹â¶Ä‹
Innacuratezza delle risposte
Inaccuratezze nelle risposte, che possono generare output talvolta imbarazzanti o non etici, influenzati da pregiudizi. È quindi essenziale mantenere l'intervento umano nel processo, affidando alle persone il compito critico e la responsabilità di analizzare e, se necessario, correggere le risposte fornite dai sistemi di intelligenza artificiale generativa. Ovviamente fa piu’ notizia una risposta palesemente sbagliata piuttosto che mille risposte corrette. Quello a cui bisogna stare attenti è che la risposta sbagliata non porti a situazioni dannose e pericolose per gli utenti e la società .
Fake News
La facilità nel creare notizie false o addirittura false testimonianze da usare in contesti giudiziari o per influenzare l'opinione pubblica. Ogni nuova tecnologia ha amplificato la diffusione di notizie false, come è accaduto in passato con la radio, la televisione e internet. È quindi fondamentale prevenire e regolamentare questi usi impropri della tecnologia.
Perdita capacità cognitive
Il rischio di perdere alcune capacità cognitive fondamentali, come l'elaborazione accurata di concetti e pensieri, dato che avremo sempre a disposizione un assistente che ci aiuta a esprimerci meglio e a formulare nuovi concetti. Ciò solleva interrogativi riguardo al futuro sistema educativo, che dovrebbe assicurarsi che le nuove generazioni, crescendo a contatto con queste tecnologie, le utilizzino in modo vantaggioso senza trascurare lo sviluppo di quelle capacità intellettuali che rimangono fondamentali nella formazione.
Transizione del lavoro
Con l'automazione che potrebbe sostituire alcune professioni. Questa evoluzione impone una riflessione sulla riallocazione della forza lavoro e l'aggiornamento delle competenze per sfruttare le nuove opportunità create dall'intelligenza artificiale.
​â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹Per le aziende, il rischio maggiore è perdere significativamente la propria competitività in caso di mancato investimento nell'intelligenza artificiale, sia nella formazione del personale che nello sviluppo di nuovi prodotti, servizi e processi basati sull'AI.​â¶Ä‹â¶Ä‹â€‹â¶Ä‹â¶Ä‹
D:Esiste un modo per garantire la qualità dei contenuti generati dall’Intelligenza artificiale?
​â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹
R: A livello tecnico, sono già disponibili tecniche per assicurare un'elevata qualità dei contenuti. Nel caso della generazione di video, è possibile integrare nei modelli principi fisici, in modo che le scene riprodotte rispettino sempre vincoli fisici e relazioni di causa-effetto.Tuttavia, il principio fondamentale per assicurare la qualità dei contenuti prodotti dall'AI è coinvolgere una persona o un esperto nella valutazione del contenuto generato dall'AI, prima del suo utilizzo. Un primo supporto all'umano potrebbe provenire dalla stessa AI che analizza le risposte e segnala potenziali limiti del contenuto generato (ad esempio, contenuti che potrebbero violare principi etici). Ma anche in questo scenario, la valutazione finale dovrebbe essere affidata all'umano.
​â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹
R: A livello tecnico, sono già disponibili tecniche per assicurare un'elevata qualità dei contenuti. Nel caso della generazione di video, è possibile integrare nei modelli principi fisici, in modo che le scene riprodotte rispettino sempre vincoli fisici e relazioni di causa-effetto.Tuttavia, il principio fondamentale per assicurare la qualità dei contenuti prodotti dall'AI è coinvolgere una persona o un esperto nella valutazione del contenuto generato dall'AI, prima del suo utilizzo. Un primo supporto all'umano potrebbe provenire dalla stessa AI che analizza le risposte e segnala potenziali limiti del contenuto generato (ad esempio, contenuti che potrebbero violare principi etici). Ma anche in questo scenario, la valutazione finale dovrebbe essere affidata all'umano.
I vantaggi
¾«¶«Ó°Òµ Image Focus
La situazione non è tragica se si mantiene una piena consapevolezza dei limiti e dei pericoli della tecnologia
Come ci dice Dario Piga: “In passato, l'automazione industriale ha significativamente trasformato e migliorato le attività lavorative fisiche, portando vantaggi principalmente nel settore manifatturiero. Analogamente, l'intelligenza artificiale generativa sta rivoluzionando i lavori di natura concettuale e creativa, influenzando in modo disruptivo settori come, solo a titolo di esempio, quelli bancario, del marketing, medico ed educativo. In tutti i settori l’uso dell’AI generativa aiuta ad automatizzare attività ripetitive, migliorando l’efficienza del personali e quindi la produttività . Un'analisi condotta da McKinsey nel 2023 ha stimato che l'AI generativa potrebbe generare un valore annuo per l'economia globale compreso tra 2,6 e 4,4 trilioni di dollari. L'intelligenza artificiale generativa puo’ anche migliorare l'accessibilità per le persone con disabilità o con difficoltà linguistiche, offrendo soluzioni innovative che vanno dalla creazione di contenuti adattivi che si adattino a esigenze specifiche dell’utente, a traduzioni linguistiche istantanee, sintesi vocale, assistenza virtuale tramite riconoscimento vocale, interpretazione della lingua dei segni,..."
​â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹
“Gli usi più comuniâ€, continua, “comprendono creazione di report e documentazione; generazione automatica di campagne di marketing personalizzate per diverse categorie di clienti; analisi di documenti legali per individuare possibili cavilli burocratici; supporto alla scrittura di codice per la generazione di software. Ma non c’è limite all’uso dell’AI generativa. Può generare nuove ricette o combinazioni di molecole per conferire nuovi sapori ai cibi, creare nuove fragranze per i profumi, nuovi materiali, etc. Data la capacità di generare video, ciò si integra con la possibilità di simulare la dinamica e l'evoluzione di sistemi fisici, portando allo sviluppo di sofisticati simulatori di eventi naturali. Ma non è neanche troppo futuristico immaginare una sua applicazione nello sviluppo di nuove tattiche di gioco in vari sport. Non c’è limite all’ingegno umano, e quindi non c’è limite alle applicazioni dell’AI generativaâ€
​â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹â¶Ä‹
“Gli usi più comuniâ€, continua, “comprendono creazione di report e documentazione; generazione automatica di campagne di marketing personalizzate per diverse categorie di clienti; analisi di documenti legali per individuare possibili cavilli burocratici; supporto alla scrittura di codice per la generazione di software. Ma non c’è limite all’uso dell’AI generativa. Può generare nuove ricette o combinazioni di molecole per conferire nuovi sapori ai cibi, creare nuove fragranze per i profumi, nuovi materiali, etc. Data la capacità di generare video, ciò si integra con la possibilità di simulare la dinamica e l'evoluzione di sistemi fisici, portando allo sviluppo di sofisticati simulatori di eventi naturali. Ma non è neanche troppo futuristico immaginare una sua applicazione nello sviluppo di nuove tattiche di gioco in vari sport. Non c’è limite all’ingegno umano, e quindi non c’è limite alle applicazioni dell’AI generativaâ€
Come le aziende usano l'Intelligenza artificiale generativa
¾«¶«Ó°Òµ Icon
Servizi finanziari
Stress test, gestione dei rischi, ottimizzazione dei processi per ridurre le perdite, individuazione di anomalie e rilevamento di attività sospette in tempo reale, miglioramento dei processi decisionali. Miglioramento della soddisfazione dei clienti. Proposta e indirizzamento di opportunità di investimento, supporto agli investitori nel trading e individuazione di possibili frodi.
¾«¶«Ó°Òµ Icon
Assicurazioni
Utilizzo di dati sintetici per determinare prezzi, riserve e modellazione attuariale rispettando la privacy. Ad esempio, attraverso l’uso di dati sintetici, possono valutare i risultati delle diverse strategie di prezzo senza usare informazioni personali sensibili dei clienti. Oppure valutare eventi a bassa probabilità (come calamità naturali o altre situazioni di difficile previsione).
¾«¶«Ó°Òµ Icon
Life Science e Salute
Forse il settore dove l’applicazione dell’intelligenza artificiale generativa alla data science risulta più promettente. Smart wearable e sensori possono individuare situazioni anomale e supportare le scelte di cura. In ambito farmaceutico, si stima che oltre il 30% dei nuovi farmaci e materiali saranno scoperti grazie a tecniche di intelligenza artificiale generativa.
¾«¶«Ó°Òµ Icon
Logistica e trasporti
Miglioramento della manutenzione, delle catene di approvvigionamento e dell'uso dell'energia. Individuazione di comportamenti ripetuti e pattern che aiutino a progettare nuove strade, migliorare l’efficienza del traffico o prevenire incidenti. Generazione di report, analisi basate su dati operativi, generazione di record dettagliati sulle prestazioni di un magazzino, fornendo raccomandazioni per attuare migliorie. Ottimizzazione della gestione del magazzino, previsione della domanda, gestione degli stock e riduzione degli sprechi.
¾«¶«Ó°Òµ Icon
Marketing & Sales
Comprensione del comportamento degli utenti e personalizzazione dell'esperienza utente. Proposte di nuovi servizi e prodotti, limitazione del tasso di abbandono. Esperienze di acquisto coinvolgenti, supply chain stabile e affidabile. Analisi dati, sentiment e altri indicatori per incentivare le vendite.
¾«¶«Ó°Òµ Icon
Gestione
Chatbot per rispondere più velocemente alle richieste dei cittadini, assistenza a quartieri meno serviti, analisi di dati, ridurre il traffico, migliorare la progettazione delle infrastrutture e l'allocazione delle risorse. Gestione dei servizi per il cittadino, sicurezza pubblica. A livello aziendale, gestione della knowledge base aziendale per automatizzare la creazione, l’organizzazione e l’aggiornamento delle informazioni aziendali.
Aggregatore Risorse
-
- Modalità ibrida
- 18 novembre 2024
- Serale
- Da definire
- 10.0 ECTS
- 120 ore-lezione
Le origini dell'intelligenza artificiale generativa
Le origini dell'intelligenza artificiale generativa sono più datate di quanto possa sembrare...
¾«¶«Ó°Òµ Image Focus
Anni '50 - '60: Le Origini del Machine Learning e l'Inizio dell'IA
Negli anni '50 viene teorizzato il concetto di machine learning. Pionieri come Arthur Samuel sviluppano programmi che permettono ai computer di "imparare" dalle esperienze passate.
Nel 1966: Viene sviluppato ELIZA al MIT, uno dei primi programmi al mondo a tentare il test di Turing. ELIZA si basava su insiemi di regole e modelli predefiniti senza capacità di interpretare i dati nel loro contesto.
Nel 1966: Viene sviluppato ELIZA al MIT, uno dei primi programmi al mondo a tentare il test di Turing. ELIZA si basava su insiemi di regole e modelli predefiniti senza capacità di interpretare i dati nel loro contesto.
​
¾«¶«Ó°Òµ Image Focus
1970 - 1990: Sviluppo di tecniche avanzate
Nel 1969 Viene definito il primo modello di Percettone (Perceptron), un neurone digitale capace di restituire un risultato binario in base alle informazioni in entrata
A cavallo fra il 1970 e il 1980 Innovazioni importanti includono reti semantiche, ontologie, reti neurali ricorrenti e altre tecniche avanzate. Questi sviluppi creano le basi per l'apprendimento automatico moderno
A fine del 1980 l'implementazione del machine learning inizia a prendere piede grazie ai progressi hardware e software. L'IA comincia a essere applicata in contesti più pratici e concreti.
A cavallo fra il 1970 e il 1980 Innovazioni importanti includono reti semantiche, ontologie, reti neurali ricorrenti e altre tecniche avanzate. Questi sviluppi creano le basi per l'apprendimento automatico moderno
A fine del 1980 l'implementazione del machine learning inizia a prendere piede grazie ai progressi hardware e software. L'IA comincia a essere applicata in contesti più pratici e concreti.
¾«¶«Ó°Òµ Image Focus
2010 - Presente: L'Era del Deep Learning
Nel 2010, l'introduzione di nuove tecniche capaci di imitare il funzionamento dei neuroni umani (reti neurali) segna l'inizio al deep learning (apprendimento profondo). Le reti neurali convoluzionali (CNN) e le reti neurali ricorrenti (RNN) diventano sempre più comuni .
Nel 2015 Vengono inventate le reti GAN (Generative Adversarial Networks). Queste reti neurali in competizione sono capaci di correggersi a vicenda nella generazione di nuovi dati, migliorando la qualità e la realismo dei contenuti generati .
L'introduzione dei Transformer risale al 2017 e rivoluziona il campo del deep learning permettendo una gestione più efficiente e accurata delle sequenze di dati grazie al meccanismo di attenzione, che consente al modello di focalizzarsi sulle parti rilevanti dei dati di input .
Nel 2018: OpenAI introduce il primo modello GPT (Generative Pre-trained Transformer), addestrato su una vasta quantità di dati ricavati da internet. Questo segna un punto di svolta nell'IA generativa, con la capacità di creare testi simili a quelli umani in modo coerente e contestuale
Nel 2015 Vengono inventate le reti GAN (Generative Adversarial Networks). Queste reti neurali in competizione sono capaci di correggersi a vicenda nella generazione di nuovi dati, migliorando la qualità e la realismo dei contenuti generati .
L'introduzione dei Transformer risale al 2017 e rivoluziona il campo del deep learning permettendo una gestione più efficiente e accurata delle sequenze di dati grazie al meccanismo di attenzione, che consente al modello di focalizzarsi sulle parti rilevanti dei dati di input .
Nel 2018: OpenAI introduce il primo modello GPT (Generative Pre-trained Transformer), addestrato su una vasta quantità di dati ricavati da internet. Questo segna un punto di svolta nell'IA generativa, con la capacità di creare testi simili a quelli umani in modo coerente e contestuale
*Le illustrazioni in questo articolo sono state realizzate con l'intelligenza artificiale
Intelligenza artificiale
Aggregatore Risorse
-
- Modalità ibrida
- 18 novembre 2024
- Serale
- Da definire
- 10.0 ECTS
- 120 ore-lezione
-
- Modalità blended
- 04 novembre 2024
- Serale
- Da definire
- 10.0 ECTS
- 120 ore-lezione
-
- Modalità blended
- 04 novembre 2024
- Serale
- Da definire
- 4.0 ECTS
- 44 ore-lezione
-
Intelligenza Artificiale e TRIZ: Un approccio scientifico per la risoluzione creativa dei problemi e l'Innovazione strutturata
- A distanza
- 17 ottobre 2024
- Serale
- Da definire
- 1.0 ECTS
- 12 ore-lezione
-
- Modalità da definire
- 26 marzo 2025
- Frequenza da definire
- Da definire
- 2.0 ECTS
- 24 ore-lezione
-
- A distanza
- 21 febbraio 2024
- Serale
- Da definire
- 1.0 ECTS
- 12 ore-lezione