27 mai 2025
dalle 13:30 alle 15:00
Francesca Doneda
AI vs. Human Candidates: A Performance Comparison in Logic Questions
Questo studio esplora l鈥檌ntelligenza e la fallibilit脿 confrontando le prestazioni di esseri umani e intelligenze artificiali in test basati sulla logica. Poich茅 i test logici e psicometrici stanno diventando strumenti chiave per valutare le capacit脿 cognitive, questa ricerca si basa sull鈥檃pproccio comportamentale di Alan Turing per analizzarne l鈥檈fficacia. In particolare, esaminiamo un caso di studio utilizzando i dati di due edizioni della prova preselettiva della Scuola Nazionale dell鈥橝mministrazione, in cui candidati umani e sistemi di AI hanno risposto agli stessi quesiti logici.
La domanda centrale 猫: Cosa possiamo apprendere confrontando direttamente le prestazioni di esseri umani e AI sugli stessi problemi logici? Analizzando questi risultati, miriamo a comprendere meglio i punti di forza e le limitazioni di ciascun gruppo nella risoluzione logica di problemi, offrendo spunti sulle loro potenziali applicazioni e implicazioni etiche.
Biografia: Francesca Doneda 猫 dottoranda nel programma "La mente umana e le sue spiegazioni: linguaggio, cervello e ragionamento", offerto dall鈥橴niversit脿 degli Studi di Milano, IUSS di Pavia e Scuola Normale Superiore di Pisa. Fa parte del laboratorio LUCI (Logic, Uncertainty, Computation and Information) del Dipartimento di Filosofia dell鈥橴niversit脿 degli Studi di Milano.
I suoi interessi di ricerca includono lo sviluppo di modelli logici con impatto su tematiche sociali rilevanti: modelli di ragionamento simbolico per il rilevamento della disinformazione, valutazione dell鈥檃ffidabilit脿 delle fonti e strategie per analizzare l鈥檜so della logica nei processi di selezione della pubblica amministrazione italiana.
Giuseppe Primiero
From trust evaluation to trust preservation over copies for ML systems
(lavoro congiunto con Leonardo Ceragioli)
Una pratica comune nello sviluppo dei sistemi di apprendimento automatico riguarda l鈥檃ddestramento dello stesso modello su diversi set di dati, nonch茅 l鈥檜tilizzo degli stessi set (di addestramento e di test) per modelli di apprendimento differenti. Il primo caso 猫 una pratica auspicabile per identificare condizioni di addestramento di alta qualit脿 e prive di bias. Il secondo caso coincide con la ricerca di modelli ottimali su un dataset comune. Questi sistemi ottenuti in modi diversi sono spesso considerati simili a copie.
Nel contesto dell鈥橝I responsabile, una domanda legittima ma poco esplorata 猫 come verificare che l鈥檃ffidabilit脿 venga mantenuta attraverso queste copie. In questo lavoro introduciamo un calcolo per modellare e verificare interrogazioni probabilistiche complesse sui dati, e definiamo diverse nozioni di affidabilit脿, analizzando come si compongono tra loro e attraverso operazioni logiche. L鈥檕biettivo 猫 fornire uno strumento computazionale per verificare l鈥檃ffidabilit脿 di sistemi complessi ottenuti come copie da un originale di cui si conosce il comportamento.
Biografia: Giuseppe Primiero 猫 Professore di Logica presso il laboratorio LUCI (Logic, Uncertainty, Computation and Information) del Dipartimento di Filosofia dell鈥橴niversit脿 degli Studi di Milano. 脠 Direttore Scientifico del centro di ricerca PHILTECH, e Coordinatore del . Il Prof. Primiero si occupa di modellazione formale e verifica di sistemi multi-agente, con applicazioni all鈥橝I simbolica e sub-simbolica. I suoi strumenti preferiti sono i sistemi di dimostrazione, le logiche modali e le logiche computazionali.