02/23/2026 | News release | Distributed by Public on 02/23/2026 04:15
Lunedì 2 marzo la Prof.ssa Deborah Sulem, nuova Professoressa assistente presso la Facoltà di scienze informatiche dell'Università della Svizzera italiana, terrà la sua lezione inaugurale presso l'Auditorium del Campus Ovest di Lugano. Intitolata "Data Science: the good, the bad and the wild", la conferenza proporrà uno sguardo critico e articolato sull'evoluzione della data science, sul suo impatto sempre più pervasivo nella vita quotidiana e sulle responsabilità scientifiche ed etiche che ne derivano.
In vista dell'evento, abbiamo incontrato la Prof.ssa Sulem per approfondire il suo percorso accademico e i principali temi della sua ricerca. Di seguito l'intervista, realizzata dal Servizio comunicazione istituzionale dell'USI.
Professoressa Sulem, il titolo della lezione, "Data Science: the good, the bad and the wild", suggerisce una visione complessa e sfaccettata della disciplina: da dove nasce questa scelta e su cosa intende soffermarsi maggiormente?
"La Data Science è il pilastro su cui poggiano le tecnologie di Intelligenza Artificiale e, in questi anni, abbiamo visto quanto il suo impatto possa essere duplice. Per chi si occupa di ricerca accademica in questo campo, è affascinante osservare una progressione così rapida e il modo in cui la ricerca teorica nell'analisi dei dati e nel machine learning si traduca velocemente in applicazioni industriali su larga scala. Infatti, gli algoritmi DS sono spesso open source, dunque accessibili e implementabili da chiunque in innumerevoli settori: è questo che intendo con l'espressione 'in the wild' (allo stato brado). Tuttavia, vediamo ogni giorno come tali algoritmi possano essere distorti o utilizzati in modo improprio, consapevolmente o meno. Come ricercatori, abbiamo la responsabilità di evidenziare questi potenziali aspetti negativi e lavorare per neutralizzarli. Sebbene ci siano molti modi per affrontare la questione, la mia ricerca si concentra sull'equità statistica (statistical fairness), un tema che tratterò nella mia lezione".
La scienza dei dati si evolve a ritmi impressionanti e permea sempre più la nostra quotidianità: quali sono le trasformazioni più rilevanti oggi, anche al di fuori della comunità scientifica?
"L'avvento dei Large Language Models (LLM) ha indubbiamente trasformato il nostro modo di lavorare e la nostra vita privata - si pensi alla gestione dei compiti amministrativi o all'apprendimento. Tuttavia, credo che la rivoluzione della Computer Vision degli anni 2010 (la cosiddetta 'prima rivoluzione dell'IA') abbia avuto un impatto ancora più profondo, raggiungendo quasi ogni campo scientifico e ingegneristico: dalla robotica al settore medico, fino ai sistemi di sicurezza. Ad esempio, gli algoritmi di riconoscimento degli oggetti hanno permesso passi da gigante nei veicoli autonomi, nella diagnostica medica (come la radiologia), nei controlli di sicurezza (riconoscimento facciale) e in molte altre applicazioni. Sebbene la maggior parte di queste trasformazioni sia positiva, la tecnologia non è ancora del tutto matura. Esiste ancora un divario significativo tra l'applicazione pratica e la comprensione teorica di questi algoritmi: un vuoto che apre problemi di ricerca estremamente interessanti da risolvere".
Un punto centrale della sua ricerca riguarda i bias negli algoritmi predittivi applicati ai dati sensibili relativi alle persone: quali sono i rischi più sottovalutati e quali strumenti abbiamo per prevenirli?
"Un rischio concreto è quello di applicare algoritmi predittivi al di fuori del contesto per cui sono stati progettati, senza rendersi conto che le previsioni potrebbero non essere più affidabili o risultare distorte. La maggioranza degli algoritmi è disponibile su piattaforme open source o tramite pacchetti di codice e può essere implementata da chiunque (oggi ancora più facilmente grazie agli LLM). Il rischio è che questi algoritmi vengano utilizzati senza le dovute verifiche sulla loro adeguatezza, legittimità e impatto nel lungo periodo. Infatti, le procedure di validazione e i test sono essenziali per mitigare i rischi, ma prevenire errori o distorsioni che colpiscono specifiche fasce di popolazione richiede una ricerca approfondita. Prendiamo, ad esempio, un'auto a guida autonoma: la quantità di scenari problematici possibili in un arco di tempo pluriennale è enorme. Al momento, manchiamo ancora di una metodologia standard per eseguire controlli di validazione su modelli così complessi. E questi sono altri problemi di ricerca interessanti da risolvere!".
Quale ruolo possono e devono svolgere oggi le università e i data scientist nella promozione di un uso più responsabile, equo e consapevole degli algoritmi?
"È una sfida complessa: criticità simili emersero già con la diffusione di Internet e non sono mai state del tutto risolte. In un certo senso, credo che ci sarà sempre un 'lato oscuro' degli algoritmi. Questo, però, non rende meno cruciale l'educazione a un uso responsabile della Data Science. È fondamentale sensibilizzare l'opinione pubblica e insegnare ai nostri studenti a riconoscere le potenziali insidie e i bias dei modelli, abituandoli a un'analisi critica (ad esempio, chiedendosi: 'chi sarebbe penalizzato da una previsione errata?'). Dobbiamo inoltre definire collettivamente standard etici e promuovere soluzioni atte a rendere gli algoritmi il più equi e affidabili possibile, nel pieno rispetto di tali criteri".