Può un modello linguistico comprendere? Questioni logico-filosofiche sulla semantica dei LLM DISSUF, Aula I (Sassari) 23 Enero 2026 09:00 L’intelligenza artificiale generativa attraverso i larghi modelli linguistici (LLM) è in grado di generare contenuti di livello pari a quello umano per originalità, compiutezza e coerenza logica nell’articolazione dei concetti. L’integrazione coi sistemi automatizzati di generazione di contenuto sta progressivamente cambiando le prassi della conoscenza e trasformando il modo in cui ci si interfaccia con il sapere e la logica ad esso sottostante.La questione ci rimanda alla semantica dei linguaggi naturali, alla loro architettura e al modo in cui possa venire adeguatamente integrata questa nuova tecnologia. La conferenza si prefigge di indagare affinità e differenze tra i linguaggi naturali e automatizzati e comprendere il potenziale e i pericoli connessi al loro utilizzo. Locandina Programma 9:00 Introduzione e inizio dei lavori9:05 Vittoria Dentella (UNIPV): LLM e grammatica10:05 Chiara Manganini (UNIMI): Una teoria pragmatica degli errori dei LLM11:05-11:30 Pausa11:30 Guido Seddone (UNISS): A proposito delle competenze metalinguistiche dei LLM.12:30 Giuseppe Primiero (UNIMI): Responsabilità funzionale in IA13:30 Pausa pranzo15 Federica Malfatti (Università di Innsbruck): Imparare dalla macchina? Riflessione sul ruolo dell’IA come mediatore epistemico16 Silvano Zipoli Caiani (UNIFI): Le ragioni dell’IA: realtà o finzione17 Pausa17:30 Claudio Paolucci (UNIBO): Macchine dotate di linguaggio: il mito del significato.18:30 Federica Porcheddu (UNISS): Grammatica del vincolo e archivio del potenziale. Discussants: Fabio Bacchini, Marinella Cadoni, Stefano Caputo, Massimo Dell’Utri, Silvano TagliagambeOrganizzatori: Ludovica Lorusso, Guido SeddoneInfo: lorusso@uniss.it Finanziamento dell’Unione Europea - Next Generation EU relativo al DM 737/2021 risorse 2012/22