Può un modello linguistico comprendere? Questioni logico-filosofiche sulla semantica dei LLM

DISSUF, Aula I (Sassari)
09:00

L’intelligenza artificiale generativa attraverso i larghi modelli linguistici (LLM) è in grado di generare contenuti di livello pari a quello umano per originalità, compiutezza e coerenza logica nell’articolazione dei concetti. L’integrazione coi sistemi automatizzati di generazione di contenuto sta progressivamente cambiando le prassi della conoscenza e trasformando il modo in cui ci si interfaccia con il sapere e la logica ad esso sottostante.

La questione ci rimanda alla semantica dei linguaggi naturali, alla loro architettura e al modo in cui possa venire adeguatamente integrata questa nuova tecnologia. La conferenza si prefigge di indagare affinità e differenze tra i linguaggi naturali e automatizzati e comprendere il potenziale e i pericoli connessi al loro utilizzo.  

Programma

9:00 Introduzione e inizio dei lavori

9:05 Vittoria Dentella (UNIPV): LLM e grammatica

10:05 Chiara Manganini (UNIMI): Una teoria pragmatica degli errori dei LLM

11:05-11:30 Pausa

11:30 Guido Seddone (UNISS): A proposito delle competenze metalinguistiche dei LLM.

12:30 Giuseppe Primiero (UNIMI): Responsabilità funzionale in IA

13:30 Pausa pranzo

15 Federica Malfatti (Università di Innsbruck): Imparare dalla macchina? Riflessione sul ruolo dell’IA come mediatore epistemico

16 Silvano Zipoli Caiani (UNIFI): Le ragioni dell’IA: realtà o finzione

17 Pausa

17:30 Claudio Paolucci (UNIBO): Macchine dotate di linguaggio: il mito del significato.

18:30 Federica Porcheddu (UNISS): Grammatica del vincolo e archivio del potenziale.

 

Discussants: Fabio Bacchini, Marinella Cadoni, Stefano Caputo, Massimo Dell’Utri, Silvano Tagliagambe

Organizzatori: Ludovica Lorusso, Guido Seddone

Info: lorusso@uniss.it

 

Finanziamento dell’Unione Europea - Next Generation EU relativo al DM 737/2021 risorse 2012/22