Large Language Models tra diritto e filosofia: i limiti e le conseguenze delle informazioni sintetizzate

Large Language Models tra diritto e filosofia: i limiti e le conseguenze delle informazioni sintetizzate

Large Language Models tra diritto e filosofia: i limiti e le conseguenze delle informazioni sintetizzate

277 277 people viewed this event.

Il Dipartimento Scienze Umane e Sociali, Patrimonio Culturale (DSU) presenta il secondo di una serie di corsi di formazione organizzati dal Dipartimento.


Large Language Models tra diritto e filosofia: i limiti e le conseguenze delle informazioni sintetizzate

I large language models sono modelli di intelligenza artificiale in grado di generare testi plausibili e contestualmente rilevanti, per mezzo di un’attività che va oltre la semplice riproduzione di informazioni esistenti introducendo un elemento di novità definito, a seconda delle prospettive, come capacità di reasoning, abilità creatività ovvero originalità dei contenuti.

Qui offriamo una differente prospettiva che, grazie al metodo di indagine del tardo Wittgenstein, ci conduce ad affermare che i LLM non raggiungono una comprensione linguistica né realizzano una effettiva conversazione con le persone: l’idea di produrre un linguaggio genuino basato su relazioni statistiche tra parole non riesce a catturare un aspetto essenziale della grammatica del nostro linguaggio, ovvero la contraddizione e le sue implicazioni nel discorso.

Ciò nonostante, la singolarità (l’avvento di un’intelligenza superiore a quella umana) è già qui con noi. A dispetto delle apparenze essa non è dovuta ad un salto tecnologico ma ad una simulazione che la tecnologia produce, facendo leva sull’atteggiamento che abbiamo nei confronti dei nostri artefatti. La singolarità è nelle nostre menti, non nelle macchine, per cui dobbiamo chiederci quali conseguenze produce sulle nostre libertà.

Per mezzo di questa simulazione la macchina prende parte all’esercizio della libertà degli esseri umani. Non si ritiene, sia detto a evitare equivoci, che la macchina eserciti un diritto di libertà ma, egualmente all’esercizio della libertà di espressione dei vivi, ad essa deve corrispondere l’assunzione di doveri e responsabilità, non solo in termini di qualità, veridicità e correttezza, ma sulla base di nuovi modelli di autorialità connessi alla creazione di ‘informazioni sintetizzate’.

Relatori

Gianluca Fasano ed Emanuele Bottazzi Grifoni (CNR-ISTC).

Comitato organizzatore

Paola Avallone, Tommaso Ismaelli, Andrea Giovanni Nuzzolese.

Come partecipare

Il corso è online e aperto al pubblico previa registrazione attraverso questo modulo su Microsoft Forms.

Scarica la locandina in formato PDF.

Per iscriverti all'evento invia per email i tuoi dati stefano.carotenuto@cnr.it

Iscriviti usando webmail: Gmail / AOL / Yahoo / Outlook

 

Data e ora

14-05-2024 @ 10:00 to
14-05-2024 @ 12:00
 

Location

Online event
 

Categoria dell'evento