Docente
|
NUMERICO TERESA
(programma)
Le origini e le questioni etiche e politiche dell'intelligenza artificiale Il corso illustra la nascita dell'idea di intelligenza artificiale in concomitanza con l'avvento dei primi calcolatori. Il termine viene coniato ufficialmente nel 1956, ma già negli anni Quaranta si parlava di macchine dotate di intelligenza. In particolare il test di Turing che ha suscitato interesse e molta letteratura è stato proposto da Alan Turing nel 1950. Molti anni sono passati da allora e molte cose sono cambiate nei metodi, nelle tecniche e nelle prospettive adottate per risolvere alcuni problemi considerati intelligenti.
Attualmente la presenza di tant soft bot, di tanti robot e di tanti strumenti artificiali che attraverso l'uso di algoritmi sembrano esprimere l'intelligenza ci costringono a ripensare il concetto di intelligenza umana e anche quello di macchine intelligenti. Il fenomeno più interessante è la tendenza dell'uomo ad attribuire alla macchina capacità intelligenti principalmente quando non sa come funzioni esattamente il dispositivo al quale si affida. Questa dimensione sociale nell'attribuizione di intelligenza era stata colta anche al principio da Alan Turing. Tuttavia tale tendenza rischia di produrre alcune conseguenze indesiderate per la società. Sappiamo infatti che non tutti padroneggiano l'innovazione, mentre un gruppo molto ristretto di progettisti e programmatori spesso tutti provenienti dallo stesso tipo di università e in larga misura bianchi lavorano e producono prototipi di intelligenza artificiale i cui obiettivi sono nelle mani di poche multinazionali. In particolare cercheremo di distinguere tra le tecniche basate sul reasoning, più centrali nelle prime fasi di sviluppo della disciplina, e quelle basate sul learning che attualemente hanno prodotto i risultati più rilevanti e clamorosi. Tali tecniche sono basate sulla datificazione di molte attività sociali e si propongono di fare previsioni su quello che accadrà in futuro a partire dalla serie pregressa di informazioni disponibili. Tra queste tecniche quelle che hanno ottenuto i risultati più notevoli sono quelle di deep learning, nelle quali gli strati di apprendimento sono molteplici e inaccessibili anche al programmatore stesso. La capacità di fare previsioni in contesti sociali anche sensibili come predictive policing, face recognition, clusterization, selezione del personale, selezione degli studenti per l'accesso universitario, premi assicurativi, accesso ai servizi del welfare, ecc. potrebbe dare luogo a self-fulfilling expectation, introducendo un carattere normativo che impone la previsione in contesti nei quali il futuro è incerto. L'introduzione della IA generativa crea ulteriori problemi relativi alla controllabilità della veridicità delle risposte ottenute dalle varie chat intelligenti del tipo di CHATGPT. Il rischio è avere una proliferazione di contenuti senza controllo che potrebbero rendere impossibile utilizzare contenuti mediali per validare la conoscenza e trasmetterla. Siamo di fronte a un cambiamento epocale che richiede una attenzione estrema alla tutela delle regole di convivenza pacifica basate su giustizia, equità e libertà che abbiamo condiviso nei paesi considerati democratici. Esistono quindi problemi politici, etici e sociali rispetto a come vogliamo applicare gli strumenti dell'innovazione. Non basta innovare, dobbiamo riuscire a costruire degli strumenti equi che servano a far crescere il benessere di tutti gli esseri umani e non solo di una ristretta minoranza. Il corso si propone di fornire gli strumenti per comprendere la dimensione politica, etica, sociale delle scelte tecnologiche intorno agli sviluppi dell'intelligenza artificiale
(testi)
Mitchell M. (2022) L'intelligenza artificiale, Einaudi, Torino. Alan Turing (1994) Intelligenza meccanica, Bollati boringhieri, Torino, pp. 88-157. Natale S. (2022) Macchine Ingannevoli, Einaudi, Torino.
|