LA-U dell'OLIVO
Novembre 26, 2024, 12:09:00 pm *
Benvenuto! Accedi o registrati.

Accesso con nome utente, password e durata della sessione
Notizie:
 
   Home   Guida Ricerca Agenda Accedi Registrati  
Pagine: [1]
  Stampa  
Autore Discussione: Intelligenza artificiale fra sistemi esperti e regolarità statistiche.  (Letto 923 volte)
Arlecchino
Global Moderator
Hero Member
*****
Scollegato Scollegato

Messaggi: 7.763


Mostra profilo
« inserito:: Dicembre 26, 2023, 07:59:27 pm »


Giulia Bocchio: «ti venero come sangue sale e grano»
Ovidio – Metamorfosi – Libro I

Quello che l’intelligenza aliena non può fare per noi
[Questo articolo è uscito nel n° 10 de “L’indice” (ottobre 2023) con il titolo: Intelligenza artificiale fra sistemi esperti e regolarità statistiche.]

Di Andrea Inglese
A partire dal novembre 2022, una curiosità dilagante ha portato milioni di persone in tutto il mondo a realizzare sul web un dialogo tête à tête con una di quelle entità che da almeno mezzo secolo popolano romanzi e film di fantascienza, ossia una macchina che esibisce lo stesso agio di Hal 9000, quando conversa pacificamente con gli astronauti del Discovery, in 2001. Odissea nello spazio di Kubrick. Prima che questa esperienza si traducesse in uno schietto entusiasmo per le sorti della collettività – in procinto di essere sollevate grazie agli indubitabili vantaggi dell’intelligenza artificiale – o che, al contrario, destasse svariate paure – riguardo alle enormi minacce che quest’ultima farebbe pesare sulle nostre vite –, il contatto diretto con ChatGPT ha prodotto qualcosa che ha a che fare innanzitutto con le emozioni e con la meraviglia in particolare. E se Aristotele aveva ragione, concependo quest’ultima come lo sprone originario della riflessione filosofica, allora tutti noi, dopo il nostro personale appuntamento con ChatGPT, abbiamo assunto, consapevolmente o meno, un’attitudine più meditativa nei confronti dell’intelligenza artificiale. Attitudine, però – come evidenzia sempre Aristotele nella Metafisica – che è costituita non solo da stupore, ma anche da dubbio, ossia dal riconoscimento “di non sapere”.
È solo uno degli svariati paradossi a cui ci confronta l’attuale macchina intelligente. Nel momento in cui esce dal laboratorio per prendere la parola davanti a noi, esibendo competenze enciclopediche e poliglotte, lascia emergere non solo gli abbaglianti raggi del progresso scientifico, ma anche una vasta e perturbante zona d’ombra. In genere gli esperti – che ci parlano da un luogo ambiguo, alla frontiera tra l’istituzione pubblica e l’azienda privata – non hanno naturalmente dubbi o sorprese, non filosofeggiano. Cercano soprattutto di persuaderci delle loro pragmatiche certezze: le nuove forme di IA sono disponibili sul mercato, e hanno un’indubitabile utilità ed efficacia, malgrado gli sconvolgimenti che finiranno per creare nel mondo del lavoro, delle istituzioni educative, della tutela del diritto d’autore o della privacy dei comuni cittadini. Nonostante la fiducia nelle tempeste distruttive di Schumpeter, le disinvolte risposte di ChatGPT suscitano tuttavia inquietudini e fantasie, tra cui quella del robot come nostro “doppio”, in grado forse di fagocitarci o soppiantarci una volta per tutte. Insomma, abbiamo ancora qualche remora prima di accogliere con schietto entusiasmo le conseguenze che questo livello inatteso di automazione introdurrà nelle nostre vite.
Uno specialista che non ha paura d’indugiare sul terreno della riflessione filosofica e di far fronte agli equivoci che popolano il nostro immaginario intorno alle macchine, è Nello Cristianini, professore di IA all’Università di Bath, nel Regno Unito, e autore di La scorciatoia, uscito per il Mulino nel 2023. Il libro di Cristianini ha grandi pregi, e nonostante la valanga di cose che si scrivono con giornalistico eccitamento sull’intelligenza artificiale, si qualifica come uno strumento di rara pertinenza e chiarezza, per cominciare a determinare i confini estremamente mossi di questa entità tecnologica. Uno dei tratti distintivi del suo stile è una certa pacatezza, che lo mette al riparo sia dal messianismo tecnologico oggi tornato in voga, sia dal catastrofismo aprioristico. Malgrado ciò l’autore non elude nessuna delle difficoltà e dei rischi rilevanti che l’IA produce nei vari ambiti dell’attività sociale, in cui è o potrebbe essere adoperata (marketing, banche e assicurazioni, istituzioni giuridiche, ecc.).
Su questi aspetti critici, del resto, vale la pena di ricordare almeno altri due studi recenti. Il primo, apparso dapprima in Francia (Seuil 2019) e poi in Italia (Feltrinelli 2020), è di Antonio A. Casilli, sociologo che insegna presso il dipartimento di ingegneria delle telecomunicazioni del Politecnico di Parigi. In Schiavi del clic. Perché lavoriamo tutti per il nuovo capitalismo, Casilli indaga quelle forme di lavoro in gran parte “invisibili” o “inconsapevoli”, che permettono l’esistenza e lo sviluppo delle macchine intelligenti, sfatando il mito di una progressiva obsolescenza dell’attività umana, soprattutto quella meno qualificata. La crescente automazione non rima con crescente disoccupazione, ma con sfruttamento e precarietà ancora più diffusi su scala planetaria. I grandi gruppi industriali digitali statunitensi, ma anche russi e cinesi, hanno bisogno di subappaltare, spesso nel Sud del mondo, un micro-lavoro sottopagato, ma indispensabile per moderare i contenuti delle piattaforme e addestrare gli algoritmi.
Uscito nel 2021 per il Mulino, Né intelligente né artificiale. Il lato oscuro dell’IA è un’inchiesta firmata dalla scrittrice australiana Kate Crawford, studiosa dell’impatto sociale dell’IA. Inutile dire che una tale disciplina non esiste, in quanto – come illustra il lavoro della Crawford – mobilita una serie di competenze pluridisciplinari e di ricerche pionieristiche che spaziano dalle enorme risorse energetiche necessarie per il funzionamento dei “data center” ai pregiudizi umani attraverso cui si costruiscono le griglie di classificazione dei dati. Crawford insiste su di un fatto tanto evidente, quanto tenacemente ignorato: al di là dei suoi costi sociali e ambientali, l’IA “acuisce asimmetrie di potere esistenti”, in quanto è uno strumento di sfruttamento, controllo e condizionamento sempre più presente nelle nostre vite, ma sul quale, come singoli cittadini, abbiamo pochissima presa. Se questa inedita condizione storica è di continuo occultata da un ideologico ottimismo, non saranno comunque condanne generiche a portare maggiori strumenti di consapevolezza e azione.
Quanto a Cristianini, per sfuggire agli effetti stordenti del “miracolo”, introduce un po’ di storia e chiarezza concettuale a monte, fornendo alcune necessarie nozioni di epistemologia, connesse con quel campo di esplorazione che, a partire dalla metà degli anni Cinquanta, è stato definito “intelligenza artificiale”. Prima di tutto, però, si premura di dissolvere la fantasia metafisica che tanto ci assilla: l’indubitabile comportamento intelligente delle macchine attuali non presuppone che “l’agente abbia un cervello, un linguaggio o una coscienza”. Inutile, quindi, prestargli buone o cattive intenzioni, o ingaggiare competizioni con esso. Indebolendo ulteriormente il nostro già precario antropocentrismo, Cristianini ci ricorda che l’intelligenza – adeguare strumenti e azioni a degli obiettivi in contesti in parte mutevoli – non è una prerogativa dei soli esseri umani: animali e piante già la possiedono. Dobbiamo allora riconoscere che gli agenti che ci raccomandano video o libri sulle nostre piattaforme, o i filtri anti-spam della nostra posta elettronica, manifestano sì un’intelligenza, ma non simile alla nostra; si tratta di un’intelligenza aliena, come quella che mettono in atto un formicaio o una lumaca, quando perseguono i loro obiettivi in modo efficace. Il punto non è solo che GPT-3 ha immagazzinato una quantità di testi “che richiederebbe oltre 600 anni per essere letta dal più veloce lettore umano”, ma che noi non abbiamo la capacità di comprendere e tracciare i suoi ragionamenti, le “rappresentazioni” che si fa del nostro mondo. Possiamo constatarne gli effetti, ed eventualmente correggerli. Conosciamo i risultati, ma non il modo attraverso cui sono stati ottenuti. Questa opacità è uno dei principali aspetti, che determina la nostra difficoltà “a trovare la giusta narrazione per questa ‘intelligenza aliena’, ormai parte delle nostre vite”.
Cristianini, in realtà, sceglie un filo narrativo principale, ed è quello che dà il titolo al libro. La scorciatoia di cui si parla, riguarda un cambio di paradigma, nel senso assegnatogli dal filosofo della scienza Thomas Kuhn. Nel corso di circa un trentennio si sperimentarono due modelli principali di ricerca nell’ambito dell’IA, quello riconducibile ai cosiddetti “Sistemi esperti”, sostenuti da Ed Feigenbaum, uno dei fondatori del dipartimento d’informatica dell’università di Stanford, e quello sviluppato da Frederick Jelinek, in seno al Continuous Speech Recognition Group di IBM, all’inizio degli anni Settanta. La supremazia tra i due modelli fu sancita nel primo decennio del nostro secolo dalle aziende operanti in rete, che ottennero più efficacia commerciale grazie all’utilizzo del modello di Jelinek. Tra di esse c’erano Amazon e Google. Il campo di prova era stato il rapporto dell’agente digitale con il linguaggio umano: riconoscimento del parlato e traduzione automatica. Il modello perdente, “basato sulle conoscenze”, scommetteva sulla possibilità d’implementare nella macchina il massimo numero di norme grammaticali e d’inferenza logica. Molto più efficace si dimostrò la “scorciatoia” operata da Jelinek: all’utilizzo di regole esplicite aveva sostituito l’identificazione di regolarità statistiche, attraverso il trattamento di un numero sempre più ampio di dati.
Amazon tra i primi sperimentò i vantaggi di un tale sistema. L’obiettivo estremo di Bezos era la realizzazione di una vetrina personalizzata per ogni cliente. Per fare questo, avrebbe dovuto disporre di una teoria che non esiste, quella relativa ai gusti dei suoi clienti. In principio, l’unico modo per avvicinarsi ad essa fu il coinvolgimento degli stessi utenti attraverso il riempimento di un questionario, sulla base del quale un gruppo di redattori di Amazon avrebbero proposto recensioni e raccomandazioni per futuri acquisti. Grazie alla “scorciatoia” fu poi creato “Amabot”, l’agente autonomo che coniugava algoritmi di personalizzazione e apprendimento automatico. Non importava farsi un’idea di cosa i clienti volevano o desideravano, bastava osservare quello che facevano, e compararlo con quanto avevano fatto altri clienti. “Amabot non era animato da regole esplicite, né da alcuna comprensione dei clienti o dei contenuti: il suo comportamento dipendeva da relazioni statistiche scoperte nel database delle transazioni passate.”
Tale principio sta alla base non solo di tutti i sistemi di raccomandazione, ma anche di quelli di predizione del comportamento umano o delle risposte fornite da ChatGPT alle domande indirizzategli dagli utenti. Nessuno di questi agenti intelligenti pretende di fornire una risposta certa o vera, in quanto si basa su previsioni che avranno nel migliore dei casi solo una buona probabilità di essere corrette. Ma il problema non riguarda solo i margini di errore presenti nelle prestazioni di tali agenti, ma anche la nostra possibilità di prevenirli e identificarli. Qui si apre il discorso non più esclusivamente epistemologico o tecnico di Cristianini, ma propriamente etico e politico.

Oggi ci troviamo in una situazione per certi versi assurda: come se alcuni giganti dell’industria automobilistica e delle infrastrutture stradali avessero rivoluzionato di punto in bianco la mobilità umana su larga scala, senza che ancora sia mai stato elaborato e applicato un codice della strada. Noi siamo perpetuamente in rete, e a contatto con agenti intelligenti che si nutrono delle nostre interazioni quotidiane con loro, senza che si sappia:
1) come essi funzionino e forniscano le loro prestazioni e
2) quale influenza essi possano avere sulle nostre decisioni autonome e sulla nostra salute mentale. Il primo problema esige che gli agenti intelligenti messi a diposizione dalle imprese siano “ispezionabili” (auditable), ossia controllabili da organismi terzi, nella loro costruzione. Il secondo, ancora più del primo, richiede la mobilitazione delle scienze sociali e naturali oltre che di quelle informatiche, per valutare l’impatto che l’esposizione a questi agenti produce sulla psicologia individuale e sulla società nel suo insieme.

Tutto questo è un lavoro che in larga parte va ancora fatto, e bisognerà farlo in corso d’opera, elaborando norme di sicurezza stradale, mentre le vetture già ci portano in giro a tutta velocità. D’altra parte, non saranno né le potenti vetture, né le strade ben asfaltate, a produrre di per sé l’indispensabile normativa della sicurezza stradale.

Da Andrea Inglese su Facebook 23 dicembre 2023
Registrato
Pagine: [1]
  Stampa  
 
Vai a:  

Powered by MySQL Powered by PHP Powered by SMF 1.1.21 | SMF © 2015, Simple Machines XHTML 1.0 valido! CSS valido!