Kant GPT: la filosofia del limite nell’epoca delle IA

Lo spartiacque nella storia della Filosofia

Il pensiero di Immanuel Kant è senz’altro una pietra miliare nella storia della Filosofia.

La filosofia kantiana è allo stesso tempo il prodotto di secoli di storia della filosofia e la chiave di volta per la comprensione dei giganti dei secoli successivi (come ad esempio Hegel).

«Sapere aude! Abbi il coraggio di servirti della tua propria conoscenza», questo è quanto detto da Kant nella sua celebre definizione di Illuminismo, pubblicata nel 1783 sulla rivista Berlinische Monatsschrift. 

Ciò che per l’uomo è “conoscenza”, scaturisce dall’operazione di unificazione di diverse categorie e forme pure attuata dall’unità mentale detta Io, presente nella mente di ogni uomo. L’attenta indagine sul metodo conoscitivo stesso è caratteristica in gran parte del pensiero di Kant.

L’epoca delle IA

Oggi siamo abituati a sentire parlare continuamente di Intelligenze Artificiali (IA). Alla luce del loro immenso successo, sembrerebbe che le IA siano attualmente lo strumento di conoscenza più potente in mano all’essere umano. Disporre di un software capace di reperire informazioni molto rapidamente da un’immensa banca dati è sicuramente di grande utilità.

La domanda sorge spontanea: le IA sarebbero uno strumento conoscitivo valido nella filosofia kantiana?

Il limite nel pensiero kantiano

Il “limite” che Kant pone alla conoscenza umana è sicuramente centrale per rispondere al nostro interrogativo.

Kant distingue tutto ciò che fa parte della realtà in fenomeno (ciò che si manifesta) e noumeno (la cosa in sé). Tramite il nostro Io possiamo analizzare in modo efficace il fenomeno, ma il noumeno è destinato a rimanere ignoto poiché totalmente inosservabile. L’uomo può analizzare soltanto ciò che riesce ad osservare, quindi il suo sguardo resta “superficiale”.

Le IA operano tramite algoritmi ideati dall’essere umano. Immaginate di provare a creare qualcosa che possa ragionare tramite un Io che gli è stato fornito da noi. Come possiamo pretendere che ciò ci conduca ad un maggiore livello di comprensione riguardo ciò che ci circonda? La convinzione che le IA possano essere una fonte esatta ed indispensabile di conoscenza è un’illusione che porta l’uomo a credere di potersi servire di un mezzo artificiale per comprendere la natura delle cose.

Gli altri strumenti in mano all’uomo

Va detto che le IA non sono l’unico strumento che l’uomo utilizza per comprendere ciò che lo circonda. Tutte le scienze “esatte”, le scienze “della natura” (Matematica, Fisica, Chimica ecc.) si sono rivelate un potente ed efficace strumento in mano all’uomo per comprendere ed analizzare ciò che avviene nella vita di tutti i giorni.

Anche le già citate scienze sono effettivamente fatte di calcoli ed approssimazioni basati su una fitta rete di convenzioni stabilite nel corso dei secoli. Ciò non le rende, però, meno valide per analizzare la natura.

La cosa essenziale è che l’uomo utilizzi questi strumenti nella totale consapevolezza di essi: non posso chiaramente affidarmi a calcoli di tipo matematico per rispondere a domande di tipo esistenziale. Come per ogni strumento, rendere la Scienza l’unica entità in cui si ripone una fede cieca si potrebbe rivelare un errore madornale.

Il punto di incontro

Proprio come Kant ha posto ogni cosa sotto giudizio presso il tribunale della ragione, anche noi dobbiamo essere capaci di utilizzare nel modo giusto ogni nostro strumento.

Arricchire la propria conoscenza nozionistica tramite le IA può essere un grande aiuto. Il nostro compito è quello di approfondire tali nozioni, ragionarci su, interpretarle e metterci del nostro. Rendere “soggettive” le nozioni acquisite tramite lo studio e la lettura è fondamentale per evitare un mondo in cui tutto è monotono.

Non possiamo monopolizzare il sapere riponendo ogni nostra fiducia nelle IA, possiamo però utilizzarle per arricchire le nostre conoscenze di base da approfondire successivamente.

In conclusione, sarebbe proprio utile, al giorno d’oggi, avere un KantGPT che possa effettuare una nuova Critica della ragion pura riguardante i metodi conoscitivi delle IA.

Il punto debole delle IA

Recenti analisi hanno dimostrato come alcuni semplici quesiti matematici abbiano ricevuto risposte differenti dalla famosa Intelligenza Artificiale (IA) ChatGPT, mettendo in discussione la sua affidabilità. La famosa AI sviluppata da OpenAI (società no-profit fondata da Elon Musk e Sam Altman) è stata sottoposta a test per analizzare l’accuratezza delle sue risposte.

I risultati hanno dimostrato come lo scorso marzo 2023, la 4° versione di ChatGPT mostrava di individuare i numeri primi con un’accuratezza del 97,6%, mentre a giugno questo valore è sceso del 2,4%.

Come funziona ChatGPT

Questo 2023 ha visto l’arrivo di una versione molto potente e open source (accessibile a tutti) di una innovativa intelligenza artificiale, ChatGPT, giunto all’aggiornamento 3.5. Da questa piattaforma web è possibile porre domande in una normale chat dove il nostro interlocutore sarà una IA. Questa ci potrà rispondere circa tutto quello che è presente nell’internet. Infatti, i dati prelevati dal sistema sono il frutto di un incrocio di tutte le informazioni presenti nella rete informatica più grande al mondo. Questo permette di ottenere infinite informazioni da una semplice chat di comunicazione, riassunte in modo sistematico, semplice e compatto. Poiché il funzionamento delle Intelligenze Artificiali prevede un continuo Apprendimento (Training), esse sono soggette a continua evoluzione (o anche il contrario) in funzione dei dati ottenuti.

La fragilità delle IA

Le intelligenze artificiali si basano sulla euristica. Il campo dell’euristica consiste nell’apprendimento dai risultati ottenuti da test e fatti avvenuti, in pratica mettendo il metodo scientifico. Su questa base ogni evento che si sussegue durante le conversazioni e le ricerche su chatGPT, portano a nuove informazioni e sovrascrittura di alcune vecchie affermazioni memorizzate nel sistema stesso di chatGPT. Quindi è probabile che informazioni errate immesse dagli utenti o nell’internet stesso possano modificare le informazioni ottenuti dal training dell’IA.

Aspetti a confronto tra decisioni euristiche e ragionamento complesso tipico della mente umana. Fonte: symplypsycology

Perché OpenAI ci tiene al suo progetto

Le capacità del sistema ChatGPT permettono a programmatori – ma anche ad altri professionisti – di basare il proprio lavoro su queste tecnologie, poiché rendono più efficiente la produttività sia in termini di tempo che di energie. Questo permette alla società OpenAI (casa sviluppatrice di ChatGPT) di rendere il suo servizio a pagamento per vari scopi e applicazioni. Pertanto sarà fondamentale per OpenAI lavorare su questi aspetti che rendono proprio servizio così “aleatorio”, altrimenti intere aziende potrebbero subire ingenti danni.

Fonti

Salvatore Donato

 

Geoffrey Hinton lascia Google. Una scelta “per poter parlare dei pericoli” dell’IA

Non conosciamo ancora i limiti d’azione dell’intelligenza artificiale. Meglio, ne conosciamo quelli attuali, ma dovremmo preoccuparci che non siano definitivi. Torniamo sull’argomento dopo qualche settimana per approfondirlo in seguito a un’importante notizia.

Geoffrey Hinton, il “padrino dell’IA”, ha scelto di lasciare le fila di Google. Il motivo? «Per poter parlare liberamente dei pericoli» dell’intelligenza artificiale. Pericoli che lui stesso si è pentito di aver creato.

Chi è Geoffrey Hinton? Perché sarebbe il “Padrino dell’IA”?

Geoffrey Hilton, 75 anni, è un informatico britannico naturalizzato canadese. È noto per i suoi contributi di ricerca sullo sviluppo dell’apprendimento profondo, per cui nel 2018, insieme a Yoshua Bengio e Yann LeCu, ha ricevuto il Premio Turing.

Grazie al suo lavoro pionieristico sulle reti neurali ha modellato i sistemi di intelligenza artificiale che alimentano molti dei prodotti odierni. Insegna all’Università di Toronto e ha lavorato part-time presso Google per un decennio, operando particolarmente nell’elaborazione dell’IA del grande motore di ricerca.

Oggi, come già scritto, ha scelto di ritirarsi da quest’ultima mansione, nutrendo preoccupazione per la tecnologia e per il suo progresso.

Geoffrey Hinton
Geoffrey Hinton. Fonte: Wikimedia Commons

La nuova missione di Hinton: informare, prevenire, proteggere

Il potenziale umano è finito, lo impongono la nostra anatomia e la nostra fisiologia. Per questo l’uomo, bramando maggiori facoltà (matematiche, logiche, etc.), sfrutta le macchine, e i sistemi informatici, come prolungamenti del proprio corpo. Così in qualche modo vivifica la parte aggiunta, dotandola di una propria “umanità”, maturando il rischio che diventi autonoma, unica, incontrollabile. E qui si schiude il dubbio etico-pragmatico: c’è un punto in cui dovremmo accontentarci e fermarci?

Secondo Hinton sì. E il punto sarebbe solo da identificare, dopo che lui, e gli altri esperti del tema come lui, avranno chiarito cosa già si può chiarire. In ciò consisterebbe la sua nuova missione: costruire una nuova consapevolezza sulle minacce dell’IA per riadattarci nel mondo.

Il futuro della tecnologia: l’entità più spaventosa e i rischi peggiori

Riportano le informazioni Il Corriere della Sera e l’Ansa.

L’informatico, dopo la notizia del suo addio a Google, ha subito fatto scudo sull’azienda. Ha discolpato il colosso da ogni possibile colpa scrivendo su Twitter che «Google ha agito in modo responsabile».

Diversamente, per sé stesso ha deciso di fare una parziale mea culpa. Ai microfoni del New York Times, parlando del progresso tecnologico a lui accreditato, ha infatti dichiarato: «Se non l’avessi fatto io, l’avrebbe fatto qualcun altro». Salvo poi aggiungere:

Se siete diventati dipendenti dai like è colpa mia: sappiate che ho contribuito a crearli. Se mentre navigate in rete e parlate di un oggetto venite bombardati dalla pubblicità su quella cosa, prendetevela con me: vorrei non aver sviluppato quelle tecniche di microtargeting.

In un altro momento, alla Bbc ha spiegato qual è oggi l’entità informatica più spaventosa e perché dovremmo temere questa e altre del suo tipo:

In questo momento, quello che stiamo vedendo è che cose come GPT-4 oscurano una persona nella quantità di conoscenza generale che ha e la oscura di gran lunga. In termini di ragionamento, non è così buono, ma fa già un semplice ragionamento. E dato il ritmo dei progressi, ci aspettiamo che le cose migliorino abbastanza velocemente. Quindi dobbiamo preoccuparcene.

Infine, ragionando sui valori negativi dell’intelligenza artificiale ha identificato i due rischi peggiori da essa provenienti:

È quasi impossibile individuare e neutralizzare gli “attori maligni” che la useranno. E potrebbe prendere decisioni non previste.

Gabriele Nostro

Machine learning: come nasce “l’intelligenza”

Vi siete mai chiesti quale sia il meccanismo insito nell’apprendimento? Cosa rende gli esseri umani, gli animali e alcune piante in grado di imparare? Una questione quantomeno spinosa, che si inasprisce ancor più se pensiamo che per rispondere è necessario prima definire il concetto stesso di apprendimento. E badate, è un Problema tutt’altro che semplice, al centro di discussioni di carattere filosofico, metafisico e scientifico da secoli.

Cos’è l’apprendimento

Sarebbe lecito in prima battuta vedere l’apprendimento come la capacità di reagire in modo diverso, rispetto al passato, a determinati stimoli. Di mutare, quindi, il modo con cui ci interfacciamo con la realtà.
Pensiamo a un predatore che impara a cacciare: sta reagendo a uno stimolo (la presenza della preda) in modo diverso rispetto a prima. Anche un bambino che impara a leggere sta relazionandosi alle lettere in un modo nuovo. E’ evidente che un approccio del genere non è in grado di esaurire completamente la questione ma è sufficientemente “potente” da rendere possibile una prima formalizzazione della faccenda.

Fu proprio questo l’aspetto che non sfuggì ad Arthur Lee Samuel, considerato il pioniere dell’intelligenza artificiale. Infatti, è su tale presupposto che oggi si fonda il machine learning, la disciplina che si occupa di insegnare alle macchine come imparare.
Un algoritmo classico non è altro che una serie di operazioni che un PC esegue e che qualcuno deve implementare. Il machine learning supera questo scoglio, servendosi di un algoritmo in grado di generarne degli altri, per poi modificarli e ri-assemblarli, così da renderli in grado di fronteggiare circostanze sempre diverse. Il ML, infatti, può gestire situazioni molto complesse, tutte riconducibili al problema di natura strettamente dicotomica di riconoscere due elementi distinti, per esempio un uomo da una donna, un cane da un gatto o un cavallo da un catamarano.

Come si insegna a un pc?

fonte: www.iberdrola.com

Se vi state chiedendo come un computer possa imparare a farlo, provate a ricordare come ci siete riusciti voi. Qualcuno deve aver puntato un dito contro un uomo, un gatto, un catamarano e contemporaneamente pronunciato le rispettive parole.

Per capire meglio, immaginiamo di dare a una macchina dei numeri che descrivano un uomo veicolando informazioni riguardo la forma del viso. Noi vogliamo che ogni volta che l’algoritmo si imbatte in valori simili dia 0. Per imparare a farlo, la macchina avvia i numeri a una sorta di percorso, che li modifica secondo leggi ben precise, e ne restituisce un valore fra 0 e 1. Questa sorta di catena di montaggio è strutturata in modo tale che 2 input numerici iniziali simili restituiscano valori finali simili. Dopodiché, a seconda di quanto il valore risultante sia vicino a 0, la struttura stessa del percorso viene modificata insieme alle leggi che la caratterizzano.
Le modifiche apportate saranno tali che la prossima volta che la macchina incontrerà “un uomo” risponderà con un valore finale più spostato verso lo zero.

In altre parole, ogni uomo è individuato da parametri numerici paragonabili quantitativamente a quelli di un altro uomo, ma distanti da quelli di una donna. Il percorso viene tarato in modo che con una classe di parametri esso restituisca 0, mentre con un’altra (quella che identifica una donna) restituisca 1.

Differenze geometriche quantificabili tra il viso di una donna e quello di un uomo. Fonte https://design.tutsplus.com

Infinite applicazioni

Il ML esprime tutto il suo potenziale creando un’ “intelligenza” dal nulla, in maniera del tutto artificiale. Ora, nell’immaginario collettivo, queste parole portano alla mente un insieme di sensazioni per lo più negative. Pensiamo al freddo metallo dei Terminator, alle profonde crisi esistenziali dei protagonisti dei romanzi di Philip K. Dick, fino alle angoscianti puntate di Black Mirror.

La realtà purtroppo è meno eccitante di cosi. Molto più modestamente, le intelligenze artificiali (IA) trovano applicazioni nei campi in cui è necessario elaborare un’enorme quantità di dati con un’atteggiamento che coniughi lo zelo di una macchina e la flessibilità mentale di un umano. I più noti esempi sono le IA sviluppate da Google, che ottimizzano la nostra esperienza sui motori di ricerca.  All’avanguardia quelle sviluppate da Naughty Dog per rendere l’interazione con i personaggi dei loro videogame più coinvolgente.

Istantanea della fase di progettazione di The Last Of Us 2, i suoi personaggi sono animati da un’avanzatissima intelligenza artificiali che li rende in grado di sfruttare l’ambiente che li circonda proprio come farebbe un essere umano. Fonte: www.assistivetechnologyblog.com

Innumerevoli sono poi le applicazioni in campo medico. Che ci crediate o no, anche le IA hanno avuto una parte, seppur marginale, nell’emergenza che stiamo vivendo. Il contact tracing, il tentativo di sviluppare vaccini, il recupero e l’elaborazione dei dati necessari alla modellizzazione della diffusione del virus, sono tutte applicazioni del machine learning, seppur migliorabili.

Ad ogni modo, questo strumento ha tutte le carte in regola per essere addestrato a gestire situazioni altrettanto complesse con molta più efficacia. Secondo le previsioni dei maggiori esperti del campo, già in un futuro prossimo potrebbe rivelarsi un alleato indispensabile per l’amministrazione di risorse fisiche e non solo.

Estratto del primo adattamento cinematografico de “il cacciatore di androidi” romanzo di Philip K. Dick ambientato in un 1992 distopico che narra le vicende di androidi ribelli. fonte: www.tomshw.it

Il bue e il trattore

Ma cosa ne pensiamo noi a riguardo? Dopo tutto, a ben pensarci non siamo in una situazione diversa da quella di un vecchio bue da traino davanti a un trattore ruggente. Alcuni obietterebbero che la differenza fra noi e l’animale è che il genere umano ha il destino nelle proprie mani, strizzando di fatto l’occhio a un atteggiamento restio allo sviluppo di queste tecnologie. Un dibattito fra i cosiddetti progressisti e conservatori si ridurrebbe dopo poche battute alla più grande questione etica in cui l’uomo si sia mai impelagato. Quale sarebbe il nostro posto in un mondo popolato da entità che abbiamo artificialmente “sporcato” con la nostra coscienza? Come gestire queste entità? Saremmo formalmente costretti a definire una linea di confine fra noi e loro, e quale sarebbe questa linea? Fino a che punto potremmo usare delle macchine prima di considerarle umani? Immaginate la confusione dei sindacati di tutto il mondo!

La serie TV Westworld è la risposta alla vecchia domanda: cosa mai potrebbe andare storto in un parco a tema western le cui attrazioni principali sono degli androidi che non sanno di esserlo? Fonte: www.theverge.com

Molti nel corso degli anni, quando ancora il ML era in stato embrionale, decisero di farsi interpreti di questi dilemmi e di presentarli al grande pubblico. Affidarono l’arduo compito di diffondere il messaggio alla letteratura, alla cinematografia, al teatro, alle serie TV, in poche parole all’unica disciplina che, paradossalmente, nessuna macchina, forse, riuscirà mai a comprendere: l’arte.

Gianluca Randò

Intelligenza artificiale ed androidi, cosa è fondamentale considerare.

E’ successo venti anni fa, più o meno in questo periodo: la prima “vittoria” del computer sull’uomo. Nel cuore di Manhattan il super computer Deep Blue progettato da IBM batteva in sole 19 mosse il più grande giocatore di scacchi, Garry Kasparov, chiudendo in modo sorprendente l’ultima di sei partite in un torneo combattutissimo, giocato proprio per dare alla macchina la possibilità di rivincita dopo la sconfitta subita appena un anno prima. Per non ripetere gli stessi errori al tavolo di gioco, i programmatori dell’azienda avevano potenziato il “cervellone” di Deep Blue rendendolo capace di analizzare 200 milioni di mosse al secondo.

Da allora, la cosiddetta intelligenza artificiale ha fatto passi da gigante, non solo nei giochi da tavolo: aziende come Google, Facebook, Amazon, Uber ed anche diverse case automobilistiche stanno investendo molte risorse e denaro per produrre software intelligenti ed abili nello svolgere compiti particolari. Non so se ricordate quanto fosse sgrammaticato il traduttore di Google fino a qualche anno fa, adesso non è perfetto, però, quantomeno, riesce a fornire una traduzione più o meno corretta.

Ma cos’è questa intelligenza artificiale e da dove è spuntata fuori?

Non è facile dare una definizione univoca di Intelligenza artificiale, perché nemmeno i cosiddetti addetti ai lavori riescono ad accordarsi a riguardo. In modo abbastanza prudente partirei col dire che per intelligenza, comunemente parlando, intendiamo l’insieme di capacità psichiche e mentali che permettono ad una persona di pensare, di comprendere azioni e fatti riuscendo a spiegarli tramite l’elaborazione di modelli astratti a partire dalla realtà. Questi processi, inevitabilmente, portano alla capacità di ottenere un qualche risultato, più o meno efficiente a seconda dei casi.

Ora, la prospettiva di riuscire, un giorno, a creare una macchina che potesse imitare il comportamento umano è emersa in diversi periodi storici, incrociando la mitologia, l’alchimia, l’invenzione degli automi e la fantascienza. E’ stato, però, il britannico Alan Turing nella metà del secolo scorso ad elencare i requisiti per definire “intelligente” una macchina. Nel suo “Macchine calcolatrici ed intelligenza” elaborò il test che oggi porta il suo nome, attraverso il quale un’intelligenza artificiale si rivelerebbe tale solo se riuscisse a convincere chi la sta utilizzando di avere a che fare con un persona e non con una macchina. Risulta evidente che da un test del genere l’osservatore può trarre una valutazione solo parziale; infatti un computer (come Deep Blue che ha battuto Kasparov) può essere considerato intelligente, ma al tempo stesso non avere le capacità di imitare in tutto e per tutto un essere umano ed il suo modo personalissimo di pensare.

Questa è un po’ la sfida (probabilmente “hybris”) della neo-robotica, di alcuni ingegneri cibernetici che nel mondo, lavorano per la realizzazione di robot che assomiglino sempre più a noi umani. Non solo li stanno dotando dei nostri sensi – comandi vocali, touch screen, naso e palato elettronici- ma pensano anche a realizzare degli inserti biologici. Sinapsi umane innestate nei loro hardware, tessuti epidermici creati in laboratorio con le staminali ( pratica già diffusa) con cui rivestire i nuovi robot che potranno essere chiamati a buon diritto (e certo!) androidi, cioè robot umanoidi. Una volta arrivati a questo punto, credo che il salto antropologico più inquietante sarà convincersi che gli androidi possano essere veramente delle persone.

Ma Boezio insegna che persona è “sostanza individuale di natura razionale”. Riescono a svolgere calcoli complicatissimi, a stoccare il campione mondiale di scacchi, ad eseguire azioni con possibilità di errore quasi infinitesimale. Non saranno forse meglio di noi?

In realtà i robot elaborano, non pensano. Ed elaborano perché è stato l’uomo prima a programmarli. Siri, software di assistenza e riconoscimento vocale di Apple, risponde alle tue domande su traffico, meteo, indicazioni stradali e altro ancora. Ma Siri pesca nel suo database l’informazione più corretta. Non può, per esempio, non risponderti e se non lo fa significa che qualche circuito è saltato, non certo per sua propria sponte! E’ una macchina e non può che obbedire alle leggi fisiche del determinismo meccanico che possono, però, essere manipolate dall’uomo. Quindi, per quanto si possa progredire e migliorare nella realizzazione di robot che mimino le capacità umane, essi non saranno altro che una copia di atti in cui brilla la scintilla dell’intelligenza umana. Inoltre, in quanto macchine, non potranno mai avere un’anima razionale perché l’anima è immateriale e, dunque, non può essere fabbricata artificialmente in laboratorio ed infusa in un robot.

Come al solito, si tratta di non assolutizzare mai le conquiste della ricerca e dei progressi tecnologici, perché altrimenti, quella che potrebbe essere un’opportunità per rendere più abitabile questa terra, potrebbe rivelarsi un disastroso tentativo di auto-affermazione da parte dell’uomo, l’ennesimo mito di Prometeo che, puntualmente, si ripete nella storia.

“Est modus in rebus; sunt certi denique fines quos ultra citraque nequit consistere rectum”

Orazio (68-5 a.C.), Satire I, 1, vv. 106-107 –

[Esiste una misura in tutte le cose; ci sono, cioè, dei confini ben precisi oltre i quali, mai, dovrebbe spingersi il giusto.]

Ivana Bringheli