L'intelligenza artificiale

L’intelligenza artificiale può diventare “un rischio per l’umanità”

Attualità
#artificiale #Attualità #UvM #disinformazione #elonmusk #GPT4

L’intelligenza artificiale ormai non si arresta, accelera sempre di più. Alcuni esperti però non sono entusiasti, perché temono uno scenario “Terminator”. La società californiana di Sam Altman, la OpenAI, ha da poco adottato una nuova versione del sistema informatico di intelligenza artificiale GPT (acronimo di Generative Pretrained Trasformer), denominata GPT-4. Quest’ultimo è il sistema che sta alla base dell’ormai conosciuta chatbot intelligente, ChatGPT. Creata dalla stessa start-up, che dialoga con l’utente fornendogli: testi, risposte, poesie, ricette, formule matematiche di ogni tipo.

Man mano che i nostri sistemi si avvicinano alla Agi (intelligenza generale artificiale), stiamo diventando sempre più cauti nella creazione e diffusione di questi modelli.

Questo è quanto dichiarato da Altman, ma alcuni dei volti più noti dei grandi colossi Tech non sarebbero d’accordo. Anzi, è stata richiesta uno un freno allo sviluppo dei sistemi d’intelligenza artificiale, poiché si temono grandi rischi futuri per la società e l’umanità. Ma vediamo nel dettaglio.

L’intelligenza artificiale e il GPT-4 di OpenAI. In cosa consiste?

La start-up, in collaborazione con Microsoft, ha da poco introdotto una nuova versione di intelligenza artificiale generativa, il GPT-4. Questo sistema informatico prende grandi moli di dati dal web e non solo, generando poi testi inediti in risposta a domande molto precise o generiche. La nuova versione ha aumentato del 40% le sue performance in termini di risposte fattuali. Replica uno specifico stile di scrittura. Può ricevere un’immagine come input, per elaborarla in base alle bizzarre richieste dell’utente. Ad esempio, puoi fare una foto al contenuto del tuo frigorifero e l’AI avrà una ricetta pronta per te. A dir poco inquietante!

Supporta input testuali molto più lunghi, rispetto alla precedente versione, con blocchi di testo che vanno oltre i 25mila caratteri. Può realizzare in meno di un minuto videogame e disegnare siti web. Inoltre, il nuovo sistema è stato messo alla prova su una serie di test scolastici, universitari e professionali. Sono stati tutti superati, addirittura posizionandosi tra le percentuali più alte.

 

Questo progresso “fuori controllo” sembrerebbe far paura!

I sistemi di intelligenza artificiale possono comportare gravi rischi per la società e l’umanità. Quindi invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno sei mesi l’addestramento.

Dopo due settimane dall’annuncio di GPT-4, arriva una lettera che annuncia il forte disagio provocato dall’AI (artificial intelligence) Nonostante sia un fanatico della tecnologia, l’allarme è partito proprio da Elon Musk (patron di Tesla e attuale CEO di Twitter), ma ha avuto il supporto di molti. Infatti, tra i firmatari della missiva pubblicata nel sito del Future of Life Institute (organizzazione no-profit), ci sono volti noti come: Steve Wozniak (co-fondatore di Apple), lo storico saggista Yuval Noah Harari, i fondatori di Pinterest e Skype, insieme a molti altri esperti nel settore tech.

Nell’appello, dal titolo “Pause Giant All Experiments”, i big non prendono di mira tutta l’intelligenza artificiale. Si focalizzano specialmente sui sistemi più avanzati, come GPT-4, dichiarando che:

I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati, solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi saranno gestibili.

Negli ultimi mesi i laboratori sono stati impegnati nello sviluppo e nella distribuzione di menti digitali, sempre più potenti e che nessuno può capire e ritenere al 100% affidabili. Tutto questo è avvenuto in una corsa fuori controllo, tra diverse aziende. Nella lettera si richiede una sospensione fino a quando:

I protocolli di sicurezza condivisi per tali progetti non verranno sviluppati, implementati e verificati da esperti indipendenti.

I sei mesi richiesti dovrebbero essere utili per sviluppare questi protocolli, i sistemi di governance dell’AI e per riorientare la ricerca. Al fine di rendere i sistemi di intelligenza artificiali, che per quanto rischiosi ormai inevitabili, più «affidabili e leali». Bisogna dire che già alcune agenzie governative in Cina, UE e Singapore hanno precedentemente introdotto le prime versioni di quadri di governance dell’AI.

Ma perché si parla di uno “scenario Terminator” e di rischi esistenziali?

Lo stesso Sam Altman sembrerebbe fare qualche passo indietro. Anche se non focalizza la sua attenzione sui possibili rischi concreti già presenti, insieme a Musk ed altri imprenditori, è preoccupato per i possibili rischi esistenziali.

Sono soprattutto preoccupato che questi modelli possano essere usati per la disinformazione su larga scala. Inoltre migliorando sempre di più nella scrittura di codice informatico, potrebbero essere usati per eseguire cyber-attacchi.

Questo è quanto dichiarato da Altman in un’intervista rilasciata alla Abc. Negli ultimi tempi, siamo effettivamente vittime di molte fake-news, generate da queste intelligenze artificiali. Nei social stanno girando delle foto alquanto… particolari: si pensi a quella del finto arresto di Donald Trump, di Papa Francesco con indosso un piumino da trapper, quella di Putin ferito in guerra e molte altre ancora. Tutte finte, anche se in molti ci hanno creduto. Si teme proprio questo uso improprio, che potrebbe portare a degli incidenti e dei disordini sociali irreparabili e, soprattutto, potrebbe mettere a rischio l’esistenza dell’essere umano. Ad esempio, stravolgendo professioni e portandoci a cambiare il nostro rapporto con la tecnologia. Questi strumenti dotati di coscienza e capacità cognitive superiori a quelle dell’uomo, potrebbero perseguire obiettivi contrari al benessere della nostra società. Diventando così dei veri e propri “Terminator. Si troverà una soluzione? Staremo a vedere!

Marta Ferrato