L’AI nella scuola fra rischi e opportunità

L’intelligenza artificiale è già diventata parte integrante del sistema educativo. Piattaforme come ChatGPT e Gemini sono ormai compagne di studio dei ragazzi. La scuola non riesce a tenere il passo di queste novità, che però, potrebbero rivelarsi delle preziose alleate.

L’abuso che minaccia la scuola

Secondo una ricerca condotta dal portale Noplagio.it, otto studenti su dieci fanno uso regolare dell’AI per svolgere varie attività a scuola.

A un campione di circa mille adolescenti, è stato sottoposto un questionario nel quale si elencavano una serie di situazioni in cui è possibile avvalersi dell’aiuto dell’intelligenza artificiale. Il 60% dei ragazzi ha ammesso di usare strumenti come ChatGPT per far svolgere i compiti al proprio posto, il 13% rivela di sfruttare i tools AI per scrivere temi e saggi, mentre il 18% addirittura dichiara di usarli in classe durante le verifiche.

Nonostante la maggior parte degli studenti consideri l’intelligenza artificiale uno strumento valido, buona parte di loro è consapevole che i contenuti prodotti possano non essere accurati. Alla domanda specifica – “pensi di poterti fidare ciecamente di un contenuto generato dall’AI?” – il 54% ritiene che sia comunque necessaria una revisione umana. Eppure, il rischio di un abuso è dietro l’angolo.

Le campagne di sensibilizzazione faticano a decollare, e i più giovani non possiedono un’innata capacità critica per rapportarsi all’AI. Bisogna prevenire uno scenario nel quale gli studenti deleghino totalmente le proprie attività a ChatGPT. O si interverrà con decisione, oppure cresceremo una generazione di automi, priva di senso del giudizio, e dunque facilmente abbindolabile dal fantomatico messia di turno, o peggio ancora, dall’AI stessa.

 

Integrazione dell’AI per una didattica innovativa

Scongiurando scenari apocalittici, l’intelligenza artificiale rappresenta per la Scuola una grande opportunità di rinnovamento e riscatto.

A livello internazionale sono già diversi i progetti che puntano ad integrare i sistemi AI nelle scuole, con l’obiettivo di migliorare l’esperienza degli studenti.

L’Istituto di Istruzione Secondaria Ribera del Tajo a Talavera de la Reina, in Spagna, ha sviluppato il Progetto VIA (Visión Artificial en el Aula), che utilizza l’IA per monitorare il comportamento degli studenti in classe attraverso la rilevazione dei tratti facciali. VIA è in grado di capire se l’alunno presta attenzione o meno, offrendo ai docenti dati utili per rendere più interessanti le proprie lezioni. Ma l’analisi può andare oltre, restituendo un report sul lungo periodo. Ad esempio, il Sistema cinese DMP_AI (Data Management Platform_Artificial Intelligence) implementato nelle scuole primarie e secondarie, prevede le prestazioni accademiche dei ragazzi, segnalando con anticipo eventualità criticità. Tutto ciò è reso possibile da complessi meccanismi di data mining e machine learning.

Inoltre, i sistemi basati su intelligenza artificiale potrebbero fare la differenza per salvare quei ragazzi affetti da disturbi dell’apprendimento. Nasce con questa finalità la Piattaforma Vrailexia, che sfrutta l’IA per personalizzare automaticamente i contenuti didattici in base alle esigenze degli studenti dislessici

 

Se da un lato esiste il pericolo di un abuso che potrebbe compromettere il percorso accademico, dall’altro è innegabile il potenziale inedito che l’IA offre al mondo dell’istruzione. Non bisogna demonizzare l’uso dell’intelligenza artificiale, ma piuttosto educare i ragazzi (e i professori) ad un utilizzo consapevole e responsabile.

Serve dunque un approccio equilibrato, in cui l’IA diventi un supporto per la crescita dei giovani, senza sostituire il loro impegno o annullare la loro capacità di giudizio critico.

 

Giovanni Gentile Patti

Un nuovo testo per regolare le intelligenze artificiali

Pochi giorni fa, a Strasburgo, il Parlamento Europeo ha approvato l’Artificial Intelligence Act (AI Act), il nuovo regolamento riguardante le intelligenze artificiali, accolta con 499 voti favorevoli, 28 contrari, e 93 astenuti.

Fra le proposte: l’istituzione di quattro livelli di rischio, il divieto per l’utilizzo di sistemi di Intelligenza artificiale per la sorveglianza biometrica nei luoghi pubblici e per la polizia predittiva. Sotto regolamentazione anche ChatGpt, con l’obbligo di dichiarare se un contenuto è stato generato dall’AI.

computer AI
Fonte: pexels

Intelligenze artificiali: standard Europei

Fra gli obiettivi prioritari che l’UE ha voluto assicurare fanno riferimento agli standard che i sistemi di intelligenza artificiale devono sottostare in termini di sicurezza, trasparenza, tracciabilità, soprattutto non discriminatori e rispettosi dell’ambiente. Il suo utilizzo sotto stretta supervisione degli esseri umani, per evitare conseguenze irreversibili.

Si è discusso tanto di regolamentare anche dei metodi d’utilizzo dell’intelligenza artificiale per combattere la discriminazione digitale, prevenendo la disinformazione e limitando l’utilizzo di deepfake: una tecnica basata su machine learning che permette di manipolare immagini al computer, spesso impiegata nella creazione di fake news.

“Un primo passo verso il futuro”, come afferma il Presidente di PTP Privacy Tech Professionals Rocco Panetta:

“Si tratta di una prima regolamentazione sull’intelligenza artificiale, una regolamentazione che copra da qui in avanti tutto quello che l’AI potrà anche generare e produrre, ma è parzialmente vero che sia la prima perché al momento non siamo senza rete. Abbiamo infatti già una o più regolamentazioni in grado di disciplinare l’intelligenza artificiale a partire dal GDPR e tutte le norme collegate”.

I quattro livelli di rischio delle intelligenze artificali

I fornitori e coloro che utilizzano i sistemi IA, nelle loro attività, devono prendere in considerazione un nuovo approccio basato sul rischio che può generare. Vietati, quindi, quei sistemi di IA con un livello di rischio inaccettabile per la sicurezza delle persone.

  • Rischio inaccettabile

Quei sistemi considerati una minaccia per le persone e, quindi, vietati. Sono inclusi:

  1. Manipolazione cognitivo-comportamentale di persone o specifici gruppi vulnerabili
  2. Punteggio sociale: classificare le persone in base al comportamento, allo stato socio-economico o alle caratteristiche personali
  3. Sistemi di identificazione biometrica remota e in tempo reale
  • Rischio alto

Quei sistemi che incidono negativamente sulla sicurezza o sui diritti fondamentali. Sono divisi in:

  1. Sistemi di intelligenze artificiali utilizzati nei prodotti soggetti alla legislazione dell’UE sulla sicurezza dei prodotti.
  2. Sistemi di AI che rientrano in otto aree specifiche che dovranno essere registrate in una banca dati dell’UE:
  1. Identificazione biometrica e categorizzazione delle persone fisiche
  2. Gestione e funzionamento delle infrastrutture critiche
  3. Istruzione e formazione professionale
  4. Occupazione, gestione dei lavoratori e accesso al lavoro autonomo
  5. Accesso e fruizione dei servizi privati essenziali e dei servizi e benefici pubblici
  6. Applicazione della legge
  7. Migrazione, asilo e gestione dei controlli alle frontiere
  8. Assistenza nell’interpretazione giuridica e nell’applicazione della legge.

Tutti i sistemi di Intelligenza Artificiale ad alto rischio saranno valutati prima di essere immessi sul mercato e anche durante il loro ciclo di vita.

  • Rischio limitato

I sistemi di Intelligenza Artificiale che comportano un rischio limitato dovrebbero comunque rispettare requisiti minimi di trasparenza che consentiranno agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l’utente potrà quindi decidere se desidera continuare a utilizzarle.

Gli utenti dovrebbero essere informati quando interagiscono con l’IA, includendo, quindi, i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video.

  • Rischio minimo

I sistemi IA che prevedono un rischio minimo non sono del tutto regolamentati, ma dovranno osservare obbligatoriamente i principi di trasparenza, di privacy e data protection. Sebbene molti sistemi di intelligenza artificiale comportino un rischio minimo, dovranno essere comunque valutati.

livelli rischio IA
Piramide con i quattro livelli di rischio. Fonte: startmag

I divieti agli usi e abusi di ChatGPT

Tra gli articoli del regolamento, il Parlamento Ue ha promosso il divieto tassativo all’uso intrusivo e discriminatorio dell’intelligenza artificiale: tra questi, i sistemi di identificazione biometrica remota “in tempo reale” e “a posteriori” negli spazi pubblici e il cosiddetto “scraping“, ovvero l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale basati su caratteristiche sensibili (il genere, l’etnia, la religione e l’orientamento politico).

Non solo: il testo respinge anche i sistemi di polizia predittiva, fondati su profilazione, ubicazione o comportamenti criminali passati, e i programmi di riconoscimento delle emozioni sfruttati dalle forze dell’ordine nei luoghi di lavoro, negli istituti d’istruzione e alle frontiere.

In questa prospettiva, per promuovere l’innovazione dell’AI e sostenere le piccole e medie imprese, i deputati hanno aggiunto delle esenzioni per le attività di ricerca e i componenti dell’AI forniti con licenze open source, a codice sorgente aperto. Vengono ulteriormente promossi i cosiddetti sandbox normativi, o ambienti di vita reale, istituiti dalle autorità pubbliche per testare l’intelligenza artificiale prima che venga implementata.

In materia di ChatGPT, i parlamentari puntano a rafforzare il diritto dei cittadini di presentare reclami sui sistemi di intelligenze artificiali e ricevere spiegazioni delle decisioni basate su sistemi ad alto rischio che incidono in modo significativo sui loro diritti fondamentali. Riformato anche il ruolo dell’Ufficio AI dell’Ue, che avrà il compito di monitorare l’attuazione del regolamento sull’AI.

Il regolamento specifica che il sistema di AI generativa dovrà rispettare i requisiti di trasparenza: per farlo, sono tenuti a rendere noto tramite una dichiarazione che “i contenuti sono stati generati dall’IA”. Questo permetterà di distinguere le immagini deepfake da quelle reali, contrastando anche la produzione e diffusione di contenuti illegali.

Victoria Calvo

L’intelligenza artificiale può diventare “un rischio per l’umanità”

L’intelligenza artificiale ormai non si arresta, accelera sempre di più. Alcuni esperti però non sono entusiasti, perché temono uno scenario “Terminator”. La società californiana di Sam Altman, la OpenAI, ha da poco adottato una nuova versione del sistema informatico di intelligenza artificiale GPT (acronimo di Generative Pretrained Trasformer), denominata GPT-4. Quest’ultimo è il sistema che sta alla base dell’ormai conosciuta chatbot intelligente, ChatGPT. Creata dalla stessa start-up, che dialoga con l’utente fornendogli: testi, risposte, poesie, ricette, formule matematiche di ogni tipo.

Man mano che i nostri sistemi si avvicinano alla Agi (intelligenza generale artificiale), stiamo diventando sempre più cauti nella creazione e diffusione di questi modelli.

Questo è quanto dichiarato da Altman, ma alcuni dei volti più noti dei grandi colossi Tech non sarebbero d’accordo. Anzi, è stata richiesta uno un freno allo sviluppo dei sistemi d’intelligenza artificiale, poiché si temono grandi rischi futuri per la società e l’umanità. Ma vediamo nel dettaglio.

L’intelligenza artificiale e il GPT-4 di OpenAI. In cosa consiste?

La start-up, in collaborazione con Microsoft, ha da poco introdotto una nuova versione di intelligenza artificiale generativa, il GPT-4. Questo sistema informatico prende grandi moli di dati dal web e non solo, generando poi testi inediti in risposta a domande molto precise o generiche. La nuova versione ha aumentato del 40% le sue performance in termini di risposte fattuali. Replica uno specifico stile di scrittura. Può ricevere un’immagine come input, per elaborarla in base alle bizzarre richieste dell’utente. Ad esempio, puoi fare una foto al contenuto del tuo frigorifero e l’AI avrà una ricetta pronta per te. A dir poco inquietante!

Supporta input testuali molto più lunghi, rispetto alla precedente versione, con blocchi di testo che vanno oltre i 25mila caratteri. Può realizzare in meno di un minuto videogame e disegnare siti web. Inoltre, il nuovo sistema è stato messo alla prova su una serie di test scolastici, universitari e professionali. Sono stati tutti superati, addirittura posizionandosi tra le percentuali più alte.

 

Questo progresso “fuori controllo” sembrerebbe far paura!

I sistemi di intelligenza artificiale possono comportare gravi rischi per la società e l’umanità. Quindi invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno sei mesi l’addestramento.

Dopo due settimane dall’annuncio di GPT-4, arriva una lettera che annuncia il forte disagio provocato dall’AI (artificial intelligence) Nonostante sia un fanatico della tecnologia, l’allarme è partito proprio da Elon Musk (patron di Tesla e attuale CEO di Twitter), ma ha avuto il supporto di molti. Infatti, tra i firmatari della missiva pubblicata nel sito del Future of Life Institute (organizzazione no-profit), ci sono volti noti come: Steve Wozniak (co-fondatore di Apple), lo storico saggista Yuval Noah Harari, i fondatori di Pinterest e Skype, insieme a molti altri esperti nel settore tech.

Nell’appello, dal titolo “Pause Giant All Experiments”, i big non prendono di mira tutta l’intelligenza artificiale. Si focalizzano specialmente sui sistemi più avanzati, come GPT-4, dichiarando che:

I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati, solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi saranno gestibili.

Negli ultimi mesi i laboratori sono stati impegnati nello sviluppo e nella distribuzione di menti digitali, sempre più potenti e che nessuno può capire e ritenere al 100% affidabili. Tutto questo è avvenuto in una corsa fuori controllo, tra diverse aziende. Nella lettera si richiede una sospensione fino a quando:

I protocolli di sicurezza condivisi per tali progetti non verranno sviluppati, implementati e verificati da esperti indipendenti.

I sei mesi richiesti dovrebbero essere utili per sviluppare questi protocolli, i sistemi di governance dell’AI e per riorientare la ricerca. Al fine di rendere i sistemi di intelligenza artificiali, che per quanto rischiosi ormai inevitabili, più «affidabili e leali». Bisogna dire che già alcune agenzie governative in Cina, UE e Singapore hanno precedentemente introdotto le prime versioni di quadri di governance dell’AI.

Ma perché si parla di uno “scenario Terminator” e di rischi esistenziali?

Lo stesso Sam Altman sembrerebbe fare qualche passo indietro. Anche se non focalizza la sua attenzione sui possibili rischi concreti già presenti, insieme a Musk ed altri imprenditori, è preoccupato per i possibili rischi esistenziali.

Sono soprattutto preoccupato che questi modelli possano essere usati per la disinformazione su larga scala. Inoltre migliorando sempre di più nella scrittura di codice informatico, potrebbero essere usati per eseguire cyber-attacchi.

Questo è quanto dichiarato da Altman in un’intervista rilasciata alla Abc. Negli ultimi tempi, siamo effettivamente vittime di molte fake-news, generate da queste intelligenze artificiali. Nei social stanno girando delle foto alquanto… particolari: si pensi a quella del finto arresto di Donald Trump, di Papa Francesco con indosso un piumino da trapper, quella di Putin ferito in guerra e molte altre ancora. Tutte finte, anche se in molti ci hanno creduto. Si teme proprio questo uso improprio, che potrebbe portare a degli incidenti e dei disordini sociali irreparabili e, soprattutto, potrebbe mettere a rischio l’esistenza dell’essere umano. Ad esempio, stravolgendo professioni e portandoci a cambiare il nostro rapporto con la tecnologia. Questi strumenti dotati di coscienza e capacità cognitive superiori a quelle dell’uomo, potrebbero perseguire obiettivi contrari al benessere della nostra società. Diventando così dei veri e propri “Terminator. Si troverà una soluzione? Staremo a vedere!

Marta Ferrato

Progetto UniMe “CADUCEO” – Pediatria: la svolta digitale

Cloud platform for intelligent prevention and diagnosis supported by artificial intelligence solutions” (CADUCEO) è un progetto innovativo che vede l’interazione di Intelligenza artificiale, Big Data e Machine Learning in Medicina. Nell’ambito degli Incentivi Fondo crescita sostenibile – Settore applicativo “Scienze della Vita”, dell’Università di Messina con il partenariato di Nexera (Capofila), TIM, l’Università La Sapienza di Roma e l’Ospedale Pediatrico Bambino Gesù di Roma, il progetto ha ottenuto un finanziamento dal MISE di cinque milioni e cinquecentomila euro.

L’Intelligenza Artificiale (AI)

L’Intelligenza Artificiale è utilizzata dalle grandi aziende fino a far parte della nostra vita quotidiana. Dall’azienda Tesla produttrice di auto elettriche agli assistenti vocali come Siri, Alexa, Google. Le AI sono algoritmi intelligenti in grado di auto-apprendere, agire umanamente, pensare umanamente, pensare razionalmente, agire razionalmente in modo da analizzare i molteplici dati per elaborarli e migliorare le proprie reti neurali artificiali (modello computazionale composto di “neuroni” artificiali, ispirato alla rete neurale biologica e realizzata sia da programmi software che da hardware dedicato).

Il Prof. Claudio Romano e l’importanza del progetto

Il Progetto è stato ideato e coordinato dal Prof. Claudio Romano, Docente Associato di Pediatria presso l’Università di Messina, è basato proprio sull’AI e sul machine learning. L’obiettivo è quello di implementare una piattaforma in grado di analizzare dati in molteplici formati, partendo dalle immagini e dai dati biomedici, includendo anche i dati clinici ricorrenti, e riconoscere così le caratteristiche principali delle malattie in modo da tracciare dei percorsi diagnostici predittivi specifici per ogni singolo paziente.

Dopo oltre 3 anni di lavoro siamo riusciti a completare questo percorso, in un momento molto difficile anche per la ricerca in Italia, e metteremo a disposizione della nostra Università e del Policlinico, una piattaforma di Intelligenza Artificiale, che consentirà di accelerare il passaggio culturale verso la medicina delle 4P, prevenzione, predizione, personalizzazione e partecipazione, per cui non solo “cura della malattia”, ma anche “gestione complessiva del benessere degli individui”.

Apprezzamento anche da parte del Rettore, Prof. Salvatore Cuzzocrea, che ha così commentato:

Questo prestigioso riconoscimento pone l’Università di Messina in prima fila in Europa nella ricerca anche in questo ambito, considerando inoltre che per la prima volta viene individuato un sistema applicativo di Intelligenza Artificiale per le patologie complesse nel bambino. L’apprendimento automatico attraverso questi sistemi è uno strumento prezioso per il sistema sanitario moderno.

Noi di UniVersoMe siamo orgogliosi di riportare questa notizia e di far parte dell’università di Messina che si impegna costantemente nel migliorarsi ogni giorno, siamo altresì fiduciosi che il progetto CADUCEO possa ottenere risultati positivi in modo da portare benefici alla scienza ed ai piccoli pazienti.

Per ulteriori informazioni visita Innovazione e Ricerca

Livio Milazzo