L’AI nella scuola fra rischi e opportunità

L’intelligenza artificiale è già diventata parte integrante del sistema educativo. Piattaforme come ChatGPT e Gemini sono ormai compagne di studio dei ragazzi. La scuola non riesce a tenere il passo di queste novità, che però, potrebbero rivelarsi delle preziose alleate.

L’abuso che minaccia la scuola

Secondo una ricerca condotta dal portale Noplagio.it, otto studenti su dieci fanno uso regolare dell’AI per svolgere varie attività a scuola.

A un campione di circa mille adolescenti, è stato sottoposto un questionario nel quale si elencavano una serie di situazioni in cui è possibile avvalersi dell’aiuto dell’intelligenza artificiale. Il 60% dei ragazzi ha ammesso di usare strumenti come ChatGPT per far svolgere i compiti al proprio posto, il 13% rivela di sfruttare i tools AI per scrivere temi e saggi, mentre il 18% addirittura dichiara di usarli in classe durante le verifiche.

Nonostante la maggior parte degli studenti consideri l’intelligenza artificiale uno strumento valido, buona parte di loro è consapevole che i contenuti prodotti possano non essere accurati. Alla domanda specifica – “pensi di poterti fidare ciecamente di un contenuto generato dall’AI?” – il 54% ritiene che sia comunque necessaria una revisione umana. Eppure, il rischio di un abuso è dietro l’angolo.

Le campagne di sensibilizzazione faticano a decollare, e i più giovani non possiedono un’innata capacità critica per rapportarsi all’AI. Bisogna prevenire uno scenario nel quale gli studenti deleghino totalmente le proprie attività a ChatGPT. O si interverrà con decisione, oppure cresceremo una generazione di automi, priva di senso del giudizio, e dunque facilmente abbindolabile dal fantomatico messia di turno, o peggio ancora, dall’AI stessa.

 

Integrazione dell’AI per una didattica innovativa

Scongiurando scenari apocalittici, l’intelligenza artificiale rappresenta per la Scuola una grande opportunità di rinnovamento e riscatto.

A livello internazionale sono già diversi i progetti che puntano ad integrare i sistemi AI nelle scuole, con l’obiettivo di migliorare l’esperienza degli studenti.

L’Istituto di Istruzione Secondaria Ribera del Tajo a Talavera de la Reina, in Spagna, ha sviluppato il Progetto VIA (Visión Artificial en el Aula), che utilizza l’IA per monitorare il comportamento degli studenti in classe attraverso la rilevazione dei tratti facciali. VIA è in grado di capire se l’alunno presta attenzione o meno, offrendo ai docenti dati utili per rendere più interessanti le proprie lezioni. Ma l’analisi può andare oltre, restituendo un report sul lungo periodo. Ad esempio, il Sistema cinese DMP_AI (Data Management Platform_Artificial Intelligence) implementato nelle scuole primarie e secondarie, prevede le prestazioni accademiche dei ragazzi, segnalando con anticipo eventualità criticità. Tutto ciò è reso possibile da complessi meccanismi di data mining e machine learning.

Inoltre, i sistemi basati su intelligenza artificiale potrebbero fare la differenza per salvare quei ragazzi affetti da disturbi dell’apprendimento. Nasce con questa finalità la Piattaforma Vrailexia, che sfrutta l’IA per personalizzare automaticamente i contenuti didattici in base alle esigenze degli studenti dislessici

 

Se da un lato esiste il pericolo di un abuso che potrebbe compromettere il percorso accademico, dall’altro è innegabile il potenziale inedito che l’IA offre al mondo dell’istruzione. Non bisogna demonizzare l’uso dell’intelligenza artificiale, ma piuttosto educare i ragazzi (e i professori) ad un utilizzo consapevole e responsabile.

Serve dunque un approccio equilibrato, in cui l’IA diventi un supporto per la crescita dei giovani, senza sostituire il loro impegno o annullare la loro capacità di giudizio critico.

 

Giovanni Gentile Patti

Un nuovo testo per regolare le intelligenze artificiali

Pochi giorni fa, a Strasburgo, il Parlamento Europeo ha approvato l’Artificial Intelligence Act (AI Act), il nuovo regolamento riguardante le intelligenze artificiali, accolta con 499 voti favorevoli, 28 contrari, e 93 astenuti.

Fra le proposte: l’istituzione di quattro livelli di rischio, il divieto per l’utilizzo di sistemi di Intelligenza artificiale per la sorveglianza biometrica nei luoghi pubblici e per la polizia predittiva. Sotto regolamentazione anche ChatGpt, con l’obbligo di dichiarare se un contenuto è stato generato dall’AI.

computer AI
Fonte: pexels

Intelligenze artificiali: standard Europei

Fra gli obiettivi prioritari che l’UE ha voluto assicurare fanno riferimento agli standard che i sistemi di intelligenza artificiale devono sottostare in termini di sicurezza, trasparenza, tracciabilità, soprattutto non discriminatori e rispettosi dell’ambiente. Il suo utilizzo sotto stretta supervisione degli esseri umani, per evitare conseguenze irreversibili.

Si è discusso tanto di regolamentare anche dei metodi d’utilizzo dell’intelligenza artificiale per combattere la discriminazione digitale, prevenendo la disinformazione e limitando l’utilizzo di deepfake: una tecnica basata su machine learning che permette di manipolare immagini al computer, spesso impiegata nella creazione di fake news.

“Un primo passo verso il futuro”, come afferma il Presidente di PTP Privacy Tech Professionals Rocco Panetta:

“Si tratta di una prima regolamentazione sull’intelligenza artificiale, una regolamentazione che copra da qui in avanti tutto quello che l’AI potrà anche generare e produrre, ma è parzialmente vero che sia la prima perché al momento non siamo senza rete. Abbiamo infatti già una o più regolamentazioni in grado di disciplinare l’intelligenza artificiale a partire dal GDPR e tutte le norme collegate”.

I quattro livelli di rischio delle intelligenze artificali

I fornitori e coloro che utilizzano i sistemi IA, nelle loro attività, devono prendere in considerazione un nuovo approccio basato sul rischio che può generare. Vietati, quindi, quei sistemi di IA con un livello di rischio inaccettabile per la sicurezza delle persone.

  • Rischio inaccettabile

Quei sistemi considerati una minaccia per le persone e, quindi, vietati. Sono inclusi:

  1. Manipolazione cognitivo-comportamentale di persone o specifici gruppi vulnerabili
  2. Punteggio sociale: classificare le persone in base al comportamento, allo stato socio-economico o alle caratteristiche personali
  3. Sistemi di identificazione biometrica remota e in tempo reale
  • Rischio alto

Quei sistemi che incidono negativamente sulla sicurezza o sui diritti fondamentali. Sono divisi in:

  1. Sistemi di intelligenze artificiali utilizzati nei prodotti soggetti alla legislazione dell’UE sulla sicurezza dei prodotti.
  2. Sistemi di AI che rientrano in otto aree specifiche che dovranno essere registrate in una banca dati dell’UE:
  1. Identificazione biometrica e categorizzazione delle persone fisiche
  2. Gestione e funzionamento delle infrastrutture critiche
  3. Istruzione e formazione professionale
  4. Occupazione, gestione dei lavoratori e accesso al lavoro autonomo
  5. Accesso e fruizione dei servizi privati essenziali e dei servizi e benefici pubblici
  6. Applicazione della legge
  7. Migrazione, asilo e gestione dei controlli alle frontiere
  8. Assistenza nell’interpretazione giuridica e nell’applicazione della legge.

Tutti i sistemi di Intelligenza Artificiale ad alto rischio saranno valutati prima di essere immessi sul mercato e anche durante il loro ciclo di vita.

  • Rischio limitato

I sistemi di Intelligenza Artificiale che comportano un rischio limitato dovrebbero comunque rispettare requisiti minimi di trasparenza che consentiranno agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l’utente potrà quindi decidere se desidera continuare a utilizzarle.

Gli utenti dovrebbero essere informati quando interagiscono con l’IA, includendo, quindi, i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video.

  • Rischio minimo

I sistemi IA che prevedono un rischio minimo non sono del tutto regolamentati, ma dovranno osservare obbligatoriamente i principi di trasparenza, di privacy e data protection. Sebbene molti sistemi di intelligenza artificiale comportino un rischio minimo, dovranno essere comunque valutati.

livelli rischio IA
Piramide con i quattro livelli di rischio. Fonte: startmag

I divieti agli usi e abusi di ChatGPT

Tra gli articoli del regolamento, il Parlamento Ue ha promosso il divieto tassativo all’uso intrusivo e discriminatorio dell’intelligenza artificiale: tra questi, i sistemi di identificazione biometrica remota “in tempo reale” e “a posteriori” negli spazi pubblici e il cosiddetto “scraping“, ovvero l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale basati su caratteristiche sensibili (il genere, l’etnia, la religione e l’orientamento politico).

Non solo: il testo respinge anche i sistemi di polizia predittiva, fondati su profilazione, ubicazione o comportamenti criminali passati, e i programmi di riconoscimento delle emozioni sfruttati dalle forze dell’ordine nei luoghi di lavoro, negli istituti d’istruzione e alle frontiere.

In questa prospettiva, per promuovere l’innovazione dell’AI e sostenere le piccole e medie imprese, i deputati hanno aggiunto delle esenzioni per le attività di ricerca e i componenti dell’AI forniti con licenze open source, a codice sorgente aperto. Vengono ulteriormente promossi i cosiddetti sandbox normativi, o ambienti di vita reale, istituiti dalle autorità pubbliche per testare l’intelligenza artificiale prima che venga implementata.

In materia di ChatGPT, i parlamentari puntano a rafforzare il diritto dei cittadini di presentare reclami sui sistemi di intelligenze artificiali e ricevere spiegazioni delle decisioni basate su sistemi ad alto rischio che incidono in modo significativo sui loro diritti fondamentali. Riformato anche il ruolo dell’Ufficio AI dell’Ue, che avrà il compito di monitorare l’attuazione del regolamento sull’AI.

Il regolamento specifica che il sistema di AI generativa dovrà rispettare i requisiti di trasparenza: per farlo, sono tenuti a rendere noto tramite una dichiarazione che “i contenuti sono stati generati dall’IA”. Questo permetterà di distinguere le immagini deepfake da quelle reali, contrastando anche la produzione e diffusione di contenuti illegali.

Victoria Calvo

Geoffrey Hinton lascia Google. Una scelta “per poter parlare dei pericoli” dell’IA

Non conosciamo ancora i limiti d’azione dell’intelligenza artificiale. Meglio, ne conosciamo quelli attuali, ma dovremmo preoccuparci che non siano definitivi. Torniamo sull’argomento dopo qualche settimana per approfondirlo in seguito a un’importante notizia.

Geoffrey Hinton, il “padrino dell’IA”, ha scelto di lasciare le fila di Google. Il motivo? «Per poter parlare liberamente dei pericoli» dell’intelligenza artificiale. Pericoli che lui stesso si è pentito di aver creato.

Chi è Geoffrey Hinton? Perché sarebbe il “Padrino dell’IA”?

Geoffrey Hilton, 75 anni, è un informatico britannico naturalizzato canadese. È noto per i suoi contributi di ricerca sullo sviluppo dell’apprendimento profondo, per cui nel 2018, insieme a Yoshua Bengio e Yann LeCu, ha ricevuto il Premio Turing.

Grazie al suo lavoro pionieristico sulle reti neurali ha modellato i sistemi di intelligenza artificiale che alimentano molti dei prodotti odierni. Insegna all’Università di Toronto e ha lavorato part-time presso Google per un decennio, operando particolarmente nell’elaborazione dell’IA del grande motore di ricerca.

Oggi, come già scritto, ha scelto di ritirarsi da quest’ultima mansione, nutrendo preoccupazione per la tecnologia e per il suo progresso.

Geoffrey Hinton
Geoffrey Hinton. Fonte: Wikimedia Commons

La nuova missione di Hinton: informare, prevenire, proteggere

Il potenziale umano è finito, lo impongono la nostra anatomia e la nostra fisiologia. Per questo l’uomo, bramando maggiori facoltà (matematiche, logiche, etc.), sfrutta le macchine, e i sistemi informatici, come prolungamenti del proprio corpo. Così in qualche modo vivifica la parte aggiunta, dotandola di una propria “umanità”, maturando il rischio che diventi autonoma, unica, incontrollabile. E qui si schiude il dubbio etico-pragmatico: c’è un punto in cui dovremmo accontentarci e fermarci?

Secondo Hinton sì. E il punto sarebbe solo da identificare, dopo che lui, e gli altri esperti del tema come lui, avranno chiarito cosa già si può chiarire. In ciò consisterebbe la sua nuova missione: costruire una nuova consapevolezza sulle minacce dell’IA per riadattarci nel mondo.

Il futuro della tecnologia: l’entità più spaventosa e i rischi peggiori

Riportano le informazioni Il Corriere della Sera e l’Ansa.

L’informatico, dopo la notizia del suo addio a Google, ha subito fatto scudo sull’azienda. Ha discolpato il colosso da ogni possibile colpa scrivendo su Twitter che «Google ha agito in modo responsabile».

Diversamente, per sé stesso ha deciso di fare una parziale mea culpa. Ai microfoni del New York Times, parlando del progresso tecnologico a lui accreditato, ha infatti dichiarato: «Se non l’avessi fatto io, l’avrebbe fatto qualcun altro». Salvo poi aggiungere:

Se siete diventati dipendenti dai like è colpa mia: sappiate che ho contribuito a crearli. Se mentre navigate in rete e parlate di un oggetto venite bombardati dalla pubblicità su quella cosa, prendetevela con me: vorrei non aver sviluppato quelle tecniche di microtargeting.

In un altro momento, alla Bbc ha spiegato qual è oggi l’entità informatica più spaventosa e perché dovremmo temere questa e altre del suo tipo:

In questo momento, quello che stiamo vedendo è che cose come GPT-4 oscurano una persona nella quantità di conoscenza generale che ha e la oscura di gran lunga. In termini di ragionamento, non è così buono, ma fa già un semplice ragionamento. E dato il ritmo dei progressi, ci aspettiamo che le cose migliorino abbastanza velocemente. Quindi dobbiamo preoccuparcene.

Infine, ragionando sui valori negativi dell’intelligenza artificiale ha identificato i due rischi peggiori da essa provenienti:

È quasi impossibile individuare e neutralizzare gli “attori maligni” che la useranno. E potrebbe prendere decisioni non previste.

Gabriele Nostro

Machine learning: come nasce “l’intelligenza”

Vi siete mai chiesti quale sia il meccanismo insito nell’apprendimento? Cosa rende gli esseri umani, gli animali e alcune piante in grado di imparare? Una questione quantomeno spinosa, che si inasprisce ancor più se pensiamo che per rispondere è necessario prima definire il concetto stesso di apprendimento. E badate, è un Problema tutt’altro che semplice, al centro di discussioni di carattere filosofico, metafisico e scientifico da secoli.

Cos’è l’apprendimento

Sarebbe lecito in prima battuta vedere l’apprendimento come la capacità di reagire in modo diverso, rispetto al passato, a determinati stimoli. Di mutare, quindi, il modo con cui ci interfacciamo con la realtà.
Pensiamo a un predatore che impara a cacciare: sta reagendo a uno stimolo (la presenza della preda) in modo diverso rispetto a prima. Anche un bambino che impara a leggere sta relazionandosi alle lettere in un modo nuovo. E’ evidente che un approccio del genere non è in grado di esaurire completamente la questione ma è sufficientemente “potente” da rendere possibile una prima formalizzazione della faccenda.

Fu proprio questo l’aspetto che non sfuggì ad Arthur Lee Samuel, considerato il pioniere dell’intelligenza artificiale. Infatti, è su tale presupposto che oggi si fonda il machine learning, la disciplina che si occupa di insegnare alle macchine come imparare.
Un algoritmo classico non è altro che una serie di operazioni che un PC esegue e che qualcuno deve implementare. Il machine learning supera questo scoglio, servendosi di un algoritmo in grado di generarne degli altri, per poi modificarli e ri-assemblarli, così da renderli in grado di fronteggiare circostanze sempre diverse. Il ML, infatti, può gestire situazioni molto complesse, tutte riconducibili al problema di natura strettamente dicotomica di riconoscere due elementi distinti, per esempio un uomo da una donna, un cane da un gatto o un cavallo da un catamarano.

Come si insegna a un pc?

fonte: www.iberdrola.com

Se vi state chiedendo come un computer possa imparare a farlo, provate a ricordare come ci siete riusciti voi. Qualcuno deve aver puntato un dito contro un uomo, un gatto, un catamarano e contemporaneamente pronunciato le rispettive parole.

Per capire meglio, immaginiamo di dare a una macchina dei numeri che descrivano un uomo veicolando informazioni riguardo la forma del viso. Noi vogliamo che ogni volta che l’algoritmo si imbatte in valori simili dia 0. Per imparare a farlo, la macchina avvia i numeri a una sorta di percorso, che li modifica secondo leggi ben precise, e ne restituisce un valore fra 0 e 1. Questa sorta di catena di montaggio è strutturata in modo tale che 2 input numerici iniziali simili restituiscano valori finali simili. Dopodiché, a seconda di quanto il valore risultante sia vicino a 0, la struttura stessa del percorso viene modificata insieme alle leggi che la caratterizzano.
Le modifiche apportate saranno tali che la prossima volta che la macchina incontrerà “un uomo” risponderà con un valore finale più spostato verso lo zero.

In altre parole, ogni uomo è individuato da parametri numerici paragonabili quantitativamente a quelli di un altro uomo, ma distanti da quelli di una donna. Il percorso viene tarato in modo che con una classe di parametri esso restituisca 0, mentre con un’altra (quella che identifica una donna) restituisca 1.

Differenze geometriche quantificabili tra il viso di una donna e quello di un uomo. Fonte https://design.tutsplus.com

Infinite applicazioni

Il ML esprime tutto il suo potenziale creando un’ “intelligenza” dal nulla, in maniera del tutto artificiale. Ora, nell’immaginario collettivo, queste parole portano alla mente un insieme di sensazioni per lo più negative. Pensiamo al freddo metallo dei Terminator, alle profonde crisi esistenziali dei protagonisti dei romanzi di Philip K. Dick, fino alle angoscianti puntate di Black Mirror.

La realtà purtroppo è meno eccitante di cosi. Molto più modestamente, le intelligenze artificiali (IA) trovano applicazioni nei campi in cui è necessario elaborare un’enorme quantità di dati con un’atteggiamento che coniughi lo zelo di una macchina e la flessibilità mentale di un umano. I più noti esempi sono le IA sviluppate da Google, che ottimizzano la nostra esperienza sui motori di ricerca.  All’avanguardia quelle sviluppate da Naughty Dog per rendere l’interazione con i personaggi dei loro videogame più coinvolgente.

Istantanea della fase di progettazione di The Last Of Us 2, i suoi personaggi sono animati da un’avanzatissima intelligenza artificiali che li rende in grado di sfruttare l’ambiente che li circonda proprio come farebbe un essere umano. Fonte: www.assistivetechnologyblog.com

Innumerevoli sono poi le applicazioni in campo medico. Che ci crediate o no, anche le IA hanno avuto una parte, seppur marginale, nell’emergenza che stiamo vivendo. Il contact tracing, il tentativo di sviluppare vaccini, il recupero e l’elaborazione dei dati necessari alla modellizzazione della diffusione del virus, sono tutte applicazioni del machine learning, seppur migliorabili.

Ad ogni modo, questo strumento ha tutte le carte in regola per essere addestrato a gestire situazioni altrettanto complesse con molta più efficacia. Secondo le previsioni dei maggiori esperti del campo, già in un futuro prossimo potrebbe rivelarsi un alleato indispensabile per l’amministrazione di risorse fisiche e non solo.

Estratto del primo adattamento cinematografico de “il cacciatore di androidi” romanzo di Philip K. Dick ambientato in un 1992 distopico che narra le vicende di androidi ribelli. fonte: www.tomshw.it

Il bue e il trattore

Ma cosa ne pensiamo noi a riguardo? Dopo tutto, a ben pensarci non siamo in una situazione diversa da quella di un vecchio bue da traino davanti a un trattore ruggente. Alcuni obietterebbero che la differenza fra noi e l’animale è che il genere umano ha il destino nelle proprie mani, strizzando di fatto l’occhio a un atteggiamento restio allo sviluppo di queste tecnologie. Un dibattito fra i cosiddetti progressisti e conservatori si ridurrebbe dopo poche battute alla più grande questione etica in cui l’uomo si sia mai impelagato. Quale sarebbe il nostro posto in un mondo popolato da entità che abbiamo artificialmente “sporcato” con la nostra coscienza? Come gestire queste entità? Saremmo formalmente costretti a definire una linea di confine fra noi e loro, e quale sarebbe questa linea? Fino a che punto potremmo usare delle macchine prima di considerarle umani? Immaginate la confusione dei sindacati di tutto il mondo!

La serie TV Westworld è la risposta alla vecchia domanda: cosa mai potrebbe andare storto in un parco a tema western le cui attrazioni principali sono degli androidi che non sanno di esserlo? Fonte: www.theverge.com

Molti nel corso degli anni, quando ancora il ML era in stato embrionale, decisero di farsi interpreti di questi dilemmi e di presentarli al grande pubblico. Affidarono l’arduo compito di diffondere il messaggio alla letteratura, alla cinematografia, al teatro, alle serie TV, in poche parole all’unica disciplina che, paradossalmente, nessuna macchina, forse, riuscirà mai a comprendere: l’arte.

Gianluca Randò

“Polizia predittiva” arriva anche in Italia?

Potrebbe presto sbarcare in alcune città italiane, ma di certo non a livelli di Minority Report.

 

Il futuro più inquietante dell’Intelligenza Artificiale potrebbe scaturire da un pezzo di cervello di un topo attaccato a dei micro elettrodi. È studiandone le sue reazioni agli stimoli che gli scienziati del Cnr fiorentino insieme ai colleghi dell’”Università di Tel Aviv” hanno scoperto che gran parte dell’attività cerebrale è controllata da pochi neuroni organizzati in unità funzionali denominate clique, in grado di categorizzare e generalizzare l’informazione in concetti.

Quel funzionamento è stato tradotto successivamente in un algoritmo e usato per l’intelligenza artificiale dagli scienziati dell’azienda israeliana Cortica, che hanno creato un sistema in grado di percepire le intenzioni di un soggetto osservando le sue espressioni e i suoi comportamenti.

Cortica entrerà in funzione in India grazie ad una partnership con il Best Group per analizzare il grande flusso di dati delle telecamere a circuito chiuso nelle aree pubbliche. Questo è l’ultimo sviluppo della Crime Prediction, che seppur lontana dalle visioni della Minority Report, è già realtà.

La tecnologia sta facendo passi da gigante per difendere le future Smart City metropolitane.

Le smart city si dovranno difendere dagli attacchi fisici ma anche e soprattutto da quelli informatici grazie alla presenza del sistema IoT, capace di regalare passatempi ingegnosi ad Haker maliziosi. Ecco perché al concetto di smart city si affianca quello di Safe City., con soluzioni di Business Intelligence e Predictive analytics, indirizzate alla sicurezza pubblica che hanno lo scopo di predire calamità naturali, azioni terroristiche o criminali, e incidenti. Tra le aziende leader del settore c’è la svedese Hexagon safety & infrastructure con il suo Intergraph Business Intelligence per la sicurezza pubblica, in grado di monitorare e analizzare un’enorme quantità di dati per prevedere l’evoluzione di uno scenario.

    

  

Angelo Gazzoni, country manager per l’Italia di Hexagon, ci spiega che il loro obiettivo è un’ecosistema autonomo connesso (Ace), cioè un insieme di sistemi che si connettono in maniera autonoma sfruttando l’intelligenza artificiale e la tecnologia edge computing che permette di spostare verso i sensori la capacità analitica, convogliando così nell’elaborazione centrale solo l’informazione raffinata. Nel caso delle forze dell’ordine- continua Angelo gazzoni-  ciò consente di portare nel centro decisionale di una sala di gestione delle emergenze informazioni utili per la salvaguardia delle persone, permettendo di agire in anticipo, predire un crimine o una catastrofe.

 

Come si può predire un crimine?

Integrando dati che arrivano dall’esterno, informazioni dei sensori, sentiment analysis, lo storico delle chiamate; è possibile intercettare la fase nascente di qualcosa che sta accadendo. Analizzare l’incidenza di un determinato tipo di reato in una specifica zona della città può permettere da un lato di migliorare l’analisi e dall’altro di gestire meglio determinate zone. Per esempio, un quartiere in cui si riscontrano molti casi di infrazione stradale potrebbe essere legato a un nascente spaccio di droga. E il sistema centrale permette anche di utilizzare sensori mobili come Robot e Droni di pattugliamento

.

Uno dei maggiori problemi riscontrati è quello della Privacy. Tra i sensori che avranno il compito di trasmettere l’informazione ci sono le telecamere, implementate con tecnologie di “face-detecting” e “face-recognition” per incrociare i volti con quelli presenti nel database.

In Italia, Hexagon aveva già intavolato discorsi con esponenti di realtà regionali per fornire i suoi sistemi alle forze di polizia locale, interessate al dispatching di risorse, all’analisi di incidenti e ai reati. Attualmente sono in lavorazione dei progetti con grandi infrastrutture, di cui però non si sa ancora niente di preciso. Secondo Gazzoni è solo questione di tempo prima che questi sistemi diventeranno realtà almeno nelle grandi città.

L’ultima conferenza del Security Summit di Roma sull’intelligenza artificiale e si è conclusa con un appello corale degli scienziati: “non chiamatela intelligenza”.

Magari tra dieci anni avremo macchine che prenderanno le decisioni da sole. Sarebbe un ottimo modo per scaricare responsabilità e sensi di colpa.

 

 

 

 

Selina Nicita

Intelligenza artificiale ed androidi, cosa è fondamentale considerare.

E’ successo venti anni fa, più o meno in questo periodo: la prima “vittoria” del computer sull’uomo. Nel cuore di Manhattan il super computer Deep Blue progettato da IBM batteva in sole 19 mosse il più grande giocatore di scacchi, Garry Kasparov, chiudendo in modo sorprendente l’ultima di sei partite in un torneo combattutissimo, giocato proprio per dare alla macchina la possibilità di rivincita dopo la sconfitta subita appena un anno prima. Per non ripetere gli stessi errori al tavolo di gioco, i programmatori dell’azienda avevano potenziato il “cervellone” di Deep Blue rendendolo capace di analizzare 200 milioni di mosse al secondo.

Da allora, la cosiddetta intelligenza artificiale ha fatto passi da gigante, non solo nei giochi da tavolo: aziende come Google, Facebook, Amazon, Uber ed anche diverse case automobilistiche stanno investendo molte risorse e denaro per produrre software intelligenti ed abili nello svolgere compiti particolari. Non so se ricordate quanto fosse sgrammaticato il traduttore di Google fino a qualche anno fa, adesso non è perfetto, però, quantomeno, riesce a fornire una traduzione più o meno corretta.

Ma cos’è questa intelligenza artificiale e da dove è spuntata fuori?

Non è facile dare una definizione univoca di Intelligenza artificiale, perché nemmeno i cosiddetti addetti ai lavori riescono ad accordarsi a riguardo. In modo abbastanza prudente partirei col dire che per intelligenza, comunemente parlando, intendiamo l’insieme di capacità psichiche e mentali che permettono ad una persona di pensare, di comprendere azioni e fatti riuscendo a spiegarli tramite l’elaborazione di modelli astratti a partire dalla realtà. Questi processi, inevitabilmente, portano alla capacità di ottenere un qualche risultato, più o meno efficiente a seconda dei casi.

Ora, la prospettiva di riuscire, un giorno, a creare una macchina che potesse imitare il comportamento umano è emersa in diversi periodi storici, incrociando la mitologia, l’alchimia, l’invenzione degli automi e la fantascienza. E’ stato, però, il britannico Alan Turing nella metà del secolo scorso ad elencare i requisiti per definire “intelligente” una macchina. Nel suo “Macchine calcolatrici ed intelligenza” elaborò il test che oggi porta il suo nome, attraverso il quale un’intelligenza artificiale si rivelerebbe tale solo se riuscisse a convincere chi la sta utilizzando di avere a che fare con un persona e non con una macchina. Risulta evidente che da un test del genere l’osservatore può trarre una valutazione solo parziale; infatti un computer (come Deep Blue che ha battuto Kasparov) può essere considerato intelligente, ma al tempo stesso non avere le capacità di imitare in tutto e per tutto un essere umano ed il suo modo personalissimo di pensare.

Questa è un po’ la sfida (probabilmente “hybris”) della neo-robotica, di alcuni ingegneri cibernetici che nel mondo, lavorano per la realizzazione di robot che assomiglino sempre più a noi umani. Non solo li stanno dotando dei nostri sensi – comandi vocali, touch screen, naso e palato elettronici- ma pensano anche a realizzare degli inserti biologici. Sinapsi umane innestate nei loro hardware, tessuti epidermici creati in laboratorio con le staminali ( pratica già diffusa) con cui rivestire i nuovi robot che potranno essere chiamati a buon diritto (e certo!) androidi, cioè robot umanoidi. Una volta arrivati a questo punto, credo che il salto antropologico più inquietante sarà convincersi che gli androidi possano essere veramente delle persone.

Ma Boezio insegna che persona è “sostanza individuale di natura razionale”. Riescono a svolgere calcoli complicatissimi, a stoccare il campione mondiale di scacchi, ad eseguire azioni con possibilità di errore quasi infinitesimale. Non saranno forse meglio di noi?

In realtà i robot elaborano, non pensano. Ed elaborano perché è stato l’uomo prima a programmarli. Siri, software di assistenza e riconoscimento vocale di Apple, risponde alle tue domande su traffico, meteo, indicazioni stradali e altro ancora. Ma Siri pesca nel suo database l’informazione più corretta. Non può, per esempio, non risponderti e se non lo fa significa che qualche circuito è saltato, non certo per sua propria sponte! E’ una macchina e non può che obbedire alle leggi fisiche del determinismo meccanico che possono, però, essere manipolate dall’uomo. Quindi, per quanto si possa progredire e migliorare nella realizzazione di robot che mimino le capacità umane, essi non saranno altro che una copia di atti in cui brilla la scintilla dell’intelligenza umana. Inoltre, in quanto macchine, non potranno mai avere un’anima razionale perché l’anima è immateriale e, dunque, non può essere fabbricata artificialmente in laboratorio ed infusa in un robot.

Come al solito, si tratta di non assolutizzare mai le conquiste della ricerca e dei progressi tecnologici, perché altrimenti, quella che potrebbe essere un’opportunità per rendere più abitabile questa terra, potrebbe rivelarsi un disastroso tentativo di auto-affermazione da parte dell’uomo, l’ennesimo mito di Prometeo che, puntualmente, si ripete nella storia.

“Est modus in rebus; sunt certi denique fines quos ultra citraque nequit consistere rectum”

Orazio (68-5 a.C.), Satire I, 1, vv. 106-107 –

[Esiste una misura in tutte le cose; ci sono, cioè, dei confini ben precisi oltre i quali, mai, dovrebbe spingersi il giusto.]

Ivana Bringheli