Neuroestetica: la scienza dietro l’arte

La disciplina che concilia le neuroscienze e l’estetica, intesa come sfera del sensibile in riferimento all’arte, e che si promette di studiare con metodo scientifico i processi neurofisiologici coinvolti nel godimento dell’opera d’arte.

Origini della Neuroestetica

Si tratta di un ambito di ricerca relativamente nuovo, proposto dal neurobiologo Semir Zeki nei primi anni del Duemila e formalmente definita come “studio scientifico delle basi neurali per la contemplazione e creazione di un’opera d’arte” in occasione della fondazione dell’Istituto di Neuroestetica (2002).
Il significato della disciplina è sostenuto dal suo fondatore con l’argomentazione che non può esistere una teoria estetica completa senza la totale comprensione dei fondamenti neuronali.
Zeki inoltre sostiene che vi sia un percorso parallelo per artisti e neuroscienziati della vista e un fine comune di scoprire le distinzioni del mondo visivo e, simultaneamente, i meccanismi cerebrali coinvolti.

Meccanismi cerebrali

Si può quindi comprendere per quale ragione molte volte i dipinti violano le leggi della fisica del mondo reale nell’ambito di ombre, colori e contorni: l’obiettivo dell’artista non sarebbe tanto la rappresentazione fedele al mondo esterno, quanto ricreare le scorciatoie percettive usate dal cervello.

La “manipolazione” cerebrale sfruttata dagli artisti risiede nel percorso compiuto dall’informazione visiva. Tutto inizia a livello della corteccia visiva primaria, dove i neuroni registrano informazioni come linee e curve del campo visivo.

L’informazione poi procede secondo due percorsi, distinti ma collegati, verso l’area ventrale e dorsale del cervello, coinvolte nell’elaborazione visiva: la corrente ventrale, o “via del Cosa”, si estende dalla corteccia visiva primaria alla corteccia temporale inferiore ed è associata al riconoscimento di forme, colori e in generale della rappresentazione degli oggetti.

La seconda è la corrente dorsale, anche detta “via del Dove” o “via del Come”, e ha inizio nella corteccia primaria visiva (V1) con termine nella corteccia parietale posteriore. La sua funzione è di localizzare l’oggetto all’interno del campo visivo grazie anche ad informazioni complementari come luce e movimento, oltre ad essere un’importante componente per afferrare oggetti.

Da cosa è costituita l’opera d’arte?

Gli elementi che compongo l’opera d’arte sono colore, forma, texture e disegno, ma ancora più semplicemente distinguiamo colore e luce: il primo esprime emozioni e simboli, la seconda descrive le forme, il tratto e la texture.

Mentre il colore è un aspetto dell’opera costantemente analizzato e approfondito, la luce, nonostante possieda un ruolo chiave nella composizione artistica, è ancora poco sfruttata dagli artisti stessi.
Un perfetto esempio di ciò è rappresentato dalla corrente impressionista; si affaccia sul mondo dell’arte figurativa verso la fine del XIX secolo a seguito della diffusione del neoclassicismo, avvenuta qualche decennio prima, da cui prende le distanze, facendo dell’uso sperimentale di luce e colore un manifesto.

Un esempio di studio

Si prenda in esame il quadro di Claude Monet “Impressione, levar del sole” (1872), da cui derivò il nome della corrente.
Lo si confronti con una versione monocroma della stessa opera e si rimuova uno dei due elementi chiave, il colore. E’ possibile così soffermarsi maggiormente sulla luce del dipinto e in particolare su come il sole e le nuvole siano stati rappresentati con la stessa luce dall’artista e volutamente.

Se, infatti, Monet fosse rimasto fedele alla realtà raffigurando quindi un sole più chiaro e luminoso dello sfondo su cui si staglia, paradossalmente sarebbe risultato meno brillante rispetto alla versione definitiva.

Tre versioni del dipinto di Monet “Impressione, levar del sole”: originale (in alto), monocromatico (centro), con la luminosità del sole resa realistica (in basso). Fonte: Light Vision

Il fenomeno pittorico appena illustrato si può spiegare a livello cerebrale prendendo in esame l’elaborazione separata dell’informazione visiva convogliata dalle due correnti.

Laddove la via del Cosa trasmette informazioni riguardo al colore, la via del Dove è insensibile al colore.
La seconda è tra i due il sistema più antico e in grado di rilevare con maggiore precisione la luce e le sue variazioni. Come conseguenza, registra anche il movimento e la profondità degli oggetti rispetto allo sfondo.

L’opera impressionista riesce dunque ad ingannare la via del Dove. Davanti agli oggetti isoluminanti (come il sole e il mare, con intensità luminosa uniforme), non potendo contare sull’aspetto cromatico, non riesce a registrarne la posizione o la profondità.  Il risultato di questo fenomeno è quella sensazione di apparente movimento delle onde e dello scintillio del sole riflesso sull’acqua.

Rafforza l’illusione la tecnica pittorica scelta da Monet: tante pennellature brevi sulla tela, che richiedono all’osservatore di essere unite in tratti unici.

L’antitesi classicista

Una controprova della teoria si ha osservando un’opera che rappresenta una scena d’azione, ottenuta facendo uso di luce a diverse intensità: ne “Il ratto delle Sabine” di Nicolas Poussin (1638), l’eccesso di movimento e dettagli raffigurati dall’autore finiscono per avere un effetto paralizzante. 
Il cervello dell’osservatore si sofferma a studiare il maggior numero possibile di particolari. Esso, però, ontemporaneamente fissa le figure sullo sfondo, perdendo così la sensazione di slancio delle figure.

La Neuroestetica non si ferma qui

la Neuroestetica si dimostra promettente verso future applicazioni, specie nella comprensione dell’impatto dell’opera sull’osservatore nel campo dell’arte visiva; ma anche nel mondo architettonico per la costruzione di edifici abitativi e in ambito clinico riguardo gli effetti di malattie neurodegenerative sulla percezione artistica.

Eleonora Calleri

FONTI:

Neurobiology of sensation and reward, Chapter 18, A. Chatterjee: https://www.ncbi.nlm.nih.gov/books/NBK92788/#ch18_r52
Light vision, M. Livingstone: https://switkes.chemistry.ucsc.edu/teaching/CROWN85/literature/lightvision.pdf
Neuroaesthetics: an introduction to visual art, T.S. McClure, J.A. Siegel: https://journals.sagepub.com/doi/10.1177/1745691615621274
The neuroaesthetics of architectural spaces, A. Chatterjee, A. Couburn, A. Weinberger: https://doi.org/10.1007/s10339-021-01043-4
Art produced by a patient with Parkinson’s disease, A. Chatterjee, R.H. Hamilton, P.X. Amorapanth: https://doi.org/10.1155/2006/901832

Rivoluzione della luce: i LED, una soluzione green

In questo momento dove il risparmio energetico sembra essere la seconda colonna portante all’interno della  discussione sulle emissioni di anidride carbonica (dopo la conversione delle fonti non rinnovabili in rinnovabili), il problema del risparmio nell’illuminazione trova soluzione nella innovativa tecnologia denominata LED (Light-Emitting Diode, diodo che emette luce). Questa tecnologia, sviluppata già nel 1962 da Nick Holonyak Jr., si è evoluta nei decenni migliorando le proprietà uniche di questi sistemi elettronici. Questi sistemi sono caratterizzati da bassi consumi e l’evoluzione ha portato ad espandere la gamma di colori e intensità della luce riprodotti da questi diodi.

Insegna a LED. Fonte

Indice dei contenuti

L’evoluzione di questa tecnologia

Fino ad ora 3 generazioni sono passate in commercio. La 1° generazione, commercializzata a partire da fine anni ’60 fino agli ’80, era utilizzata prettamente per display indicatori di stato dei macchinari. Li possiamo ritrovare ancora sparsi in giro: vi sarà capitato almeno una volta di leggere un orologio digitale dallo sfondo nero e dai numeri di colore rosso. I numeri erano composti da bastoncelli che si illuminavano e spegnevano per comporre il numero. Quei bastoncelli sono i singoli LED appartenenti alla prima generazione. Ancora non si era arrivati a ottenere dispositivi che emettessero luci bianche, né tanto meno dal colore blu, una radiazione luminosa ad energia più elevata di una radiazione rossa (per gli amanti dei valori precisi parliamo di 400-484 THz per il rosso e 606-668 THz per il blu). Il primo LED ad alta intensità fu sviluppato dall’azienda statunitense Fairchild Semicondutor negli anni ’80.

La seconda generazione di LED superò tutti i limiti menzionati e divenne di largo utilizzo: display lampeggianti a led, schermi per cellulari, fari per automobili e illuminazione domestica e infrastrutturale. La tecnologia utilizzata negli ultimi schermi dei televisori e di alcuni smartphone adesso in circolazione si basa sulla tecnologia QLED (Quantum Dots Light-Emitting Diode), una tecnologia più sofisticata dei LED, quindi di 3° generazione. Queste tecnologie ad alta intensità di luce adesso trovano applicazione anche nel campo medico e della depurazione delle acque, grazie all’azione battericida di particolari intense radiazioni.

A sinistra LED di seconda generazione (Fonte). A destra LED di prima generazione (Fonte).

La chimica di un diodo

Come spiega l’acronimo di LED, stiamo parlando di un diodo che emette luce, ma di cosa è fatto un diodo e come produce luce? Un diodo è un semiconduttore, un filamento fatto di un materiale che permette il passaggio di elettroni solo sotto certe condizioni. La particolarità di questo dispositivo è quella di permettere il trasporto di elettroni quando posto in un circuito elettrico solo in un verso, mentre se il verso risulta invertito allora non c’è corrente elettrica. Per spiegare questo basta accennare al materiale di cui è fatto il diodo, o meglio, il suo reticolo cristallino (l’insieme di atomi che si dispongono su tutto il materiale).

Tra gli elementi della tavola periodica troviamo il silicio e il germanio come semiconduttori tra i più abbondanti sulla crosta terrestre dove il silicio è decisamente più abbondante del germanio e quindi preferito per la produzione in larga scala (28,2% è il silicio che ricopre la crosta terrestre, mentre 0,15% è la percentuale di germanio).

Questo è un singolo atomo di silicio in una barra di silicio pura. Frame tratto dal video di VirtualBrain [IT]

Cos’è un semiconduttore?

Immaginiamo le due estremità di una barra di silicio collegate a una batteria, dove non esiste alcun passaggio di corrente: questo fenomeno è dato dalla stabilità degli atomi di silicio. Quindi il trasporto da un capo all’altro di elettroni può avvenire solamente quando nel reticolo vi è mancanza o eccesso di elettroni, appunto. Ecco un’immagine esplicativa di un reticolo dove alcuni atomi di silicio sono stati sostituiti da atomi di altri elementi. Nella prima immagine abbiamo “impurezze” dovute all’arsenico (atomi viola) e nella seconda immagine, invece, vi è presenza di atomi di alluminio (atomi verdi). Il trattamento che porta alla sostituzione di alcuni atomi di silicio è chiamato doping (drogaggio).

Reticolo di atomi di silicio di un pezzo di silicio puro. Frame tratto dal video di VirtualBrain [IT]
Nel caso del drogaggio con atomi di arsenico avremo elettroni in eccesso (viene chiamato N-doping), mentre nel caso dell’alluminio ne avremo in difetto (P-doping). Entrambi i tipi di drogaggio permettono il passaggio di corrente, ma cosa succede se i due materiali fossero in contatto all’interno di un circuito?

I due casi di drogaggio del silicio. A sinistra gli atomi viola sono di arsenico, mentre a destra gli atomi verdi sono di alluminio. Frame tratto dal video di VirtualBrain [IT]

Come si genera la luce nei LED

Quando il semiconduttore di tipo P con atomi di arsenico è collegato col polo positivo del generatore di corrente e quello di tipo N con atomi di alluminio è collegato al polo negativo, vi è non solo passaggio di corrente, ma vi è generazione di energia sotto forma di luce. Questo perché il generatore di corrente “costringe” gli elettroni della zona N a “saltare” nella zona P e questo genera energia luminosa ad una determinata lunghezza d’onda. Quindi, cambiando l’arsenico o l’alluminio con altri atomi opportuni otterremo altre combinazioni di semiconduttori N-P e di conseguenza altre colorazioni.

Ma se da quanto spiegato sembra che qualsiasi luce possa emettere luce, la faccenda non è esattamente questa. Infatti uno dei due semiconduttori a contatto, deve essere ridotto a una lamina, in particolare il semiconduttore N-drogato affinché dia luce.

Quando due semiconduttori sono incidenti uno sull’altro, avviene il “salto” dell’elettrone. Durante il salto viene rilasciata energia luminosa. Frame tratto dal video di VirtualBrain [IT]

Conclusioni

Sebbene siano passate 3 generazioni di questi dispositivi rivoluzionari, molti aspetti della produzione debbono ancora essere perfezionati, il rapporto affidabilità e costi di produzione non sono convenienti quanto le tecnologie convenzionali (i fari a led delle auto ancora non sono regolamentati dalla legge italiana). Inoltre i guasti dei led sono ancora presenti per via delle imperfezioni dei processi di stampa del materiale a base di silicio e del suo drogaggio. Inoltre, sono ancora materiali che tendono a usurarsi di più rispetto a quelli convenzionali. C’è da dire che l’evoluzione tecnica nell’assemblaggio di questi prodotti migliora di anno in anno, nonostante questi difetti.

Salvatore Donato

Bibliografia

Light emitting diodes reliability review – ScienceDirect

 

 

Da Galileo a Rømer: la storia della velocità della luce

La velocità della luce è una delle grandezze più importanti in fisica, ad esempio tramite essa è possibile convertire la massa in energia e viceversa. A lungo si è ritenuto che fosse infinita a causa dell’apparente istantaneità con la quale si propaga. Basti pensare alla luce del Sole che per raggiungere la Terra impiega circa 8 minuti, mentre ai nostri occhi il processo appare immediato. Ma com’è stato misurato il suo valore?

I primi raggi del sole esplodono sull’orizzonte terrestre durante un’alba orbitale mentre la Stazione Spaziale Internazionale orbita sopra l’Oceano Indiano a sud-ovest dell’Australia – Fonte: Nasa.gov

La questione se la luce richieda tempo per propagarsi è stata più volte affrontata. Sulla base di semplici esperienze, legate per lo più al senso comune, è prevalsa l’idea che la luce dovesse propagarsi istantaneamente. Questa convinzione è stata rafforzata da alcune considerazioni legate alla fisica aristotelica; poiché la propagazione della luce non rappresentava un moto materiale, non dovendo essa subire resistenza nel mezzo, doveva propagarsi in un istante. A questa concezione aderirono per secoli quasi tutti gli studiosi di ottica, tra i quali Keplero e Cartesio, con qualche eccezione costituita ad esempio da Alhazen e dai suoi sostenitori.

L’esperimento di Galileo Galilei

Il primo a cimentarsi nella misura della velocità della luce fu Galileo Galilei. Nel 1638, egli pubblicò il trattato Discorsi e dimostrazioni matematiche intorno a due nuove scienze attinenti alla meccanica e ai moti locali dove proponeva che la velocità della luce potesse essere misurata tramite delle lanterne.

Il suo esperimento prevedeva di porre due lanterne a circa 2 chilometri di distanza e di calcolare il tempo che la luce impiegava ad arrivare da un punto all’altro. Quando Galileo scopriva la sua lanterna, il suo assistente doveva scoprire la propria non appena vedeva la luce. Misurando il tempo necessario per vedere la luce proveniente dalla lanterna del suo assistente, Galileo avrebbe potuto ricavare la velocità della luce.

Esperimento di Galileo Galilei – Fonte: INFN Sezione di Ferrara

L’esperienza però non portò a nessun risultato. La luce per percorrere 2 chilometri impiega circa 0,000005 secondi, un valore impossibile da misurare con gli strumenti a disposizione di Galileo.

Ole Rømer e l’orbita di Io

Tuttavia, per distanze maggiori e possibile ricavare una stima della velocità anche con strumenti meno sofisticati. Nel 1676 l’astronomo danese Ole Rømer riuscì a determinare un valore veritiero osservando l’orbita di Io, il più interno dei quattro grandi satelliti di Giove, scoperti da Galileo nel 1610.

Il periodo orbitale di Io è ora noto per essere 1,769 giorni terrestri (42 ore). Il satellite è eclissato da Giove una volta ogni orbita, visto dalla Terra. Osservando queste eclissi per molti anni, Rømer notò qualcosa di particolare: l’intervallo di tempo tra le eclissi successive divenne costantemente più breve man mano che la Terra si avvicinava a Giove e divenne costantemente più lungo man mano che il nostro pianeta si allontanava.

Dai suoi dati, Rømer ha stimato che quando la Terra era più vicina a Giove, le eclissi di Io si sarebbero verificate circa undici minuti prima di quanto previsto sulla base del periodo orbitale medio. Mentre 6 mesi e mezzo dopo, quando la Terra era più lontana, le eclissi si sarebbero verificate circa undici minuti più tardi del previsto.

Rømer capì che il periodo orbitale di Io non aveva nulla a che fare con le posizioni relative della Terra e di Giove. In un’intuizione brillante, si rese conto che la differenza di tempo doveva essere dovuta alla velocità finita della luce.

L’Eclissi

L’ipotesi di Rømer lasciò perplesso il direttore dell’osservatorio, Gian Domenico Cassini. Allora per convincere quest’ultimo, annunciò che l’eclissi di Io, prevista per il 9 novembre 1676, sarebbe avvenuta 10 minuti prima dell’orario che tutti gli altri astronomi avevano dedotto dai precedenti transiti della luna.

La previsione si verificò e Cassini dovette ricredersi. Rømer spiegò che la velocità della luce era tale che aveva impiegato 22 minuti per percorrere il diametro dell’orbita terrestre. Purtroppo, avendo un valore impreciso del diametro dell’orbita terrestre, il valore ottenuto fu 210.800.000 m/s.

Rømer comunicò la sua scoperta alla Accademia delle Scienze e la notizia venne poi pubblicata il 7 dicembre 1676, data che oggi viene ricordata come quella della prima determinazione della velocità della luce.

Eclissi di Io – Fonte: Focus.it

Altri studi

Lo scienziato olandese Christiaan Huygens, nel 1790, riuscì a trovare un valore per la velocità della luce equivalente a 210.824.061,37 m/s. La differenza era dovuta agli errori nella stima di Rømer per il ritardo massimo (il valore corretto è 16,7, non 22 minuti), e anche ad una conoscenza imprecisa del diametro orbitale della Terra. Più importante della risposta esatta, tuttavia, era il fatto che i dati di Rømer fornivano la prima stima quantitativa per la velocità della luce.

In seguito, la velocità della luce è stata misurata dai fisici con precisione assoluta: un raggio luminoso viaggia nel vuoto a 299.792.458 m/s. In un secondo potrebbe compiere sette giri e mezzo della Terra seguendo la linea dell’equatore.

Serena Muscarà

 

Bibliografia

https://www.focus.it/scienza/scienze/velocita-della-luce-news

http://galileo.phys.virginia.edu/classes/109N/lectures/spedlite.html

https://www.amnh.org/learn-teach/curriculum-collections/cosmic-horizons-book/ole-roemer-speed-of-light#:~:text=The%20speed%20of%20light%20could,is%20186%2C000%20miles%20per%20second.

E se fosse possibile costruire il mantello dell’invisibilità di Harry Potter?

 

Se cercate la parola ”invisibilità” su Google, vi renderete subito conto di come l’idea di molti (soprattutto dei più giovani) riguardo l’argomento sia legata alla possibilità di realizzare il famoso “mantello” in grado di rendere qualsiasi cosa invisibile. Troverete inoltre tra i primi risultati un video realizzato in Cina nel quale un uomo scompare dopo avere indossato proprio un mantello, poi del tutto smentito in quanto falso (realizzato al computer).

Quanto c’è di scientifico nel concetto di invisibilità? Esiste concretamente al giorno d’oggi tale possibilità?

Numerosi ricercatori stanno e hanno tentato di realizzare tali dispositivi, principalmente con l’impiego dei cosiddetti metamateriali, ovvero materiali creati in laboratorio con proprietà del tutto sorprendenti.  Ma quali sono le problematiche principali riscontrate negli anni riguardo tale possibile tecnologia? Innanzitutto la difficoltà di rendere un oggetto invisibile a tutte le lunghezze d’onda (ovvero a tutti i “colori”) della luce naturale (a ogni colore corrisponde una diversa lunghezza d’onda, figura sotto).

Inoltre, restano irrisolte le questioni legate all’ombra e alla direzione della sorgente. In poche parole, anche se oggi è possibile rendere ad esempio una penna invisibile alla luce blu proveniente da una sola direzione, queste condizione non si verificano praticamente mai nella vita quotidiana. Infatti, la luce “bianca” solare contiene tutti i “colori” ovvero tutte le lunghezze d’onda dello spettro e viene da ogni direzione.

Capite bene che simili tecnologie non servirebbero praticamente a nulla!

Un esperimento molto vicino alla soluzione del problema è stato fatto nel 2018 presso l’Institut National de la Recherche Scientifique—Énergie, Matériaux et Télécommunications (INRS-EMT) di Montreal, in Canada. La ricerca è stata poi pubblicata su Optica, tra le più importanti riviste di ottica e fotonica.

Immagine riassuntiva: in basso, si osserva come un dispositivo tra oggetto (in verde) e fascio luminoso “annulli” la luce in ingresso. Un secondo dispositivo, posto dietro l’oggetto, la ricompone successivamente, dando l’idea di continuità dell’immagine e mascherando l’oggetto. Tuttavia, gli stessi ricercatori ammettono che sono ben lontani dalla creazione del famoso mantello.

Quali potrebbero essere, quindi, le nuove prospettive offerte dalla scienza?

Le risposte sulla questione invisibilità potrebbero arrivare da un campo nato da pochissimi anni: i quasicristalli. La scoperta di questi nuovi materiali è valsa a Dan Shechtman il premio Nobel per la chimica nel 2011. Curiosamente, nonostante la loro esistenza fosse stata teorizzata già nel 1982, Shechtman guadagnò oltre il Nobel anche aspre critiche e derisioni dalla comunità scientifica, che non credeva all’esistenza di tali materiali.

Ma quali sono le caratteristiche dei quasicristalli  che potrebbero risolvere il nostro “problema” invisibilità? Perché gli scienziati del settore erano così scettici a riguardo?

Modello atomico di un quasicristallo di argento e alluminio.

Per capirlo meglio dobbiamo prima definire i comuni cristalli: essi hanno una struttura ordinata e periodica, ovvero formata dalla stessa “unità fondamentale” ripetuta più volte ordinatamente. Esempio: un cubo con ai vertici determinati atomi si ripeterà per tutta la struttura con gli stessi atomi. In altre parole in qualsiasi punto guardi il cristallo avrà la stessa composizione, come nella figura sotto. Totalmente diversi sono invece i cosiddetti materiali amorfi (letteralmente “senza forma”) che non hanno una struttura ordinata.

Il termine “quasicristallo” nasce dall’esigenza di definire un materiale che è ordinato come i cristalli, ma non periodico: esiste la possibilità di trovare nella sua struttura dei punti che differiscono, senza che venga persa la simmetricità (altra caratteristica fondamentale dei cristalli). Anzi, ed è questo il punto cruciale, hanno una simmetria particolarissima detta pentagonale, ritenuta prima della loro scoperta impossibile.

È tale simmetria a conferire ai quasicristalli “proprietà fisiche sorprendenti”, a detta del geologo e ricercatore italiano dell’università di Firenze Luca Bindi, tra i massimi esperti nel settore. Lo stesso Bindi ha scoperto nel 2009 i quasicristalli di origine naturale studiando alcuni meteoriti (scoperta pubblicata da Science e inserita tra le migliori 100 del 2009 dal Washington Post) . Infatti, gli unici quasicristalli naturali che conosciamo provengono dallo spazio e si sono formati in seguito a collisioni ad altissima energia. Molto comuni sono invece i quasicristalli artificiali creati in laboratorio, che contengono perlopiù alluminio.

Sapete quali applicazioni hanno attualmente?

Rivestimento di alcune comuni padelle, lame di strumenti chirurgici e… rendere invisibili alcuni jet militari ai radar. Di fatto un radar è una sorgente di onde elettromagnetiche (onde radio/microonde) esattamente come il sole è fonte di luce (anche essa un’onda elettromagnetica). La differenza? Quella che definiamo luce è composta da onde con lunghezze d’onda e frequenze visibili dal nostro occhio e diverse dalle onde radio/microonde emesse dai radar.

Potrebbe dunque essere questo il materiale tanto ricercato per ottenere l’invisibilità?

Non c’è ancora una risposta certa: ad oggi ci sono soltanto 50-60 persone in tutto il mondo che si occupano di quasicristalli. Cosa ci permette di essere fiduciosi? Lo stesso Bindi ammette: “se c’è qualcosa che caratterizza la ricerca scientifica in questo settore sono le continue sorprese”. E come dargli torto? Un materiale che a detta di molti non sarebbe mai potuto esistere, può essere non solo creato in laboratorio, ma anche trovato in natura in meteoriti provenienti dallo spazio. Ha anche poi aggiunto il ricercatore italiano, in un’intervista rilasciata recentemente a Wired Italia, che a breve verrà annunciata la scoperta di un altro nuovo materiale: i quasi-quasicristalli.

Morale della favola: riguardo l’invisibilità non ci resta altro che farci sorprendere, ancora una volta, dai progressi della ricerca scientifica.

 

 

Emanuele Chiara