Heisenberg tra Fisica e Filosofia

Leggendo tra le righe: onde e particelle

[…] nella ricerca dell’armonia della vita, non dobbiamo dimenticarci che nel dramma dell’esistenza siamo insieme attori e spettatori. È comprensibile che nelle nostre relazioni scientifiche con la natura la nostra attività assuma grandissima importanza quando abbiamo a che fare con parti della natura nelle quali possiamo penetrare soltanto servendoci degli strumenti più elaborati.

Questa è una delle frasi più significative di uno dei libri che ho letto recentemente. Si tratta di Fisica e Filosofia, di Werner Heisenberg. Nome rinomato nel campo della Fisica e della Chimica grazie alla formulazione del suo celebre principio di indeterminazione


Il secolo scorso è stato sicuramente segnato dalla nascita della meccanica quantistica. Le particelle non possono essere semplicemente schematizzate come materia, ma vanno considerate anche come onde. Il principio di indeterminazione pone il limite fondamentale entro cui possiamo immaginare la duplice natura delle particelle.

Dopo una lettura attenta del libro sopra citato, ho avvertito la necessità di una riflessione.

Il linguaggio prettamente scientifico e tecnico utilizzato fino ad ora non deve trarvi in inganno. Il campo scientifico di cui stiamo parlando è interconnesso alla vita di tutti i giorni, o meglio, al nostro modo di pensare.

Il grande merito che attribuisco al libro di Heisenberg non è tanto accademico o divulgativo. Il libro costituisce un’ importante riflessione su come Fisica e Filosofia debbano essere viste come due sfere in costante contatto.

La riflessione che voglio condividere riguarda l’incredibile versatilità del pensiero umano, ormai quasi dimenticata e trascurata da molti. I nostri schemi nel pensare e nell’apprendimento, ad oggi, sono il risultato di una complessa storia del pensiero. In questa storia, l’evoluzione scientifica e i cambiamenti nel pensiero filosofico vanno di pari passo.

La culla della civiltà

La Filosofia e la Fisica classica nascono in Grecia, non a caso considerata da tutti come la culla della civiltà.

Pensatori come Democrito sono i primi a teorizzare l’esistenza di un’unità fondamentale della materia: l’atomo.

Chiamato così poichè indivisibile, l’atomo è da subito al centro di controversie e dibattiti sulla sua natura. È più importante lo spazio che gli atomi vanno a riempire o lo spazio vuoto attorno ad essi?

Per la prima volta il pensiero occidentale va in crisi. Per la prima volta si pensa al vuoto. Esso non è più un semplice contrario del pieno, ma una vera e propria entità, sia scientifica quanto filosofica.

Ad ogni modo, in seguito al pensiero di Platone e Aristotele, l’argomento del vuoto passa in secondo piano, o meglio, viene reinterpretato. Adesso non si cerca più una risposta direttamente nei concetti di vuoto e pieno, bensì il pensiero occidentale inizia a tuffarsi nell’astrazione.

Il mondo non è semplice materia. Il mondo non è più un insieme di elementi tangibili. Esiste una nuova porzione, un nuovo piano di realtà che si trova al di sopra del concreto. Tutto ciò che è osservabile ha una corrispondenza nell’iperuranioil mondo al di sopra del mondo. I fisici non studiano la realtà a partire da ciò che osservano, piuttosto studiano attentamente un fenomeno, cercando sempre di astrarre e generalizzare ciò che hanno osservato.

Da Cartesio alla crisi delle certezze

Il modo di pensare che abbiamo analizzato nel precedente paragrafo, il processo di osservazione e conseguente astrazione, è un metodo che ha riscontrato un enorme successo nella Fisica classica.
Il pensiero filosofico che tutto ciò che osserviamo sia riconducibile a una realtà generalizzata, fatta di schemi e leggi, ha accompagnato ogni pensatore e scenziato.

Non fa eccezione Descartes, Cartesio. Nonostante sia considerato il ponte tra il pensiero antico e quello moderno, risulta ancora incatenato ad una concezione classica della scienza. All’osservazione segue sempre una conseguente astrazione, e ad essa la formulazione di una legge che possa generalizzare un caso particolare.

Il concetto di separazione tra anima e corpo non fa che confermare il dominio della teoria Platonica nel pensiero occidentale.

Per svariati secoli, la concezione della scienza rimane la stessa. La porzione di universo che osserviamo, la strumentazione utilizzata per osservarla, le leggi che scaturiscono dal nostro studio, tutto è parte di una grande unità, tutto è parte dello stesso mondo.

Una piccola crepa viene aperta dalla filosofia di Immanuel KantLe leggi che teorizziamo non corrispondono alla assoluta verità, le asserzioni che facciamo sono il risultato di un nostro modo di pensare. Il nostro pensiero, dunque il nostro modo di apprendere e scoprire, è incatenato all’utilizzo di forme pure, categorie che utilizziamo per organizzare ogni informazione che immagazziniamo. Le categorie per eccellenza che individua Kant sono spazio, tempo e causalità.

Per quanto possa sembrare rivoluzionaria, la teoria di Kant sfocia comunque nel dogmatico limite del non poter conoscere la cosa in sè, limitandosi dunque allo studio delle manifestazioni di essa nel mondo materiale.

Ancora una volta, la filosofia Platonica trionfa nel pensiero occidentale, dimostrando il distacco tra il mondo materiale e il mondo astratto.

All’arrivo del XX secolo, il pensiero formulato per migliaia di anni è destinato a crollare. Tutto ciò che è stato detto dai Filosofi e che ha influenzato la fisica classica sta per collassare.

È il periodo della crisi delle certezze.

 

Lo stravolgimento Filosofico nella crisi delle certezze

È importante precisare che il periodo a cui mi riferisco non è quello del Decadentismo.

La crisi delle certezze di cui parlo è quella prettamente scientifica. Planck, Bohr, Einstein, Schrödinger, de Broglie sono tutti nomi di scienziati che hanno contribuito a cambiare per sempre il nostro modo di vedere il mondo che ci circonda.

In seguito al problema del corpo nero, in seguito agli esperimenti sull’effetto fotoelettrico, abbiamo capito che nel mondo dell’infinitamente piccolo non esiste una distinzione netta tra onda e corpuscolo. Quando si ha a che fare con corpi di grandezze infinitesimali, si manifesta un duplice comportamento: ondulatorio e corpuscolare.

Tutto ciò affonda le radici in una concezione che stravolge il pensiero Kantiano e le teorie fisiche e filosofiche di un intero millennio. Lo spazio e il tempo non possono essere viste come categorie assolute. Lo spazio non è più semplice collocazione di elementi, ma è probabilità. La probabilità che una particella si trovi in una determinata regione è essa stessa spazio.

Anche nel momento in cui studio una porzione di universo, un sistema, devo applicare una netta distinzione tra gli strumenti utilizzati, descrivibili con le leggi della Fisica classica, e il comportamento ambiguo del sistema di grandezza infinitesimale.

Ciò che è immensamente piccolo non rientra, a livello comportamentale, nei concetti kantiani di spazio e tempo. Lo studio delle particelle ci conduce dentro un universo non osservabile nella quotidianità, ma non per questo al di sopra della quotidianità. Il mondo dell’infinitesimo si trova incredibilmente immerso dentro l’osservabile, ma a un livello così profondo da sembrare totale astrazione.

Riflessione: due realtà comunicanti

L’eccessiva settorialità del sapere ci porta oggi ad una concezione erronea di Scienza. 

Scienza non è la materia che si studia nel proprio corso di laurea, in modo totalmente scollegato dal resto. Scienza è l’atto di porre uno schema ordinato in una realtà che non si comprende, l’atto di determinare dei rapporti logici tra ciò che accade intorno a noi.

Questo modo di pensare, questa processualità nel nostro apprendimento, è il frutto di anni ed anni di evoluzione del pensiero filosofico, che ci consente di imparare ad imparare. 

Dobbiamo staccarci dalla nostra erronea convinzione che scienza e pensiero classico siano due realtà totalmente scollegate. In fondo, il concetto di onde di probabilità è l’estrema conseguenza della teoria aristotelica della potenza.

Queste due realtà comunicano continuamente tra di loro. Il dualismo tra Scienza e Filosofia, che si rispecchia in ogni aspetto del nostro pensiero, è il più grande risultato che secoli di evoluzione del nostro modo di conoscere hanno ottenuto. Sarebbe un vero peccato cancellarlo dalla nostra mente.

 

Bibliografia

Werner Heisenberg, Fisica e Filosofia, Feltrinelli, Milano, 2015

Immanuel Kant, Critica della ragion pura, editori Laterza, Roma, 2005

Mileva Marić: la scienziata perduta

Mileva Maric è stata una brillante studiosa. La sua intelligenza l’ha portata a ricoprire un ruolo importante nella storia della fisica. Per lungo tempo, tuttavia, è rimasta nell’ombra, rilegata al ruolo di prima moglie di Einstein. Oggi siamo finalmente pronti a ridarle la posizione che merita.

Elenco dei contenuti

Tra passioni e bigottismo: la formazione

Milena Maric nasce a Titel, allora parte dell’Impero astro ungarico, il 19 dicembre 1875. Sin dalla giovinezza il padre nota in lei una spiccata intelligenza, nonché una forte curiosità. Si impegna, dunque, a garantirle una buona istruzione, impresa non semplice in quanto lei è una donna. Quando la famiglia si trasferisce a Zagabria viene iscritta a un liceo di lingua tedesca dove, tuttavia, non può diplomarsi. Il suo amore per le materie scientifiche la porta a un nuovo spostamento. Questa volta la destinazione è la Svizzera. Si diploma a Zurigo riuscendo successivamente a superare l’esame di ammissione al Politecnico. Da qui ha inizio la sua carriera universitaria.

Nello stesso anno conosce Einstein, suo collega. I due legano rapidamente. Le loro intelligenze si potrebbero definire complementari: lei ha una buona padronanza del linguaggio matematico, nonché una grande conoscenza della fisica; lui è dotato di un buon intuito.

Moglie e madre ti vogliamo

Mileva Maric e Albert Einstein
https://www.enciclopediadelledonne.it

La relazione con Einstein procede e la Maric rimane incinta. Questo evento segna la fine della sua carriera universitaria. Si  presenta alla seduta di laurea col pancione, condizione inaccettabile per la commissione dell’epoca. Viene, infatti, bocciata. Suo marito, invece, si laurea, ma non viene assunto negli ambienti accademici. Trova, piuttosto, lavoro come impiegato dell’Ufficio Brevetti di Berna.

Nel 1904 nasce il secondo figlio, Hans, e Marić si adatta al ruolo che all’epoca le spettava. Il confronto intellettuale con il marito è, tuttavia, vivace. Sono questi gli anni in cui viene sviluppata la teoria della relatività alla quale non è escluso che lei abbia contribuito attivamente.

La carriera di Einstein raggiunge in questo periodo i suoi maggiori picchi. A seguito della rilevanza assunta dalle sue teorie gli viene consegnata una cattedra a Praga e poi a Berlino. Qui inizia, inoltre, la frequentazione con la cugina Elsa Löwenthal, con la quale ha una relazione extraconiugale che presto si trasforma in un nuovo matrimonio.

Ultimi dolorosi anni

Nel 1914 Einstein e Moric danno inizio a una lunga trattativa per il divorzio che si conclude dopo ben cinque anni. Particolarmente difficile è stabilire i termini di separazione relativi l’aspetto finanziario. Moric deve prendersi cura dei due figli avuti durante il matrimonio e, dunque, chiede un mantenimento. Einstein tenta, senza riuscirci, di omettere che la causa del divorzio risiede nel tradimento da lui perpetrato.

Gli ultimi anni di vita sono per Milena piuttosto tristi. Einstein e il figlio maggiore si trasferiscono in America a causa dell’instaurazione del regime fascista. Milena rimane, invece, in Svizzera, dove si occupa del figlio minore: Eduard. Il ragazzo soffre di schizofrenia e la madre passa il resto della vita a prendersi cura di lui.

Nel maggio del 1948 viene ricoverata a seguito di un ictus morendo il 4 agosto dello stesso anno all’età di 73 anni.

Una laurea sudata

Gabriella Greison e la sua battaglia per ottenere la laurea postuma https://greisonanatomy.com

La storia di Mileva Maric è riemersa negli anni novanta del secolo scorso a seguito della pubblicazione della corrispondenza privata tra lei e il marito.

Da allora si è aperta la discussione circa il contributo di Mileva ai lavori di Einstein. Tale indagine riguarda prevalentemente i quattro articoli pubblicati nel 1905. L’estrema velocità con cui Einstein li porta a termine, pur essendo impiegato all’Ufficio Brevetti, ha indotto molti a pensare che Mileva abbia contribuito.

Un altro possibile indizio dell’aiuto da parte della Moric è dato dal fatto che Einstein usa il pronome plurale quando si riferisce alle pubblicazioni di quegli anni.

Non si è ancora giunti a una posizione certa circa il suo contributo. Ciò di cui siamo a conoscenza è, però, la sua grande intelligenza che non ha potuto dar frutto a causa dell’epoca in cui viveva.

Proprio a causa di tale ingiustizia nel 2019 la fisica e scrittrice Gabriella Greison ha tentato di ottenere come riconoscimento ufficiale da parte dell’ETH la laurea postuma per Mileva Marić. Questo voleva essere un segno simbolico, a dimostrazione che i tempi sono cambiati. L’esito è stato, però, negativo. I motivi sarebbero: la mancanza di articoli che dimostrino che Mileva aveva i requisiti per laurearsi; la carenza di tracce delle sue conoscenze circa la fisica.

Altra considerazione fatta è stata che non esiste una trafila che possa darle una laurea. Lo staff, in comunicazione con Gabrielle Greison dice: “Certo potremmo inventarla, ma non è usuale: le regole ora sono che dopo aver avuto il sì unanime di tutti quelli della commissione, nessuno escluso, la persona premiata deve presentarsi alla festa di fine anno e in questo caso la cosa è irrealizzabile, no?”.

Nel 2022, la Greison ripropone la stessa domanda, grazie al cambio ai vertici del rettorato dell’ETH, riuscendo, questa volta nel suo intento.

Vediamo, quindi, come anche oggi non sia facile uscire dal buio in cui la società getta molte menti, soprattutto di donna. Possiamo ritenerci soddisfatti del piccolo riconoscimento ottenuto, ma ci rendiamo conto che affinché venga fatto un piccolo passo è necessario insistere tanto, a nostro parere, troppo.

Bibliografia

Alessia Sturniolo

 

Dagli studenti per gli studenti: fisica quantistica: contro natura?

La fisica quantistica consente di conoscere le leggi che regolano l’infinitamente piccolo giungendo a un intimo grado di comprensione della natura. Ci aspetteremmo una sorta di continuità con ciò che osserviamo nel mondo macroscopico, che il sostanziale funzionamento del mondo fosse il medesimo. Eppure non è così. Questi aspetti fanno emergere un’immagine opposta alle conoscenze della natura visibile. Siamo quindi si fronte a qualcosa “contro natura”?

Elenco dei contenuti

Funzione d’onda

 

Fluttuazione statistica della funzione d’onda. Fonte

 

La prima differenza nello studio della meccanica quantistica, rispetto a quella classica, la troviamo nell’approccio al sistema, ovvero l’ambiente in cui si svolge l’esperimento. Accade che la realtà può essere descritta da una equazione chiamata “funzione d’onda”. I modi per interpretare questa equazione differiscono da quelli conosciuti nella fisica classica. L’obiettivo dello studioso per descrivere il mondo quantistico è quello di ricavare l’evoluzione della funzione d’onda. Per consentire previsioni sperimentali bisogna ricorrere alla probabilità, poiché matematicamente è l’operazione che permette soluzioni accettabili. Questo perché ancora non ci è possibile ottenere soluzioni esatte da quest’equazione. La probabilità è una grandezza legata alla funzione d’onda stessa. Noi, dunque, non saremo mai in grado di predire dove si trovi la particella, ma sapremo con che probabilità potrebbe occupare una data posizione. La fisica classica c’insegna che possiamo descrivere ogni fenomeno con precisione. Qui, invece, la nostra conoscenza del sistema è differente in quanto non abbiamo più previsioni certe della realtà, ma si basa su dati statistici.

Onda corpuscolo

 

Natura delle particelle. Fonte

 

Le particelle hanno due nature: quella corpuscolare e quella ondulatoria. Ma come è possibile ciò? In fisica corpi e onde sono due oggetti profondamente distinti. La natura corpuscolare è propria dei corpi fisici dotati di massa: di essi si può determinare la posizione, la velocità e l’orientazione nello spazio. Al corpo è associata immediatamente l’idea di volume su cui si basa la definizione aristotelica: “Corpo è ciò che ha estensione in ogni direzione” (Aristotele, Fisica). Le onde, invece, sono perturbazioni che si propagano lungo una direzione trasportando energia o quantità di moto. L’onda appare come un fenomeno fisico “delocalizzato” rispetto alla particella che segue una traiettoria definita. Con l’avvento della meccanica quantistica, però, si assiste all’unificazione dei due fenomeni con l’introduzione del dualismo onda particella e del principio di complementarità. A livello microscopico, dunque, le particelle possiedono anche proprietà ondulatorie e certi tipi di onde possono essere trattate come corpi. Ciò nasce dalla differente risposta che la particella fornisce quando viene effettuato un esperimento singolo o un set con più ripetizioni. Nel primo caso si comporta come un corpo, nel secondo come un’onda. A mettere in luce questa doppia natura fu De Broglie associando alla particella lunghezza d’onda e frequenza, due grandezze tipicamente usate nella descrizione delle onde.

Esperimento di Davisson e Germer

 

Esperimento di Davidsson e Germer. Fonte

 

L’esperimento di Davisson–Germer fornì un’importante conferma dell’ipotesi di de Broglie circa la coesistenza di una doppia natura nelle particelle. L’esperimento consiste nel far incidere elettroni su un muro nel quale sono state praticate due fenditure. Al di là delle stesse, si trova uno schermo che consente di rilevare il punto colpito dalla particella. Il risultato mostra una figura di interferenza, ovvero un pattern diverso da quello previsto che prevede la sovrapposizione delle onde, tipicamente associato a fenomeni ondulatori. Se avessimo studiato delle particelle seguendo la fisica classica e non quella quantistica avremmo trovato una distribuzione statistica differente, ovvero una distribuzione gaussiana, anziché due in corrispondenza delle fenditure. Ciò avviene, però, finché non si sa da che fenditura passa la particella. Quando abbiamo quest’informazione la distribuzione statistica cambia. Ciò è dovuto al fatto che stiamo interagendo con il sistema e, di conseguenza, lo modifichiamo. Si tratta del collasso della funzione d’onda.

Funzioni d’onda. Fonte

Tale concetto è del tutto nuovo. In meccanica classica, infatti, la presenza o meno dello sperimentatore non modifica la natura dell’evento.

Gatto di Schrödinger

 

Esperimento di Shrodinger. Fonte

 

Questo nuovo concetto è espresso in maniera semplice dal paradosso del gatto di Schrödinger. Fu ideato da Erwin Schrödinger per illustrare il principio di incertezza della meccanica quantistica. Questo sostiene che è l’osservatore a determinare le caratteristiche della particella esaminata. Il suo scopo era evidenziare la debolezza di tale interpretazione, ma finì per diventarne uno dei più noti simboli poiché rappresenta in modo intuitivo gli aspetti più macchinosi della teoria. Supponiamo di avere un gatto chiuso in una scatola dove un meccanismo può fare o non fare da grilletto all’emissione di un gas velenoso. Per entrambe le situazioni la probabilità che il gatto viva o muoia è esattamente del 50%. Secondo Schrödinger fintanto che la scatola rimane chiusa il gatto si trova in uno stato indeterminato: sia vivo sia morto. Solo aprendo la scatola questa “sovrapposizione di stati” si risolverà. Può sembrare paradossale, ma il senso è che l’osservatore determina il risultato dell’osservazione stessa. Tale interpretazione della fisica ha portato a numerosi assunti che sembrano in completo contrasto con le evidenze che la realtà ci da ogni giorno. Si è giunti a chiedersi, vista l’importanza che la meccanica quantistica sembra conferire all’osservatore, se il mondo esisterebbe ugualmente anche se nessuno lo guardasse.

Conclusioni

Il mondo della meccanica quantistica è un continuo moto subatomico di cui conosciamo, tramite gli esperimenti, singoli istanti.  Questa piccola realtà sfugge. Le particelle saltano da una posizione all’altra o si trovano in uno stato di paradossale incertezza. La natura stessa di questa teoria è del tutto nuova e ci da un approccio alla realtà differente da quello a cui siamo abituati. Per questi motivi la sua interpretazione ancora oggi è causa di controversie. Ad ogni modo vale la pena sforzarsi per il piacere di conoscere e capire questo piccolo mondo oscillante.


Alessia Sturniolo

 

 

Bibliografia

Nobel per la fisica 2022: il segreto della disuguaglianza di Bell

Il Nobel per la Fisica 2022 è stato assegnato a Alain Aspect, John F. Clauser e Anton Zeilinger «per i loro esperimenti con l’entanglement dei fotoni, che hanno permesso di stabilire la violazione delle disuguaglianze di Bell e i lavori pionieristici nella scienza dell’informazione legata alla quantistica».
Se vuoi sapere di più sull’entanglement quantistico, l’abbiamo affrontato in un nostro precedente articolo.

Indice dei contenuti:

  1. Introduzione alla scoperta
  2. Teorema di Bell
  3. Il realismo locale
  4. Storia della scoperta
  5. Conclusioni
Fonte immagine: nobelprize.org

Introduzione alla scoperta

“Sono ancora un po’ scioccato, ma è uno shock molto positivo”, ha detto Zeilinger durante una conferenza stampa.
Tutti e tre i vincitori sono stati premiati per i loro contributi al lavoro sulla meccanica quantistica, che prevedeva esperimenti che utilizzavano fotoni, cioè particelle di luce entangled o connesse in un fenomeno che Albert Einstein ha notoriamente definito “azione spettrale a distanza“.
È stato dimostrato il teletrasporto quantistico per cui le informazioni possono essere trasmesse istantaneamente su distanze infinite.
“Einstein presume che la natura sia costituita da cose, distribuite nello spazio, inclusi frammenti di informazioni e simili. Sembra molto ragionevole. E, in effetti, la relatività generale si basa su questo. Quello che mostrano gli esperimenti è che non è vero”, ha detto Clauser martedì Non è possibile localizzare frammenti di informazioni in un volume piccolo e finito. Quel semplice risultato ha quindi applicazioni che si estendono alla crittografia quantistica e ad altre forme di teoria dell’informazione quantistica“.

Teorema di Bell

Ciascuno dei vincitori ha effettuato un test, nella vita reale, di un teorema matematico proposto per la prima volta dal fisico John Bell nel 1964, chiamato teorema di Bell. Esso tenta di capire se la meccanica quantistica è come il modello della palla da biliardo della meccanica newtoniana, in cui una cosa deve seguirne un’altra su scala locale o se le particelle separate da qualsiasi quantità di spazio possono influenzarsi a vicenda.
Il teorema di Bell mostra che la meccanica quantistica standard non è coerente con il realismo locale. Con ”realismo locale” si intende un principio molto generale che originariamente non si pensava potesse fare previsioni fisiche verificabili. Una parte importante dei suoi risultati è stata la dimostrazione che la disuguaglianza di Bell è implicita nel realismo locale, mentre le previsioni la violano.
Esperimenti come quello di Aspect hanno dimostrato che le disuguaglianze di Bell vengono violate nella realtà, confutando il realismo locale, in un modo coerente con la meccanica quantistica standard.

Il realismo locale

Il realismo locale afferma che ciò che accade in qualsiasi momento può essere direttamente influenzato dallo stato nelle sue immediate vicinanze, qualsiasi effetto a lungo raggio deve essere mediato da particelle o disturbi del campo che viaggiano a velocità (sub)luminali (superiori alla velocità della luce) e che tutto il comportamento sia deterministico.
Se le particelle entangled sono abbastanza distanti da poter eseguire misurazioni su entrambe in modo da garantire che gli eventi di misurazione siano separati da un intervallo simile allo spazio, il realismo locale richiederebbe che le particelle portino abbastanza variabili nascoste per predeterminare il risultato di ciascuna possibile misurazione. Questo perchè qualsiasi effetto di una misurazione non avrebbe il tempo di propagarsi all’altra per rafforzare le osservazioni correlate.

Le previsioni vengono ricavate dall’interpretazione standard a partire dallo stato del sistema ed dalle leggi di evoluzione dello stato casuali e non-locali. Le stesse previsioni non sono compatibili con una visione “realista” e “locale” dell’evoluzione dello stato utilizzato nella interpretazione standard. Si evince che lo stato è incompleto. Deduciamo un completamento dello stato che conduca alle stesse previsioni della interpretazione standard con leggi di evoluzione “realistiche” e “locali”. Alcuni fisici cercarono questo completamento attraverso le variabili nascoste. ©Jacopo Burgio

 

La proposta di Bell prevedeva la misurazione delle proprietà di due particelle entangled in un sistema isolato da qualsiasi altra cosa che potesse influenzare i risultati, come un osservatore che influenza inavvertitamente un partner entangled attraverso la misurazione, per vedere se superano un certo valore, creando una disuguaglianza matematica e dimostrando che gli effetti locali da soli non possono spiegare la meccanica quantistica.

Storia della scoperta

Nel 1972, John F. Clauser e il suo collega Stuart J. Freedman furono i primi a testare la disuguaglianza di Bell, misurando i fotoni entangled che provenivano dalle collisioni di atomi di calcio.
I dati di Clauser e Freedman sembravano violare la disuguaglianza di Bell, il primo esempio nel mondo reale a farlo, con un alto livello di accuratezza statistica. Ciò implica che la meccanica quantistica potrebbe davvero avere effetti non locali. Tuttavia, c’erano alcune scappatoie in questo esperimento che presentavano molte differenze rispetto all’idea originale di Bell.
Nel 1980, Alain Aspect e i suoi colleghi dell’Università di Paris-Saclay in Francia, sono riusciti a misurare nuovamente la disuguaglianza di Bell, con un grado di precisione molto maggiore e con meno dubbi, stimando la polarizzazione (o l’orientamento) di coppie di fotoni.
Il team ha utilizzato un dispositivo di commutazione casuale per decidere quale fotone misurare prima che venissero raggiunti i rivelatori. Ciò escludeva la possibilità che un osservatore avesse un effetto, come alcuni critici avevano pensato potesse verificarsi nell’esperimento di Clauser. Molti fisici ritenevano che le misurazioni di Aspect mettessero a tacere l’idea che la meccanica quantistica avesse azione locale.
Nel 1989, Anton Zeilinger dell’Università di Vienna e i suoi colleghi, hanno ampliato la disuguaglianza di Bell oltre due sole particelle entangled a uno stato di tre o più particelle entangled chiamato stato GHZ. Ciò costituisce un pilastro fondamentale per molte tecnologie quantistiche, incluso il calcolo quantistico, che può utilizzare gli stati GHZ per creare bit quantistici o qubit.

Conclusioni

Il fisico teorico Thors Hans Hansson e membro del Comitato Nobel per la fisica, durante la conferenza stampa, ha dichiarato: “Volevamo tornare indietro e onorare le persone che hanno gettato le basi per quella che sarebbe diventata [la scienza dell’informazione quantistica]”.
La teoria quantistica può essere strana e notoriamente astrusa, ma è fondamentale per la fisica moderna.
“Gli esperimenti pionieristicici hanno mostrato che lo strano mondo dell’entanglement e delle coppie di Bell non è solo il micromondo degli atomi , e certamente non il mondo virtuale della fantascienza o del misticismo, ma è il mondo reale in cui tutti viviamo”.

 

Gabriele Galletta

 

 

Bibliografia

https://www.nobelprize.org/prizes/physics/2022/popular-information/

Robot Melma: il nuovo materiale dalle proprietà innovative

Dalla Cina arriva il Robot Melma che promette di rivoluzionare la biomedicina attraverso l’utilizzo di un nuovo materiale. La nuova scoperta promette applicazioni in aree del corpo difficili da raggiungere e, di conseguenza, un notevole salto avanti nella ricerca medica e non solo.

Fonte: bgr.com
Indice dei contenuti

Cos’è e da cosa è costituito?

Come funziona

Possibili utilizzi

Quali sono i progetti e gli utilizzi futuri?

 

Cos’è e da cosa è costituito?

Dallo studio portato avanti dal Prof. Li Zhang e colleghi dell’Università cinese di Hong Kong, nasce un “robot morbido“, simile a uno slime, in grado di superare i limiti dei predecessori. Gli studiosi, previa considerazione e studio di progetti esistenti per verificare i limiti di molecole simili (esistevano già robot elastici in grado di manipolare oggetti e robot a base di fluidi  per di navigare in spazi ristretti), hanno creato uno slime con proprietà miste. Lo strumento è composto da particelle magnetiche al neodimio mescolate con borace e alcol polivinilico, un aggregato con proprietà viscoelastiche che si comporta come un liquido o un solido a seconda della forza che gli viene applicata (un tipico fluido newtoniano).

Come funziona

Lo slime viene controllato da magneti esterni che sfruttando le forze elettromagnetiche (forza che un corpo esercita su un altro a causa della presenza di cariche elettriche), generano un campo magnetico determinando così i suoi movimenti, potendosi allungare, accorciare e attorcigliare su se stesso.

Fonte: corriere.it

Utilizzi

Permette di inglobare e recuperare piccoli oggetti penetrati erroneamente nel corpo umano essendo in grado di attraversare canali superiori a 1.5mm di diametro. Infatti il team lo ha testato in vari scenari, come l’incapsulamento di una batteria in un modello di stomaco e, più in generale, la compressione e il movimento attraverso fessure di dimensioni millimetriche.
È anche un buon conduttore elettrico, per questo potrebbe essere utilizzato per “saldare” due terminali che si sono staccati, raggiungendoli all’interno dello strumento.

Fonte: www.smartworld.it

Quali sono i progetti e gli utilizzi futuri?

Il prototipo realizzato risulta al momento essere tossico a causa delle particelle ferromagnetiche. Tuttavia i ricercatori stanno già lavorando sulla versione 2.0 provando a ricoprirlo con uno strato protettivo di silice per isolarlo. Gli utilizzi futuri riguarderanno sia la biomedicina (rimozione di corpi estranei, trasporto di farmaci nel tratto gastrointestinale nel sito specifico) ma anche la tecnologia del futuro (riparazione di componenti elettroniche).
In futuro il team della CUHK prevede di voler cambiare il colore del loro robot, rendendolo più vivace e riconoscibile.

Livio Milazzo

Bibliografia

L’incredibile robot di «slime magnetico» che si muoverà dentro il corpo umano per recuperare oggetti- Corriere.it

Sembra Venom, ma è un robot fatto di melma magnetica che potrebbe salvarti la vita – greenMe

La melma cinese che può salvare la vita: afferra oggetti e guarisce da sola. Ecco come funziona (leggo.it)

La “melma magnetica robot” che potrebbe aiutare a recuperare gli oggetti inghiottiti | SmartWorld

È davvero possibile? Uno sguardo alla scienza dei supereroi

Non importa se sei giovane o vecchio, uno studente o un avvocato di famiglia praticante, i film sui supereroi sono divertenti, stimolanti e pieni di riferimenti scientifici, che sembrano rendere il film ancorato alla realtà. Tuttavia, non significa che ogni riferimento sia del tutto veritiero. Diamo un’occhiata più da vicino alla scienza dietro questo fantastico mondo.

   Indice dell’articolo:

Spider-Man ferma un treno in movimento

 

Spider-Man fa tutto ciò che un ragno può: ma la sua ragnatela sarebbe abbastanza forte da fermare un treno in movimento?

Fotogramma che ritrae la scena del film www.nerdburger.it

In questa scena, tratta dal film del 2004, l’arrampicamuri impedisce ad un treno sopraelevato in fuga di schiantarsi, lanciando una rete di ragnatele per rallentarlo. Quando l’abbiamo visto per la prima volta, siamo rimasti molto colpiti dalla resistenza alla trazione delle ragnatele.
Quanto sono forti davvero? Considerando la velocità del treno, le sue dimensioni, la massa, la distanza che ha percorso e quanta ragnatela è stata sparata, si può affermare che: affinché quel treno si fermi sui suoi binari, la ragnatela di Spidey dovrebbe avere una trazione di forza di 1.000 mega Pascal o 145.000 psi.

Studi scientifici

Gli studenti di fisica dell’Università di Leicester effettuando un calcolo,  hanno dimostrato che la forza della ragnatela di Spiderman è proporzionale a quella dei veri ragni. Inoltre, hanno scoperto che la forza che le ragnatele di Spider-Man esercitano sul treno è di 300.000 Newton e che il modulo di Young (o rigidità) delle stesse è pari a 3,12 giga Pascal. Questo è molto ragionevole per la seta di ragno, che varia da 1,5 giga Pascal a 12 giga Pascal nei ragni tessitori. La tenacità della ragnatela è stata calcolata in quasi 500 mega joule per metro cubo. Ciò risulta essere in linea con la ragnatela di un Darwin’s Bark Spider, un ragno tessitore che vanta la ragnatela più forte attualmente conosciuta.

Darwin’s Bark Spider

Il ragno

È stato concluso che la tessitura del supereroe è davvero un equivalente proporzionale di quella di un vero ragno e, di conseguenza, sarebbe possibile per lui fermare un treno in movimento. Analogamente, una ragnatela ridimensionata a un campo da calcio potrebbe facilmente fornire il lavoro per fermare un aereo in volo.
Alex Stone, 21 anni, uno degli studenti, ha affermato: “Si dice spesso che le ragnatele siano più forti dell’acciaio, quindi abbiamo pensato che sarebbe stato interessante vedere se ciò fosse vero per la versione ingrandita di Spiderman. Considerando l’argomento, siamo rimasti sorpresi di scoprire che la ragnatela è stata ritratta accuratamente.”
I ricercatori dell’Università del Wyoming hanno sviluppato un modo per incorporare i geni che filano la seta di ragno nelle capre. Sono stati in grado di raccogliere grandi quantità di proteine ​​della seta dal latte delle capre. Chissà se in futuro potremo avere un vero Peter Parker.

Entanglement quantistico

In Ant-Man and the Wasp, siamo stati introdotti al concetto di entanglement quantistico attraverso la connessione di Scott Lang con Janet Van Dyne. Si ritiene che la sua psiche si sia impigliata con quella di Janet, il che gli ha permesso di vederla attraverso se stesso.
L’entanglement quantistico è un fenomeno della meccanica quantistica in cui gli stati quantistici di due o più oggetti devono essere descritti in riferimento l’uno all’altro, anche se i singoli possono essere spazialmente separati. Ciò porta a correlazioni tra le proprietà fisiche osservabili dei sistemi.
Ad esempio, è possibile preparare due particelle in un unico stato quantistico, così che si possa osservare sempre da un lato uno spin-up e dall’altro uno spin-down e viceversa, nonostante sia impossibile prevedere quale insieme di misurazioni verrà osservato.

Rappresentazione dell’entanglement quantistico ©Jacopo Burgio


Di conseguenza, le misurazioni eseguite su un sistema sembrano influenzarne altri istantaneamente coinvolti con esso. Ma l’entanglement quantistico non consente la trasmissione di informazioni classiche più velocemente della velocità della luce.
Le correlazioni previste dalla meccanica quantistica, osservate sperimentalmente, rifiutano il principio del realismo locale, ovvero che le informazioni sullo stato di un sistema dovrebbero essere mediate solo dalle interazioni nelle sue immediate vicinanze.

Evidenze reali in fisica

La cosa interessante è che l’idea dell’entanglement quantistico è un fenomeno reale in fisica. Infatti, se un oggetto si sovrappone alle funzioni dell’onda quantistica di un altro oggetto, si parla di entangled. Pertanto, anche se le due entità fossero allontanate il più possibile senza ingarbugliarle, resterebbero connesse tra loro influenzandosi vicendevolmente.
L’entanglement quantistico ha applicazioni nelle tecnologie emergenti dell’informatica quantistica e della crittografia quantistica, ed è stato utilizzato per realizzare sperimentalmente il teletrasporto quantistico. Gli scienziati, oggi, stanno lavorando con questo principio nella speranza di creare un supercomputer quantistico.

L’armatura di Iron Man e il suo funzionamento

L’idea della tuta di Iron Man è plausibile e in qualche modo realistica. Il problema, tuttavia, è che la nostra attuale tecnologia non è così sviluppata da consentire le abilità mostrate da Tony Stark. Per volare Iron Man usa stivali da jet e raggi repulsori. Gli stivali jet forniscono la maggior parte della spinta necessaria tale da fargli raggiungere velocità supersoniche. I raggi repulsori, situati nei palmi delle mani, forniscono stabilità insieme a lembi dispiegabili posti in varie sezioni della tuta.

Rappresentazione dell’armatura di Iron Man ©Jacopo Burgio

La propulsione

La terza legge di Newton afferma che “per ogni forza c’è una forza uguale e contraria“. È proprio questo principio che fa avanzare gli aerei a reazione e i razzi che vanno sulla Luna. Affinché il razzo raggiunga la destinazione, ha bisogno di una forza opposta che sia più forte della gravità. In pratica, tale forza, si ottiene utilizzando gas ad alta velocità che vengono espulsi verso il basso.
Per Iron Man è la stessa cosa: affinché la tuta si muova verso l’alto, deve espellere i gas verso il basso. Questo sembra accadere nel momento in cui vediamo polvere e fogli di carta volare quando Iron Man è sospeso in aria, durante i primi test della sua tuta.

I gas

Ma da dove vengono quei gas? In un razzo, il gas è vapore acqueo che proviene dalla combustione dell’idrogeno e dell’ossigeno contenuto nel serbatoio del carburante, ma per Iron Man non c’è produzione di gas poiché la potenza dell’armatura deriva da un ordigno nucleare. Possiamo però notare alcune scie di fumo nero dietro la tuta volante: questo non è molto coerente.
Dal momento che non ci sono emissioni di gas con un reattore nucleare, rimane l’opzione dei turboreattori: un reattore che aspira l’aria dall’alto e la spinge verso il basso. Fondamentalmente è ciò che fanno gli elicotteri. Ma ancora una volta, questo non è possibile quando, nel primo film di Avengers, la tuta sta andando nello spazio dove non c’è aria per spingere o addirittura sott’acqua.

Propulsore ionico

L’unica opzione rimanente è quella di un propulsore ionico, che utilizza un elettromagnete per accelerare gli ioni (particelle cariche) e spingerli. Quindi, la propulsione del dispositivo è generata dalla spinta degli ioni. Questo potrebbe funzionare a patto che Stark abbia un’enorme riserva di ioni nella sua tuta e un propulsore ionico estremamente potente: una spinta tipica di un tale motore equivale a 50-250 millinewton, che è bassa quanto la forza di soffiare con la tua bocca!
Ci vorrebbero circa 4000 propulsori ionici per sollevare un uomo di 100 kg, senza alcuna corazza e senza le 500 tonnellate di carburante ionico che sarebbero necessarie a tutti questi propulsori.
L’ipotesi dell’utilizzo di un propulsore ionico non è quindi plausibile. Funzionano solo nello spazio, dove non c’è resistenza dell’aria: la spinta potrebbe essere molto bassa, ma se alimentata abbastanza a lungo, accumula la velocità e dopo alcuni giorni la navicella si muove a velocità letteralmente astronomiche.

L’alimentazione

Il problema, tuttavia, è l’energia necessaria per il volo sostenuto. Non solo volare in giro costa una notevole quantità di energia, ma anche la tuta stessa. Il computer con cui Stark parla (Jarvis) deve costantemente utilizzare tonnellate di energia oltre a quella necessaria per far muovere l’armatura. Una versione reale dell’armatura di Iron Man richiederebbe più energia di quella che può produrre una centrale nucleare. Ma le tecnologie di oggi non sono sicuramente a quel livello di complessità ed efficienza. Tanto è vero che lui utilizza come fonte di energia un reattore Arc, un reattore nucleare a fusione fredda, che abbiamo già trattato in un precedente articolo.

Considerazioni finali

Detto questo, la forza richiesta per dare sollevamento a un oggetto di diverse centinaia di libbre sarebbe considerevole. Con l’equazione F=ma, sappiamo che per accelerare l’oggetto la forza dovrebbe essere più forte. Di conseguenza, con il progredire del volo, l’accelerazione dovrebbe essere ancora continua se non più forte. Dato che l’energia che la tuta richiede è enorme e considerando la legge di conservazione dell’energia (nessuna energia può essere prodotta o distrutta), non è possibile avere abbastanza energia da produrre/convertire per l’uso dell’armatura.
Concludendo, la propulsione dell’armatura di Iron Man come viene fissata nei film rimane un mistero per la scienza, ma non ancora per molto. Infatti Adam Savage qualche anno fa, ha creato un prototipo funzionante dell’armatura formata da quattro minisuperturboreattori.

Conclusioni

I film sui supereroi ci hanno fatto e continueranno a farci sognare e ad essere fonte di ispirazione per la scienza. È solo questione di tempo che tutto ciò che non è ancora realtà, lo diventi.

Ogni grande progresso scientifico è scaturito da una nuova audace immaginazione.

 

Gabriele Galletta

Il Pi greco parla la lingua dell’Universo

π.

Sedicesima lettera dell’alfabeto greco, un piccolo carattere che rappresenta parte della nostra cultura.

Questo simbolo, infatti, racchiude in sé una storia lunga millenni, colma di pensieri e uomini che si sono impegnati per quantificarlo, dandogli nuovi significati.

Il pi greco assume un ruolo importante in ambito matematico. Questo simbolo indica, infatti, una costante cui è stato attribuito un valore numerico. Si tratta di un numero irrazionale (cioè decimale illimitato non periodico) e trascendente (non è radice di nessuna equazione algebrica a coefficienti interi).

Il valore approssimato del pi greco. Fonte: codiceedizioni.it

π è l’iniziale di περίμετρος (“perimetro”) ed esprime il rapporto tra la lunghezza di una circonferenza e il relativo diametro.

Il π attraversa la nostra storia

Lo studio del π inizia in Egitto e prosegue nel tentativo di determinarne un valore sempre più preciso.

La più antica documentazione esistente sull’argomento ci è stata lasciata da uno scriba di nome Ahmes. Si tratta del Papiro di Rhind. Lo scritto recita: “Togli 1/9 a un diametro e costruisci un quadrato sulla parte che ne rimane; questo quadrato ha la stessa area del cerchio”. Il testo di Ahmes implica che il rapporto tra circonferenza e diametro è pari a 3,16049. Questo valore si discosta di meno dell’1% da quello vero, testimoniando una notevole precisione per il tempo.

Le formule contenute nel Papiro Rhind rappresentano anche il primo caso documentato di un tentativo di “quadrare il cerchio”, ossia di costruire un quadrato con la stessa area del cerchio.

Frammento del Papiro di Rhind, 1650 a. C. Fonte: mediterraneoantico.it

Gli studi riguardanti la circonferenza furono ripresi nel quarto secolo a.C. dai greci.

Antifonte e Brisone di Eraclea, in particolare, tentarono di trovare l’area di un cerchio usando il principio di esaustione.

Archimede, un paio di secoli dopo, usò lo stesso metodo concentrandosi, però, sui perimetri anziché sulle aree. Stimò per la circonferenza una lunghezza compresa tra il perimetro di un poligono inscritto e uno circoscritto.
Archimede riuscì, quindi, stabilì che il π doveva trovarsi tra 3,1408 e 3,1428.
Successivamente  rese pubbliche le sue scoperte nel libro “Misura del cerchio”.

Parte della Scuola di Atene di Raffaello in cui viene rappresentato Archimede intento a disegnare un cerchio. Fonte: www.arte.it

Anche in Cina, molti matematici si prodigarono nel calcolo del valore del pi greco. L’astronomo Tsu Chung Chi e suo figlio, in particolare, dedicarono molti anni allo studio di questa costante. Usarono nei loro studi dei poligoni, inscritti nella circonferenza, con innumerevoli lati. L’operazione fu immane, ma gli permise di giungere a un risultato che si discosta dal valore reale solamente per una cifra su un miliardo.

Altro studioso interessatosi alla determinazione del valore di questa costante fu Ludolph Van Ceulen, il quale arrivò tramite il metodo di Archimede, incrementando, però, di molto il numero di lati, a calcolare 35 cifre decimali del π. Quando morì, nel 1610, decise di far incidere la nuova versione del π sulla sua tomba.

La tomba di Ludolph Van Ceulen. Fonte: Wikipedia.it

Dobbiamo aspettare l’avvento dei calcolatori moderni per avere a disposizione sempre più cifre decimali di questa costante. Il sito angio.net/pi, per esempio, ha un database che raccoglie 200 milioni di cifre del π ed è possibile inserire una combinazione di numeri per sapere dove questa si trova. Essendo un numero irrazionale, infatti, esso ha infinite cifre decimali che non si ripeteranno mai uguali ed è quindi possibile trovare una qualsiasi sequenza di numeri, da qualche parte, al suo interno.

Il fascino del π

Il pi greco, però, non è presente solo nella matematica e in tutte quelle scienze che se ne servono.  Rappresenta una costante della natura stessa. Lo ritroviamo nel pallone calciato in rete, nella ali degli aerei, nell’iride dei nostri occhi o, ancora, nella doppia spirale del DNA. È anche per questo che si continua lo studio sulle cifre decimali del pi greco (attualmente siamo arrivati a 5 mila miliardi di numeri dopo la virgola) nella ricerca di regolarità, sequenze ripetute o altre sorprese del numero.

È possibile, inoltre, trovarlo guardando le stelle in cielo. Lo ha fatto Robert Matthews, della University of Aston in Birmingham, combinando un set di dati astronomici con la teoria dei numeri. Matthews ha calcolato le distanze angolari tra le 100 stelle più luminose del cielo e le ha usate per generare un milione di coppie di numeri casuali, giungendo a stimare per il π un valore di 3,12772, che si discosta di appena lo 0,4% da quello reale.

Emerge anche dalle acque dei fiumi. Ad accorgersene è stato il matematico Hans-Henrik Stolum, che in uno lavoro pubblicato su Science nel 1996 ha analizzato la sinuosità di fiumi e torrenti, scoprendo che questi scorrono seguendo una geometria frattale, caratterizzata dall’“alternanza di configurazioni ordinate e configurazioni caotiche”. In particolare, è possibile approssimare il rapporto tra la lunghezza di un fiume dalla sorgente alla foce e quella in linea d’aria a pi greco. La sinuosità media di un fiume è, dunque, molto vicina a 3,14.

Nella matematica e nella fisica pi greco è praticamente ovunque. Compare all’interno di equazioni e formule fondamentali, nei moti ondosi, nel movimento dei pianeti, nelle collisioni tra le particelle elementari. Lo ritroviamo anche nella meccanica, nell’energia sprigionata dagli urti.

π: dalla fisica alla musica

Il π, in realtà, fa ormai parte anche della cultura pop moderna. Esiste, ad esempio, una disciplina sportiva, non ufficiale, che consiste nel decantare a memoria quante più cifre decimali del π. Akira Haraguchi, ingegnere giapponese, è il campione assoluto di questo sport. È riuscito a memorizzare ben 100.000 cifre.

Esiste anche uno stile di scrittura, chiamato Pilish, in cui la lunghezza delle parole utilizzate corrisponde alle cifre del π.

Esempio di pilish. Fonte: pbs.twimg.com

Un’iniziativa molto curiosa è stata, invece, quella di Daniel McDonald che ha tentato di riportare in musica le cifre del π. Ha creato la melodia associando un numero ad ogni nota nella Scala Armonica Minore di La.
Successivamente ha suonato la melodia con la sua mano destra mentre l’armonia veniva creata dalla sinistra.
È possibile trovare il video della composizione al seguente link: https://www.youtube.com/watch?v=OMq9he-5HUU.

Potremmo pensare di definire il pi greco come il compagno della nostra evoluzione, simbolo di progresso. Dalla prima intuizione ad oggi, il suo studio ci permette di comprendere meglio la realtà che ci circonda. Più scrutiamo a fondo, più notiamo una sorta di armonia nella natura che dal più piccolo elemento si ripercuote nei grandi corpi gassosi che soggiornano la volta celeste.
Quella stessa è presente anche in noi, piccola rappresentazione della complessità delle stelle, e in ogni petalo, nella curvatura di un onda. Il pi greco contribuisce a permetterci di capirla in un percorso che probabilmente sarà infinito, proprio come le sue cifre.

Alessia Sturniolo

Bibliografia

L’ombra di Chernobyl torna a far paura: il reattore si è davvero risvegliato?

La notte del 26 aprile 1986 presso la centrale nucleare di Chernobyl, nell’attuale Ucraina settentrionale, si è verificato quello che ancora oggi, dopo oltre trent’anni, è ritenuto il più disastroso degli incidenti nucleari mai verificatosi al mondo. Ma cosa accadde davvero quella notte? Facciamo un passo indietro.

Come funziona un reattore nucleare?

Un reattore nucleare è un sistema in grado di produrre energia mediante processi di fissione nucleare, cioè la separazione del nucleo di un atomo in due prodotti di fissione. Quando il nucleo di un atomo di grandi dimensioni, come quello dell’uranio, viene scisso in frammenti nucleari radioattivi, si libera un’energia davvero enorme. Essa è dovuta alla rottura dei legami generati nel nucleo da quella che in fisica nucleare viene definita la forza nucleare forte’, in grado, in condizioni di stabilità, di vincere le forze repulsive che si generano tra i protoni, e quindi di tenere unito il nucleo stesso.

 

Fissione nucleare – fonte: ecoage.it 

Bombardando di neutroni il nucleo di un atomo come l’uranio, e provocandone la scissione, vengono liberati ulteriori neutroni, che interverranno nella scissione successiva, e così via, generando una vera e propria reazione a catena.

Tali processi avvengono all’interno del nocciolo di un reattore, detto anche core, strutturato da un certo numero di elementi di combustibile nucleare, tipicamente appunto l’uranio. Per controllare le reazioni nucleari, vengono inoltre inserite nel nocciolo le cosiddette barre di controllo, costituite da materiali come il boro, o la grafite borata, che hanno la funzione di abbassarne la temperatura. Se tali barre vengono inserite nel core, infatti, il sistema è considerato spento. Man mano che vengono estratte invece, le reazioni iniziano a susseguirsi, ed il sistema a scaldarsi e produrre energia. Durante una così delicata dinamica è di vitale importanza raggiungere una condizione di equilibrio: è necessario cioè che il fattore di moltiplicazione, ossia il rapporto tra i neutroni presenti in una generazione di fissioni nucleari e quelli presenti nella successiva, rimanga pari ad 1. Più tale valore aumenta, più aumenterà la reattività.

Un altro parametro fondamentale per garantire la sicurezza dei processi di reazione nucleare è il coefficiente di vuoto, indice pari al rapporto tra il volume della parte di vapore e il volume della miscela di liquido/vapore, presenti nella zona attiva del reattore. Valori positivi indicano un incremento della reattività, viceversa valori negativi ne indicano una diminuzione. In un reattore come quello di Chernobyl, appartenente alla classe dei reattori RBMK, l’acqua non veniva utilizzata come moderatore delle reazioni nucleari (cioè per rallentare il flusso dei neutroni veloci), ma solo come fluido termovettore, in grado cioè di trasportare calore. Il coefficiente di vuoto, nella centrale nucleare di Chernobyl, era quindi essenzialmente un valore positivo.

 

Reattore nucleare – fonte: Wikipedia 

Cosa è successo a Chernobyl il giorno dell’incidente?

Questo fattore di rischio ha notevolmente contribuito all’avvento del terribile incidente, tuttavia il vero problema fu un altro. Durante quello che voleva essere un semplice test per verificare la capacità delle turbine di raffreddare il nocciolo del reattore, l’ingegnere capo Leonid Fëdorovič Toptunov, disinserisce volontariamente il sistema di raffreddamento di emergenza: la potenza del reattore passa dopo poco più di mezz’ora dai 30 MW ai 200MW. Le barre di raffreddamento a grafite vengono inserite solo per un terzo all’interno del nocciolo. Temperatura e pressione salgono alle stelle, saltano i tappi delle condutture di combustibile pesanti 350 kg, e si schiantano poco dopo sulle strutture dell’impianto. Si tenta il reinserimento delle barre di raffreddamento ma la manovra non ha successo: il reattore ormai ha raggiunto una potenza pari a 120 volte quella normale. Si verifica l’esplosione: un mostro di mille tonnellate di combustibile nucleare viene scagliato in aria, rilasciando una quantità incalcolabile di radiazioni nell’atmosfera. Il disastro è ormai avvenuto.

Reattore dopo l’esplosione – fonte: agi.it

Il “risveglio” del reattore

Sono passati ormai più di trent’anni dalla terribile catastrofe, ma l’incubo non sembra essere del tutto passato. E’ di pochi giorni fa infatti la notizia di un possibile risveglio del tristemente famoso reattore numero 4 di Chernobyl, palcoscenico del più grande disastro nucleare della storia. Sembrerebbe infatti che nella stanza 305/2 in cui precipitarono dopo l’esplosione 170 tonnellate di uranio radioattivo, i sensori abbiano rilevato un grande aumento di neutroni, dovuti alla presenza di reazioni nucleari autosostenute.

Le cause certe sono ancora ignote, tuttavia un’ipotesi imputa paradossalmente l’evento all’installazione del nuovo sarcofago, impiantato per confinare in sicurezza i materiali radioattivi. Nel 2016 è stata infatti sostituita la prima struttura, inserita subito dopo l’incidente nel 1986, con un colosso in acciaio, alto 110 metri e pesante ben 36.200 tonnellate. A differenza della prima struttura di confinamento, l’ultima è stata designata per scongiurare le infiltrazioni di acqua piovana all’interno del reattore: l’assenza di acqua tuttavia, potrebbe aver aumentato le probabilità dei neutroni di scontrarsi con l’uranio, generando le reazioni a catena di cui sopra. Dall’impiantazione del nuovo sarcofago, infatti, il numero dei neutroni registrato dai sensori è raddoppiato.

Il rischio non è, sottolinea Anatolii Doroshenko dell’Istituto ucraino per la sicurezza nucleare, così allarmante come quello del 1986; tuttavia è sufficiente a far temere un’esplosione che possa coinvolgere le zone non stabili dell’edificio, rilasciando polvere radioattiva nella struttura.

Il mondo dell’energia nucleare è certamente tanto affascinante quanto terrificante. Come in ogni ambito della scienza, però, la ricerca si evolverà, andrà avanti… e chissà quante altre sorprese ci riserverà in futuro.

 

Giulia Accetta 

L’influenza dell’uomo sull’Universo: dal principio antropico all’idea di multiverso

“Che cosa c’è in un nome? Ciò che noi chiamiamo con il nome di rosa, anche se lo chiamassimo con un altro nome, serberebbe pur sempre lo stesso dolce profumo.”

(W. Shakespeare, Romeo and Juliet)

https://www.cosediscienza.it/cosa-fatto-universo

Accade che di fronte ad alcune situazioni non si trovino le parole giuste, sebbene nella nostra mente ci sia un disegno ben preciso.
E ci sono momenti in cui viene meno anche quel disegno e sono insufficienti non solo le parole ma anche le risposte che vorremmo darci.
Quindi ci poniamo sempre più domande.

Da questo perpetuo domandarsi prendono vita varie teorie, alcune delle quali non ci appaiono neppure così nitide. Ma il bisogno di sapere è tanto da cercare responsi persino in quei luoghi difficili da raggiungere.

L’Universo: capiremo mai come sia nato? Perché sia nato? Perché esistiamo noi e non un’altra specie? Perché la Terra e non un altro pianeta?

Perché nasce il principio antropico?

Prima di spiegare cosa significhi principio antropico, concentriamoci sulle ragioni per cui si è sviluppato.

Perché tutto è così come lo vediamo e non in altro modo? E poi, l’Universo è così fatto per noi o indipendente da noi? In altri termini, la sua nascita si è verificata al fine della nostra esistenza o siamo solo un semplice effetto collaterale?

https://www.pinterest.it/pin/284641638920058010/

È questo che si chiedevano i primi ricercatori del “principio del tutto”. Tra questi Talete e Anassimandro.

Il primo riteneva che l’acqua fosse la materia primordiale, il principio divino che conteneva corpo e anima.
Per il secondo l’ἀρχή (principio) era l’ἄπειρον (infinito). Dall’infinito discendevano le esistenze e l’intero cosmo, dove tutto è regolato dal contrasto. Quello tra caldo e freddo fa disporre al centro la terra e l’acqua, il fuoco e l’aria in periferia. C’è un ordine.
Nella mente di Anassimandro vi era un’immortale estensione dello spazio, una radice cosmica infinita. In Talete tutto ha inizio da un elemento.

Si tratta solo di coincidenze?

Possiamo affermare che il principio antropico sosti a metà tra le due posizioni.

Qui l’infinito non è concepito come pensato da Anassimandro. Infatti, se tutto fosse infinito e quindi infinite fossero le possibilità esistenti, non dovremmo sorprenderci se tra queste vi sia un pianeta con vita al suo interno.

È un infinito entro certe norme. Ma è infinito perché le realtà in cui ci siano le condizioni che permettano la vita potrebbero essere infinite.

http://www.unariunwisdom.com/dna-and-the-holographic-universe/

Inoltre, così come Talete fondò le sue idee sull’elemento “acqua”, allo stesso modo a partire dalla seconda metà del Novecento i cosmologi cominciarono a domandarsi se fosse solamente un caso che il carbonio, l’elemento naturale origine della vita, richieda tempi lunghi per formarsi.

È forse solo una coincidenza che la fusione nucleare che avviene dentro le stelle, a seguito della loro esplosione, produca una quantità massiccia di carbonio pronto a fissarsi sulla superficie della Terra e far sì che si sviluppino forme di vita man mano sempre più complesse?
E ancora, è un caso che la Terra si trovi a una precisa distanza dal Sole cosicché il clima sia vivibile?

L’insieme di queste circostanze permette al pianeta di trovarsi in quella che si  chiama  “zona di abitabilità”.

Da Carter ai princìpi di Barrow e Tipler

Brandon Carter doveva essersi posto le medesime domande quando nel 1973 a Cracovia coniò l’espressione “principio antropico”, sostenendo che «[…] anche se la nostra situazione non è “centrale”, è inevitabilmente per certi versi privilegiata». Le leggi della fisica e le costanti cosmologiche sono necessariamente compatibili con l’esistenza umana, spostando l’ago della bussola verso una visione della Terra come nucleo primario.

Visualizza immagine di origine
https://campania.agesci.it/2018/11/uomo-universo/

Contro Copernico che, secondo Carter, aveva ridimensionato il ruolo fondamentale affidato al pianeta, e a favore di Giordano Bruno, per il quale i pianeti e gli astri ricoprivano tutti una posizione equivalente.

«Il principio antropico è l’idea che l’esistenza della vita (o più specificamente della vita umana) nell’Universo possa fissare vincoli ai caratteri dell’Universo attuale, e possa aver contribuito a far diventare l’Universo così com’è attualmente».

John Gribbin (“Companion to the Cosmos”, London, 1996)

Dalle stesse domande sono stati mossi John Barrow e Frank Tipler quando nel 1986 formularono la teoria del principio debole e del principio forte.
Secondo la prima, le quantità fisiche e cosmologiche e i fattori biologici sono subordinati alla richiesta che vi siano luoghi in cui la vita possa esistere.
Il principio forte aggiunge che le proprietà dell’Universo debbano essere tali da permettere lo sviluppo della vita in una certa fase della sua storia.

Secondo tali teorie, l’uomo non ha un ruolo marginale. Per i sostenitori del principio antropico è come se la sua mente e la mente dell’Universo viaggiassero insieme.

Immersi in un complesso di Universi

Nella cosmologia moderna si parla di “insieme” di Universi.
In tutta questa molteplicità ci saranno altri “domini” in cui potrebbero essere valide leggi fisiche diverse dalle nostre, domini a noi invisibili e lontani.

Si immagina uno spazio pluri-dimensionale in cui ogni possibile sito pullulante di vita sia collegato con gli altri attraverso cunicoli spazio-temporali.

Nel 1957 Hugh Everett III  sviluppò la sua formulazione del “multiworld”. In ogni momento esistono tutte le possibili varianti di sistemi dove ci sia vita umana.

https://noticiascuriosas.info/teoria-del-multiverso/

In ognuno ci sarà un osservatore che si domanderà se altri mondi e Universi esistano.
Quell’osservatore che per John Wheeler è essenziale, come dimostra con il suo “principio di partecipazione”. L’Universo esiste anche grazie alle osservazioni di chi ci abita.

Per finire, il fisico matematico Lee Smolin pensa a una “lotta cosmologica” in cui i nuovi Universi possono essere leggermente diversi dai vecchi Universi e in cui alla fine prevale chi sarà in grado di generare altri Universi simili a se stesso.

Probabilmente tutto appare poco realistico. Ma in fin dei conti quanto sappiamo?

Ciò che è possibile fare è continuare a porsi ancora tante, tantissime domande.

Giada Gangemi

Alla scoperta del Demone di LaPlace: colui che prevede il futuro

Nell’introduzione al suo Essai philosophique sur les probabilités del 1814, Pierre-Simon Laplace estese un’idea di Gottfried Leibniz che divenne famoso come Demone di Laplace. La definizione locus classicus di rigoroso determinismo fisico, con il suo unico possibile futuro.

Laplace disse:

“Possiamo considerare lo stato presente dell’universo come l’effetto del suo passato e la causa del suo futuro. Un intelletto che a un certo momento conoscerebbe tutte le forze che mettono in moto la natura e tutte le posizioni di tutti gli elementi di cui la natura è composto, se questo intelletto fosse anche abbastanza vasto da sottoporre questi dati all’analisi, abbraccerebbe in un’unica formula i movimenti dei corpi più grandi dell’universo e quelli del più piccolo atomo; per un tale intelletto nulla sarebbe incerto e il futuro proprio come il passato sarebbe presente davanti ai suoi occhi “.

Laplace postula una superintelligenza (il demone) che potrebbe conoscere le posizioni, le velocità e le forze su tutte le particelle dell’universo contemporaneamente, e quindi conoscere l’universo per tutti i tempi.

Quindi suppone che ogni particella segue esattamente una legge deterministica (classica) del moto. Se ottieni abbastanza informazioni, puoi effettivamente calcolare tutto il futuro che accadrà a questa particella. Per un sistema macroscopico costituito da un numero enorme di particelle, in teoria è possibile calcolare il destino di ogni singola particella e quindi fare previsioni valide per l’intero sistema.

Le critiche

Il concetto è stato criticato per la grande quantità di informazioni che sarebbero richieste, impraticabili se non impossibili da raccogliere istantaneamente. E dove sarebbero conservate le informazioni? Servirebbe in qualche parte dell’universo un regresso infinito per la memorizzazione delle informazioni.

Esperimento mentale

Immaginiamo l’esercizio come puramente mentale, che coinvolge solo l’idea di tale conoscenza. Possiamo vedere il demone come un sostituto secolare di un Dio onnisciente con perfetta preconoscenza.

Il punto di vista di Laplace implica che il passato e il presente contengono sempre esattamente la stessa conoscenza. Questo rende l’informazione una costante della natura. In effetti, alcuni matematici pensano che l’informazione sia una quantità conservata (la linea blu nella figura), come la conservazione della massa e dell’energia.

Rappresentazione visiva del punto di vista di LaPlace – ©Jacopo Burgio

Irreversibilità dell’entropia

Tuttavia, a metà del XIX secolo, Lord Kelvin (William Thomson) si rese conto che la seconda legge della termodinamica appena scoperta richiedeva che le informazioni non potessero essere costanti, ma sarebbero state distrutte con l’aumento irreversibile dell’entropia (disordine). Hermann Helmholtz l’ha descritta come la morte termica dell’universo.

In termini classici, non è che il destino del sistema non sia predeterminato, è principalmente perché abbiamo bisogno di una grande quantità di informazioni per fare i conti e questo semplicemente non è possibile per tutti gli scopi pratici (FAPP). Quindi dobbiamo omettere alcune informazioni.

I fisici, incluso Ludwig Boltzmann, descrissero l’entropia come “informazione persa“, sebbene molti matematici pensassero che le informazioni perse potessero essere recuperate (ad esempio, invertendo il tempo).

Rappresentazione visiva del punto di vista di Lord Kelvin – ©Jacopo Burgio

 

L’affermazione di Kelvin sarebbe corretta se l’universo fosse un sistema chiuso. Ma nel nostro universo aperto e in espansione, David Layzer ha mostrato che la massima entropia possibile aumenta più velocemente dell’entropia effettiva. La differenza tra la massima entropia possibile e l’entropia attuale è chiamata entropia negativa, aprendo la possibilità a strutture informative complesse e stabili.

Rappresentazione visiva del punto di vista di David Layzer – ©Jacopo Burgio

Indeterminazione Quantistica

A causa della sua assunzione canonica di determinismo , il demone di Laplace è incompatibile con l’interpretazione di Copenaghen , che prevede l’indeterminatezza.

Quindi ora possiamo dedurre che un Demone Laplace è impossibile, e per due ragioni distinte. La prima è che la fisica quantistica moderna è intrinsecamente indeterministica. Il futuro è solo probabilistico, sebbene possa essere “adeguatamente determinato“.

La seconda è che non ci sono abbastanza informazioni nel passato (nessuna nell’universo primordiale) per determinare il presente. Il “passato fisso” e le “leggi della naturanon predeterminano nulla. Allo stesso modo, le informazioni al momento attuale non determinano il futuro. Il futuro è aperto. Dobbiamo crearlo.

Ne consegue che il determinismo, l’idea filosofica secondo cui ogni evento o stato di cose, comprese ogni decisione e azione umana, è la conseguenza ineluttabile e necessaria di stati di cose antecedenti, non è vero.

Più precisamente, il determinismo, o la determinazione da alcuni eventi precedenti come cause, dovrebbe essere distinto dal predeterminismo del tempo di Laplace, l’idea che l’intero passato (così come il futuro) fosse determinato all’origine dell’universo.

Teoria del caos

Il ponte è probabilmente la teoria deterministica del caos. Come in questa teoria, qualsiasi incertezza nella condizione iniziale si gonfierà così rapidamente che ci perderemo completamente in breve tempo.

Per analogia, consideriamo un piccolo pezzo di sale il cui volume rappresenta le incertezze nella condizione iniziale, l’evoluzione di tale incertezza nel tempo. Se lo metto in acqua, rapidamente si dissolve e si mescola così finemente con il vasto volume d’acqua che non sai dire esattamente quale e quale, quindi devi ammettere che l’incertezza si è diffusa ovunque e ora tutta l’acqua è incerta. Questo è il cosiddetto “topologicamente misto“.

Tuttavia, se hai una risoluzione di osservazione infinita, sarai in grado di rintracciare dove vanno tutte le particelle di sale, quindi non c’è incertezza e ottieni ciò che fa il demone. Altrimenti, con minuscole limitazioni nella risoluzione, perdi tutte le informazioni.

Tieni presente che questa è solo un’analogia, in teoria (in termini classici) non hai bisogno di una risoluzione infinita, una risoluzione più fine della dimensione dell’atomo di sale funzionerebbe.

Conclusione

Ciò che le persone dovrebbero davvero trarre dall’esperimento mentale del demone di Laplace è che: in un universo deterministico, gli eventi portano a tutti gli altri eventi, inclusi i nostri pensieri e le nostre decisioni. Solo perché il demone di Laplace non può vedere il passato basandosi su una comprensione completa dello stato dell’universo, e anche se possono esserci o meno limitazioni alla previsione in avanti del demone, semplicemente non influenza il libero arbitrio che non esisterebbe comunque. Dopo tutto, il determinismo non implica necessariamente la prevedibilità, ma implica l’incompatibilità con la possibilità di fare diversamente, di propria iniziativa. L’idea del “libero arbitrio” che ha causato tanti problemi nel mondo. Idea che l’esperimento mentale del demone di Laplace ci aiuta a capire.

Il vero conflitto avviene solo nella meccanismo quantistico in cui l’entropia è definita come la traccia della matrice di densità. Quest’ultima è considerata (non TUTTI gli scienziati sono d’accordo) probabilisticamente “genuina”.

Per quanto riguarda qualsiasi potenziale evento non causato (data un’interpretazione quantistica indeterministica), sarebbe un enorme ostacolo per il demone di Laplace, e soprattutto se un tale evento ha voce in capitolo sui nostri pensieri o azioni, per la nostra stessa ostinazione e coerenza.

Gabriele Galletta