Mileva Marić: la scienziata perduta

Mileva Maric è stata una brillante studiosa. La sua intelligenza l’ha portata a ricoprire un ruolo importante nella storia della fisica. Per lungo tempo, tuttavia, è rimasta nell’ombra, rilegata al ruolo di prima moglie di Einstein. Oggi siamo finalmente pronti a ridarle la posizione che merita.

Elenco dei contenuti

Tra passioni e bigottismo: la formazione

Milena Maric nasce a Titel, allora parte dell’Impero astro ungarico, il 19 dicembre 1875. Sin dalla giovinezza il padre nota in lei una spiccata intelligenza, nonché una forte curiosità. Si impegna, dunque, a garantirle una buona istruzione, impresa non semplice in quanto lei è una donna. Quando la famiglia si trasferisce a Zagabria viene iscritta a un liceo di lingua tedesca dove, tuttavia, non può diplomarsi. Il suo amore per le materie scientifiche la porta a un nuovo spostamento. Questa volta la destinazione è la Svizzera. Si diploma a Zurigo riuscendo successivamente a superare l’esame di ammissione al Politecnico. Da qui ha inizio la sua carriera universitaria.

Nello stesso anno conosce Einstein, suo collega. I due legano rapidamente. Le loro intelligenze si potrebbero definire complementari: lei ha una buona padronanza del linguaggio matematico, nonché una grande conoscenza della fisica; lui è dotato di un buon intuito.

Moglie e madre ti vogliamo

Mileva Maric e Albert Einstein
https://www.enciclopediadelledonne.it

La relazione con Einstein procede e la Maric rimane incinta. Questo evento segna la fine della sua carriera universitaria. Si  presenta alla seduta di laurea col pancione, condizione inaccettabile per la commissione dell’epoca. Viene, infatti, bocciata. Suo marito, invece, si laurea, ma non viene assunto negli ambienti accademici. Trova, piuttosto, lavoro come impiegato dell’Ufficio Brevetti di Berna.

Nel 1904 nasce il secondo figlio, Hans, e Marić si adatta al ruolo che all’epoca le spettava. Il confronto intellettuale con il marito è, tuttavia, vivace. Sono questi gli anni in cui viene sviluppata la teoria della relatività alla quale non è escluso che lei abbia contribuito attivamente.

La carriera di Einstein raggiunge in questo periodo i suoi maggiori picchi. A seguito della rilevanza assunta dalle sue teorie gli viene consegnata una cattedra a Praga e poi a Berlino. Qui inizia, inoltre, la frequentazione con la cugina Elsa Löwenthal, con la quale ha una relazione extraconiugale che presto si trasforma in un nuovo matrimonio.

Ultimi dolorosi anni

Nel 1914 Einstein e Moric danno inizio a una lunga trattativa per il divorzio che si conclude dopo ben cinque anni. Particolarmente difficile è stabilire i termini di separazione relativi l’aspetto finanziario. Moric deve prendersi cura dei due figli avuti durante il matrimonio e, dunque, chiede un mantenimento. Einstein tenta, senza riuscirci, di omettere che la causa del divorzio risiede nel tradimento da lui perpetrato.

Gli ultimi anni di vita sono per Milena piuttosto tristi. Einstein e il figlio maggiore si trasferiscono in America a causa dell’instaurazione del regime fascista. Milena rimane, invece, in Svizzera, dove si occupa del figlio minore: Eduard. Il ragazzo soffre di schizofrenia e la madre passa il resto della vita a prendersi cura di lui.

Nel maggio del 1948 viene ricoverata a seguito di un ictus morendo il 4 agosto dello stesso anno all’età di 73 anni.

Una laurea sudata

Gabriella Greison e la sua battaglia per ottenere la laurea postuma https://greisonanatomy.com

La storia di Mileva Maric è riemersa negli anni novanta del secolo scorso a seguito della pubblicazione della corrispondenza privata tra lei e il marito.

Da allora si è aperta la discussione circa il contributo di Mileva ai lavori di Einstein. Tale indagine riguarda prevalentemente i quattro articoli pubblicati nel 1905. L’estrema velocità con cui Einstein li porta a termine, pur essendo impiegato all’Ufficio Brevetti, ha indotto molti a pensare che Mileva abbia contribuito.

Un altro possibile indizio dell’aiuto da parte della Moric è dato dal fatto che Einstein usa il pronome plurale quando si riferisce alle pubblicazioni di quegli anni.

Non si è ancora giunti a una posizione certa circa il suo contributo. Ciò di cui siamo a conoscenza è, però, la sua grande intelligenza che non ha potuto dar frutto a causa dell’epoca in cui viveva.

Proprio a causa di tale ingiustizia nel 2019 la fisica e scrittrice Gabriella Greison ha tentato di ottenere come riconoscimento ufficiale da parte dell’ETH la laurea postuma per Mileva Marić. Questo voleva essere un segno simbolico, a dimostrazione che i tempi sono cambiati. L’esito è stato, però, negativo. I motivi sarebbero: la mancanza di articoli che dimostrino che Mileva aveva i requisiti per laurearsi; la carenza di tracce delle sue conoscenze circa la fisica.

Altra considerazione fatta è stata che non esiste una trafila che possa darle una laurea. Lo staff, in comunicazione con Gabrielle Greison dice: “Certo potremmo inventarla, ma non è usuale: le regole ora sono che dopo aver avuto il sì unanime di tutti quelli della commissione, nessuno escluso, la persona premiata deve presentarsi alla festa di fine anno e in questo caso la cosa è irrealizzabile, no?”.

Nel 2022, la Greison ripropone la stessa domanda, grazie al cambio ai vertici del rettorato dell’ETH, riuscendo, questa volta nel suo intento.

Vediamo, quindi, come anche oggi non sia facile uscire dal buio in cui la società getta molte menti, soprattutto di donna. Possiamo ritenerci soddisfatti del piccolo riconoscimento ottenuto, ma ci rendiamo conto che affinché venga fatto un piccolo passo è necessario insistere tanto, a nostro parere, troppo.

Bibliografia

Alessia Sturniolo

 

Dagli studenti per gli studenti: fisica quantistica: contro natura?

La fisica quantistica consente di conoscere le leggi che regolano l’infinitamente piccolo giungendo a un intimo grado di comprensione della natura. Ci aspetteremmo una sorta di continuità con ciò che osserviamo nel mondo macroscopico, che il sostanziale funzionamento del mondo fosse il medesimo. Eppure non è così. Questi aspetti fanno emergere un’immagine opposta alle conoscenze della natura visibile. Siamo quindi si fronte a qualcosa “contro natura”?

Elenco dei contenuti

Funzione d’onda

 

Fluttuazione statistica della funzione d’onda. Fonte

 

La prima differenza nello studio della meccanica quantistica, rispetto a quella classica, la troviamo nell’approccio al sistema, ovvero l’ambiente in cui si svolge l’esperimento. Accade che la realtà può essere descritta da una equazione chiamata “funzione d’onda”. I modi per interpretare questa equazione differiscono da quelli conosciuti nella fisica classica. L’obiettivo dello studioso per descrivere il mondo quantistico è quello di ricavare l’evoluzione della funzione d’onda. Per consentire previsioni sperimentali bisogna ricorrere alla probabilità, poiché matematicamente è l’operazione che permette soluzioni accettabili. Questo perché ancora non ci è possibile ottenere soluzioni esatte da quest’equazione. La probabilità è una grandezza legata alla funzione d’onda stessa. Noi, dunque, non saremo mai in grado di predire dove si trovi la particella, ma sapremo con che probabilità potrebbe occupare una data posizione. La fisica classica c’insegna che possiamo descrivere ogni fenomeno con precisione. Qui, invece, la nostra conoscenza del sistema è differente in quanto non abbiamo più previsioni certe della realtà, ma si basa su dati statistici.

Onda corpuscolo

 

Natura delle particelle. Fonte

 

Le particelle hanno due nature: quella corpuscolare e quella ondulatoria. Ma come è possibile ciò? In fisica corpi e onde sono due oggetti profondamente distinti. La natura corpuscolare è propria dei corpi fisici dotati di massa: di essi si può determinare la posizione, la velocità e l’orientazione nello spazio. Al corpo è associata immediatamente l’idea di volume su cui si basa la definizione aristotelica: “Corpo è ciò che ha estensione in ogni direzione” (Aristotele, Fisica). Le onde, invece, sono perturbazioni che si propagano lungo una direzione trasportando energia o quantità di moto. L’onda appare come un fenomeno fisico “delocalizzato” rispetto alla particella che segue una traiettoria definita. Con l’avvento della meccanica quantistica, però, si assiste all’unificazione dei due fenomeni con l’introduzione del dualismo onda particella e del principio di complementarità. A livello microscopico, dunque, le particelle possiedono anche proprietà ondulatorie e certi tipi di onde possono essere trattate come corpi. Ciò nasce dalla differente risposta che la particella fornisce quando viene effettuato un esperimento singolo o un set con più ripetizioni. Nel primo caso si comporta come un corpo, nel secondo come un’onda. A mettere in luce questa doppia natura fu De Broglie associando alla particella lunghezza d’onda e frequenza, due grandezze tipicamente usate nella descrizione delle onde.

Esperimento di Davisson e Germer

 

Esperimento di Davidsson e Germer. Fonte

 

L’esperimento di Davisson–Germer fornì un’importante conferma dell’ipotesi di de Broglie circa la coesistenza di una doppia natura nelle particelle. L’esperimento consiste nel far incidere elettroni su un muro nel quale sono state praticate due fenditure. Al di là delle stesse, si trova uno schermo che consente di rilevare il punto colpito dalla particella. Il risultato mostra una figura di interferenza, ovvero un pattern diverso da quello previsto che prevede la sovrapposizione delle onde, tipicamente associato a fenomeni ondulatori. Se avessimo studiato delle particelle seguendo la fisica classica e non quella quantistica avremmo trovato una distribuzione statistica differente, ovvero una distribuzione gaussiana, anziché due in corrispondenza delle fenditure. Ciò avviene, però, finché non si sa da che fenditura passa la particella. Quando abbiamo quest’informazione la distribuzione statistica cambia. Ciò è dovuto al fatto che stiamo interagendo con il sistema e, di conseguenza, lo modifichiamo. Si tratta del collasso della funzione d’onda.

Funzioni d’onda. Fonte

Tale concetto è del tutto nuovo. In meccanica classica, infatti, la presenza o meno dello sperimentatore non modifica la natura dell’evento.

Gatto di Schrödinger

 

Esperimento di Shrodinger. Fonte

 

Questo nuovo concetto è espresso in maniera semplice dal paradosso del gatto di Schrödinger. Fu ideato da Erwin Schrödinger per illustrare il principio di incertezza della meccanica quantistica. Questo sostiene che è l’osservatore a determinare le caratteristiche della particella esaminata. Il suo scopo era evidenziare la debolezza di tale interpretazione, ma finì per diventarne uno dei più noti simboli poiché rappresenta in modo intuitivo gli aspetti più macchinosi della teoria. Supponiamo di avere un gatto chiuso in una scatola dove un meccanismo può fare o non fare da grilletto all’emissione di un gas velenoso. Per entrambe le situazioni la probabilità che il gatto viva o muoia è esattamente del 50%. Secondo Schrödinger fintanto che la scatola rimane chiusa il gatto si trova in uno stato indeterminato: sia vivo sia morto. Solo aprendo la scatola questa “sovrapposizione di stati” si risolverà. Può sembrare paradossale, ma il senso è che l’osservatore determina il risultato dell’osservazione stessa. Tale interpretazione della fisica ha portato a numerosi assunti che sembrano in completo contrasto con le evidenze che la realtà ci da ogni giorno. Si è giunti a chiedersi, vista l’importanza che la meccanica quantistica sembra conferire all’osservatore, se il mondo esisterebbe ugualmente anche se nessuno lo guardasse.

Conclusioni

Il mondo della meccanica quantistica è un continuo moto subatomico di cui conosciamo, tramite gli esperimenti, singoli istanti.  Questa piccola realtà sfugge. Le particelle saltano da una posizione all’altra o si trovano in uno stato di paradossale incertezza. La natura stessa di questa teoria è del tutto nuova e ci da un approccio alla realtà differente da quello a cui siamo abituati. Per questi motivi la sua interpretazione ancora oggi è causa di controversie. Ad ogni modo vale la pena sforzarsi per il piacere di conoscere e capire questo piccolo mondo oscillante.


Alessia Sturniolo

 

 

Bibliografia

Nobel per la fisica 2022: il segreto della disuguaglianza di Bell

Il Nobel per la Fisica 2022 è stato assegnato a Alain Aspect, John F. Clauser e Anton Zeilinger «per i loro esperimenti con l’entanglement dei fotoni, che hanno permesso di stabilire la violazione delle disuguaglianze di Bell e i lavori pionieristici nella scienza dell’informazione legata alla quantistica».
Se vuoi sapere di più sull’entanglement quantistico, l’abbiamo affrontato in un nostro precedente articolo.

Indice dei contenuti:

  1. Introduzione alla scoperta
  2. Teorema di Bell
  3. Il realismo locale
  4. Storia della scoperta
  5. Conclusioni
Fonte immagine: nobelprize.org

Introduzione alla scoperta

“Sono ancora un po’ scioccato, ma è uno shock molto positivo”, ha detto Zeilinger durante una conferenza stampa.
Tutti e tre i vincitori sono stati premiati per i loro contributi al lavoro sulla meccanica quantistica, che prevedeva esperimenti che utilizzavano fotoni, cioè particelle di luce entangled o connesse in un fenomeno che Albert Einstein ha notoriamente definito “azione spettrale a distanza“.
È stato dimostrato il teletrasporto quantistico per cui le informazioni possono essere trasmesse istantaneamente su distanze infinite.
“Einstein presume che la natura sia costituita da cose, distribuite nello spazio, inclusi frammenti di informazioni e simili. Sembra molto ragionevole. E, in effetti, la relatività generale si basa su questo. Quello che mostrano gli esperimenti è che non è vero”, ha detto Clauser martedì Non è possibile localizzare frammenti di informazioni in un volume piccolo e finito. Quel semplice risultato ha quindi applicazioni che si estendono alla crittografia quantistica e ad altre forme di teoria dell’informazione quantistica“.

Teorema di Bell

Ciascuno dei vincitori ha effettuato un test, nella vita reale, di un teorema matematico proposto per la prima volta dal fisico John Bell nel 1964, chiamato teorema di Bell. Esso tenta di capire se la meccanica quantistica è come il modello della palla da biliardo della meccanica newtoniana, in cui una cosa deve seguirne un’altra su scala locale o se le particelle separate da qualsiasi quantità di spazio possono influenzarsi a vicenda.
Il teorema di Bell mostra che la meccanica quantistica standard non è coerente con il realismo locale. Con ”realismo locale” si intende un principio molto generale che originariamente non si pensava potesse fare previsioni fisiche verificabili. Una parte importante dei suoi risultati è stata la dimostrazione che la disuguaglianza di Bell è implicita nel realismo locale, mentre le previsioni la violano.
Esperimenti come quello di Aspect hanno dimostrato che le disuguaglianze di Bell vengono violate nella realtà, confutando il realismo locale, in un modo coerente con la meccanica quantistica standard.

Il realismo locale

Il realismo locale afferma che ciò che accade in qualsiasi momento può essere direttamente influenzato dallo stato nelle sue immediate vicinanze, qualsiasi effetto a lungo raggio deve essere mediato da particelle o disturbi del campo che viaggiano a velocità (sub)luminali (superiori alla velocità della luce) e che tutto il comportamento sia deterministico.
Se le particelle entangled sono abbastanza distanti da poter eseguire misurazioni su entrambe in modo da garantire che gli eventi di misurazione siano separati da un intervallo simile allo spazio, il realismo locale richiederebbe che le particelle portino abbastanza variabili nascoste per predeterminare il risultato di ciascuna possibile misurazione. Questo perchè qualsiasi effetto di una misurazione non avrebbe il tempo di propagarsi all’altra per rafforzare le osservazioni correlate.

Le previsioni vengono ricavate dall’interpretazione standard a partire dallo stato del sistema ed dalle leggi di evoluzione dello stato casuali e non-locali. Le stesse previsioni non sono compatibili con una visione “realista” e “locale” dell’evoluzione dello stato utilizzato nella interpretazione standard. Si evince che lo stato è incompleto. Deduciamo un completamento dello stato che conduca alle stesse previsioni della interpretazione standard con leggi di evoluzione “realistiche” e “locali”. Alcuni fisici cercarono questo completamento attraverso le variabili nascoste. ©Jacopo Burgio

 

La proposta di Bell prevedeva la misurazione delle proprietà di due particelle entangled in un sistema isolato da qualsiasi altra cosa che potesse influenzare i risultati, come un osservatore che influenza inavvertitamente un partner entangled attraverso la misurazione, per vedere se superano un certo valore, creando una disuguaglianza matematica e dimostrando che gli effetti locali da soli non possono spiegare la meccanica quantistica.

Storia della scoperta

Nel 1972, John F. Clauser e il suo collega Stuart J. Freedman furono i primi a testare la disuguaglianza di Bell, misurando i fotoni entangled che provenivano dalle collisioni di atomi di calcio.
I dati di Clauser e Freedman sembravano violare la disuguaglianza di Bell, il primo esempio nel mondo reale a farlo, con un alto livello di accuratezza statistica. Ciò implica che la meccanica quantistica potrebbe davvero avere effetti non locali. Tuttavia, c’erano alcune scappatoie in questo esperimento che presentavano molte differenze rispetto all’idea originale di Bell.
Nel 1980, Alain Aspect e i suoi colleghi dell’Università di Paris-Saclay in Francia, sono riusciti a misurare nuovamente la disuguaglianza di Bell, con un grado di precisione molto maggiore e con meno dubbi, stimando la polarizzazione (o l’orientamento) di coppie di fotoni.
Il team ha utilizzato un dispositivo di commutazione casuale per decidere quale fotone misurare prima che venissero raggiunti i rivelatori. Ciò escludeva la possibilità che un osservatore avesse un effetto, come alcuni critici avevano pensato potesse verificarsi nell’esperimento di Clauser. Molti fisici ritenevano che le misurazioni di Aspect mettessero a tacere l’idea che la meccanica quantistica avesse azione locale.
Nel 1989, Anton Zeilinger dell’Università di Vienna e i suoi colleghi, hanno ampliato la disuguaglianza di Bell oltre due sole particelle entangled a uno stato di tre o più particelle entangled chiamato stato GHZ. Ciò costituisce un pilastro fondamentale per molte tecnologie quantistiche, incluso il calcolo quantistico, che può utilizzare gli stati GHZ per creare bit quantistici o qubit.

Conclusioni

Il fisico teorico Thors Hans Hansson e membro del Comitato Nobel per la fisica, durante la conferenza stampa, ha dichiarato: “Volevamo tornare indietro e onorare le persone che hanno gettato le basi per quella che sarebbe diventata [la scienza dell’informazione quantistica]”.
La teoria quantistica può essere strana e notoriamente astrusa, ma è fondamentale per la fisica moderna.
“Gli esperimenti pionieristicici hanno mostrato che lo strano mondo dell’entanglement e delle coppie di Bell non è solo il micromondo degli atomi , e certamente non il mondo virtuale della fantascienza o del misticismo, ma è il mondo reale in cui tutti viviamo”.

 

Gabriele Galletta

 

 

Bibliografia

https://www.nobelprize.org/prizes/physics/2022/popular-information/

Robot Melma: il nuovo materiale dalle proprietà innovative

Dalla Cina arriva il Robot Melma che promette di rivoluzionare la biomedicina attraverso l’utilizzo di un nuovo materiale. La nuova scoperta promette applicazioni in aree del corpo difficili da raggiungere e, di conseguenza, un notevole salto avanti nella ricerca medica e non solo.

Fonte: bgr.com
Indice dei contenuti

Cos’è e da cosa è costituito?

Come funziona

Possibili utilizzi

Quali sono i progetti e gli utilizzi futuri?

 

Cos’è e da cosa è costituito?

Dallo studio portato avanti dal Prof. Li Zhang e colleghi dell’Università cinese di Hong Kong, nasce un “robot morbido“, simile a uno slime, in grado di superare i limiti dei predecessori. Gli studiosi, previa considerazione e studio di progetti esistenti per verificare i limiti di molecole simili (esistevano già robot elastici in grado di manipolare oggetti e robot a base di fluidi  per di navigare in spazi ristretti), hanno creato uno slime con proprietà miste. Lo strumento è composto da particelle magnetiche al neodimio mescolate con borace e alcol polivinilico, un aggregato con proprietà viscoelastiche che si comporta come un liquido o un solido a seconda della forza che gli viene applicata (un tipico fluido newtoniano).

Come funziona

Lo slime viene controllato da magneti esterni che sfruttando le forze elettromagnetiche (forza che un corpo esercita su un altro a causa della presenza di cariche elettriche), generano un campo magnetico determinando così i suoi movimenti, potendosi allungare, accorciare e attorcigliare su se stesso.

Fonte: corriere.it

Utilizzi

Permette di inglobare e recuperare piccoli oggetti penetrati erroneamente nel corpo umano essendo in grado di attraversare canali superiori a 1.5mm di diametro. Infatti il team lo ha testato in vari scenari, come l’incapsulamento di una batteria in un modello di stomaco e, più in generale, la compressione e il movimento attraverso fessure di dimensioni millimetriche.
È anche un buon conduttore elettrico, per questo potrebbe essere utilizzato per “saldare” due terminali che si sono staccati, raggiungendoli all’interno dello strumento.

Fonte: www.smartworld.it

Quali sono i progetti e gli utilizzi futuri?

Il prototipo realizzato risulta al momento essere tossico a causa delle particelle ferromagnetiche. Tuttavia i ricercatori stanno già lavorando sulla versione 2.0 provando a ricoprirlo con uno strato protettivo di silice per isolarlo. Gli utilizzi futuri riguarderanno sia la biomedicina (rimozione di corpi estranei, trasporto di farmaci nel tratto gastrointestinale nel sito specifico) ma anche la tecnologia del futuro (riparazione di componenti elettroniche).
In futuro il team della CUHK prevede di voler cambiare il colore del loro robot, rendendolo più vivace e riconoscibile.

Livio Milazzo

Bibliografia

L’incredibile robot di «slime magnetico» che si muoverà dentro il corpo umano per recuperare oggetti- Corriere.it

Sembra Venom, ma è un robot fatto di melma magnetica che potrebbe salvarti la vita – greenMe

La melma cinese che può salvare la vita: afferra oggetti e guarisce da sola. Ecco come funziona (leggo.it)

La “melma magnetica robot” che potrebbe aiutare a recuperare gli oggetti inghiottiti | SmartWorld

È davvero possibile? Uno sguardo alla scienza dei supereroi

Non importa se sei giovane o vecchio, uno studente o un avvocato di famiglia praticante, i film sui supereroi sono divertenti, stimolanti e pieni di riferimenti scientifici, che sembrano rendere il film ancorato alla realtà. Tuttavia, non significa che ogni riferimento sia del tutto veritiero. Diamo un’occhiata più da vicino alla scienza dietro questo fantastico mondo.

   Indice dell’articolo:

Spider-Man ferma un treno in movimento

 

Spider-Man fa tutto ciò che un ragno può: ma la sua ragnatela sarebbe abbastanza forte da fermare un treno in movimento?

Fotogramma che ritrae la scena del film www.nerdburger.it

In questa scena, tratta dal film del 2004, l’arrampicamuri impedisce ad un treno sopraelevato in fuga di schiantarsi, lanciando una rete di ragnatele per rallentarlo. Quando l’abbiamo visto per la prima volta, siamo rimasti molto colpiti dalla resistenza alla trazione delle ragnatele.
Quanto sono forti davvero? Considerando la velocità del treno, le sue dimensioni, la massa, la distanza che ha percorso e quanta ragnatela è stata sparata, si può affermare che: affinché quel treno si fermi sui suoi binari, la ragnatela di Spidey dovrebbe avere una trazione di forza di 1.000 mega Pascal o 145.000 psi.

Studi scientifici

Gli studenti di fisica dell’Università di Leicester effettuando un calcolo,  hanno dimostrato che la forza della ragnatela di Spiderman è proporzionale a quella dei veri ragni. Inoltre, hanno scoperto che la forza che le ragnatele di Spider-Man esercitano sul treno è di 300.000 Newton e che il modulo di Young (o rigidità) delle stesse è pari a 3,12 giga Pascal. Questo è molto ragionevole per la seta di ragno, che varia da 1,5 giga Pascal a 12 giga Pascal nei ragni tessitori. La tenacità della ragnatela è stata calcolata in quasi 500 mega joule per metro cubo. Ciò risulta essere in linea con la ragnatela di un Darwin’s Bark Spider, un ragno tessitore che vanta la ragnatela più forte attualmente conosciuta.

Darwin’s Bark Spider

Il ragno

È stato concluso che la tessitura del supereroe è davvero un equivalente proporzionale di quella di un vero ragno e, di conseguenza, sarebbe possibile per lui fermare un treno in movimento. Analogamente, una ragnatela ridimensionata a un campo da calcio potrebbe facilmente fornire il lavoro per fermare un aereo in volo.
Alex Stone, 21 anni, uno degli studenti, ha affermato: “Si dice spesso che le ragnatele siano più forti dell’acciaio, quindi abbiamo pensato che sarebbe stato interessante vedere se ciò fosse vero per la versione ingrandita di Spiderman. Considerando l’argomento, siamo rimasti sorpresi di scoprire che la ragnatela è stata ritratta accuratamente.”
I ricercatori dell’Università del Wyoming hanno sviluppato un modo per incorporare i geni che filano la seta di ragno nelle capre. Sono stati in grado di raccogliere grandi quantità di proteine ​​della seta dal latte delle capre. Chissà se in futuro potremo avere un vero Peter Parker.

Entanglement quantistico

In Ant-Man and the Wasp, siamo stati introdotti al concetto di entanglement quantistico attraverso la connessione di Scott Lang con Janet Van Dyne. Si ritiene che la sua psiche si sia impigliata con quella di Janet, il che gli ha permesso di vederla attraverso se stesso.
L’entanglement quantistico è un fenomeno della meccanica quantistica in cui gli stati quantistici di due o più oggetti devono essere descritti in riferimento l’uno all’altro, anche se i singoli possono essere spazialmente separati. Ciò porta a correlazioni tra le proprietà fisiche osservabili dei sistemi.
Ad esempio, è possibile preparare due particelle in un unico stato quantistico, così che si possa osservare sempre da un lato uno spin-up e dall’altro uno spin-down e viceversa, nonostante sia impossibile prevedere quale insieme di misurazioni verrà osservato.

Rappresentazione dell’entanglement quantistico ©Jacopo Burgio


Di conseguenza, le misurazioni eseguite su un sistema sembrano influenzarne altri istantaneamente coinvolti con esso. Ma l’entanglement quantistico non consente la trasmissione di informazioni classiche più velocemente della velocità della luce.
Le correlazioni previste dalla meccanica quantistica, osservate sperimentalmente, rifiutano il principio del realismo locale, ovvero che le informazioni sullo stato di un sistema dovrebbero essere mediate solo dalle interazioni nelle sue immediate vicinanze.

Evidenze reali in fisica

La cosa interessante è che l’idea dell’entanglement quantistico è un fenomeno reale in fisica. Infatti, se un oggetto si sovrappone alle funzioni dell’onda quantistica di un altro oggetto, si parla di entangled. Pertanto, anche se le due entità fossero allontanate il più possibile senza ingarbugliarle, resterebbero connesse tra loro influenzandosi vicendevolmente.
L’entanglement quantistico ha applicazioni nelle tecnologie emergenti dell’informatica quantistica e della crittografia quantistica, ed è stato utilizzato per realizzare sperimentalmente il teletrasporto quantistico. Gli scienziati, oggi, stanno lavorando con questo principio nella speranza di creare un supercomputer quantistico.

L’armatura di Iron Man e il suo funzionamento

L’idea della tuta di Iron Man è plausibile e in qualche modo realistica. Il problema, tuttavia, è che la nostra attuale tecnologia non è così sviluppata da consentire le abilità mostrate da Tony Stark. Per volare Iron Man usa stivali da jet e raggi repulsori. Gli stivali jet forniscono la maggior parte della spinta necessaria tale da fargli raggiungere velocità supersoniche. I raggi repulsori, situati nei palmi delle mani, forniscono stabilità insieme a lembi dispiegabili posti in varie sezioni della tuta.

Rappresentazione dell’armatura di Iron Man ©Jacopo Burgio

La propulsione

La terza legge di Newton afferma che “per ogni forza c’è una forza uguale e contraria“. È proprio questo principio che fa avanzare gli aerei a reazione e i razzi che vanno sulla Luna. Affinché il razzo raggiunga la destinazione, ha bisogno di una forza opposta che sia più forte della gravità. In pratica, tale forza, si ottiene utilizzando gas ad alta velocità che vengono espulsi verso il basso.
Per Iron Man è la stessa cosa: affinché la tuta si muova verso l’alto, deve espellere i gas verso il basso. Questo sembra accadere nel momento in cui vediamo polvere e fogli di carta volare quando Iron Man è sospeso in aria, durante i primi test della sua tuta.

I gas

Ma da dove vengono quei gas? In un razzo, il gas è vapore acqueo che proviene dalla combustione dell’idrogeno e dell’ossigeno contenuto nel serbatoio del carburante, ma per Iron Man non c’è produzione di gas poiché la potenza dell’armatura deriva da un ordigno nucleare. Possiamo però notare alcune scie di fumo nero dietro la tuta volante: questo non è molto coerente.
Dal momento che non ci sono emissioni di gas con un reattore nucleare, rimane l’opzione dei turboreattori: un reattore che aspira l’aria dall’alto e la spinge verso il basso. Fondamentalmente è ciò che fanno gli elicotteri. Ma ancora una volta, questo non è possibile quando, nel primo film di Avengers, la tuta sta andando nello spazio dove non c’è aria per spingere o addirittura sott’acqua.

Propulsore ionico

L’unica opzione rimanente è quella di un propulsore ionico, che utilizza un elettromagnete per accelerare gli ioni (particelle cariche) e spingerli. Quindi, la propulsione del dispositivo è generata dalla spinta degli ioni. Questo potrebbe funzionare a patto che Stark abbia un’enorme riserva di ioni nella sua tuta e un propulsore ionico estremamente potente: una spinta tipica di un tale motore equivale a 50-250 millinewton, che è bassa quanto la forza di soffiare con la tua bocca!
Ci vorrebbero circa 4000 propulsori ionici per sollevare un uomo di 100 kg, senza alcuna corazza e senza le 500 tonnellate di carburante ionico che sarebbero necessarie a tutti questi propulsori.
L’ipotesi dell’utilizzo di un propulsore ionico non è quindi plausibile. Funzionano solo nello spazio, dove non c’è resistenza dell’aria: la spinta potrebbe essere molto bassa, ma se alimentata abbastanza a lungo, accumula la velocità e dopo alcuni giorni la navicella si muove a velocità letteralmente astronomiche.

L’alimentazione

Il problema, tuttavia, è l’energia necessaria per il volo sostenuto. Non solo volare in giro costa una notevole quantità di energia, ma anche la tuta stessa. Il computer con cui Stark parla (Jarvis) deve costantemente utilizzare tonnellate di energia oltre a quella necessaria per far muovere l’armatura. Una versione reale dell’armatura di Iron Man richiederebbe più energia di quella che può produrre una centrale nucleare. Ma le tecnologie di oggi non sono sicuramente a quel livello di complessità ed efficienza. Tanto è vero che lui utilizza come fonte di energia un reattore Arc, un reattore nucleare a fusione fredda, che abbiamo già trattato in un precedente articolo.

Considerazioni finali

Detto questo, la forza richiesta per dare sollevamento a un oggetto di diverse centinaia di libbre sarebbe considerevole. Con l’equazione F=ma, sappiamo che per accelerare l’oggetto la forza dovrebbe essere più forte. Di conseguenza, con il progredire del volo, l’accelerazione dovrebbe essere ancora continua se non più forte. Dato che l’energia che la tuta richiede è enorme e considerando la legge di conservazione dell’energia (nessuna energia può essere prodotta o distrutta), non è possibile avere abbastanza energia da produrre/convertire per l’uso dell’armatura.
Concludendo, la propulsione dell’armatura di Iron Man come viene fissata nei film rimane un mistero per la scienza, ma non ancora per molto. Infatti Adam Savage qualche anno fa, ha creato un prototipo funzionante dell’armatura formata da quattro minisuperturboreattori.

Conclusioni

I film sui supereroi ci hanno fatto e continueranno a farci sognare e ad essere fonte di ispirazione per la scienza. È solo questione di tempo che tutto ciò che non è ancora realtà, lo diventi.

Ogni grande progresso scientifico è scaturito da una nuova audace immaginazione.

 

Gabriele Galletta

Il Pi greco parla la lingua dell’Universo

π.

Sedicesima lettera dell’alfabeto greco, un piccolo carattere che rappresenta parte della nostra cultura.

Questo simbolo, infatti, racchiude in sé una storia lunga millenni, colma di pensieri e uomini che si sono impegnati per quantificarlo, dandogli nuovi significati.

Il pi greco assume un ruolo importante in ambito matematico. Questo simbolo indica, infatti, una costante cui è stato attribuito un valore numerico. Si tratta di un numero irrazionale (cioè decimale illimitato non periodico) e trascendente (non è radice di nessuna equazione algebrica a coefficienti interi).

Il valore approssimato del pi greco. Fonte: codiceedizioni.it

π è l’iniziale di περίμετρος (“perimetro”) ed esprime il rapporto tra la lunghezza di una circonferenza e il relativo diametro.

Il π attraversa la nostra storia

Lo studio del π inizia in Egitto e prosegue nel tentativo di determinarne un valore sempre più preciso.

La più antica documentazione esistente sull’argomento ci è stata lasciata da uno scriba di nome Ahmes. Si tratta del Papiro di Rhind. Lo scritto recita: “Togli 1/9 a un diametro e costruisci un quadrato sulla parte che ne rimane; questo quadrato ha la stessa area del cerchio”. Il testo di Ahmes implica che il rapporto tra circonferenza e diametro è pari a 3,16049. Questo valore si discosta di meno dell’1% da quello vero, testimoniando una notevole precisione per il tempo.

Le formule contenute nel Papiro Rhind rappresentano anche il primo caso documentato di un tentativo di “quadrare il cerchio”, ossia di costruire un quadrato con la stessa area del cerchio.

Frammento del Papiro di Rhind, 1650 a. C. Fonte: mediterraneoantico.it

Gli studi riguardanti la circonferenza furono ripresi nel quarto secolo a.C. dai greci.

Antifonte e Brisone di Eraclea, in particolare, tentarono di trovare l’area di un cerchio usando il principio di esaustione.

Archimede, un paio di secoli dopo, usò lo stesso metodo concentrandosi, però, sui perimetri anziché sulle aree. Stimò per la circonferenza una lunghezza compresa tra il perimetro di un poligono inscritto e uno circoscritto.
Archimede riuscì, quindi, stabilì che il π doveva trovarsi tra 3,1408 e 3,1428.
Successivamente  rese pubbliche le sue scoperte nel libro “Misura del cerchio”.

Parte della Scuola di Atene di Raffaello in cui viene rappresentato Archimede intento a disegnare un cerchio. Fonte: www.arte.it

Anche in Cina, molti matematici si prodigarono nel calcolo del valore del pi greco. L’astronomo Tsu Chung Chi e suo figlio, in particolare, dedicarono molti anni allo studio di questa costante. Usarono nei loro studi dei poligoni, inscritti nella circonferenza, con innumerevoli lati. L’operazione fu immane, ma gli permise di giungere a un risultato che si discosta dal valore reale solamente per una cifra su un miliardo.

Altro studioso interessatosi alla determinazione del valore di questa costante fu Ludolph Van Ceulen, il quale arrivò tramite il metodo di Archimede, incrementando, però, di molto il numero di lati, a calcolare 35 cifre decimali del π. Quando morì, nel 1610, decise di far incidere la nuova versione del π sulla sua tomba.

La tomba di Ludolph Van Ceulen. Fonte: Wikipedia.it

Dobbiamo aspettare l’avvento dei calcolatori moderni per avere a disposizione sempre più cifre decimali di questa costante. Il sito angio.net/pi, per esempio, ha un database che raccoglie 200 milioni di cifre del π ed è possibile inserire una combinazione di numeri per sapere dove questa si trova. Essendo un numero irrazionale, infatti, esso ha infinite cifre decimali che non si ripeteranno mai uguali ed è quindi possibile trovare una qualsiasi sequenza di numeri, da qualche parte, al suo interno.

Il fascino del π

Il pi greco, però, non è presente solo nella matematica e in tutte quelle scienze che se ne servono.  Rappresenta una costante della natura stessa. Lo ritroviamo nel pallone calciato in rete, nella ali degli aerei, nell’iride dei nostri occhi o, ancora, nella doppia spirale del DNA. È anche per questo che si continua lo studio sulle cifre decimali del pi greco (attualmente siamo arrivati a 5 mila miliardi di numeri dopo la virgola) nella ricerca di regolarità, sequenze ripetute o altre sorprese del numero.

È possibile, inoltre, trovarlo guardando le stelle in cielo. Lo ha fatto Robert Matthews, della University of Aston in Birmingham, combinando un set di dati astronomici con la teoria dei numeri. Matthews ha calcolato le distanze angolari tra le 100 stelle più luminose del cielo e le ha usate per generare un milione di coppie di numeri casuali, giungendo a stimare per il π un valore di 3,12772, che si discosta di appena lo 0,4% da quello reale.

Emerge anche dalle acque dei fiumi. Ad accorgersene è stato il matematico Hans-Henrik Stolum, che in uno lavoro pubblicato su Science nel 1996 ha analizzato la sinuosità di fiumi e torrenti, scoprendo che questi scorrono seguendo una geometria frattale, caratterizzata dall’“alternanza di configurazioni ordinate e configurazioni caotiche”. In particolare, è possibile approssimare il rapporto tra la lunghezza di un fiume dalla sorgente alla foce e quella in linea d’aria a pi greco. La sinuosità media di un fiume è, dunque, molto vicina a 3,14.

Nella matematica e nella fisica pi greco è praticamente ovunque. Compare all’interno di equazioni e formule fondamentali, nei moti ondosi, nel movimento dei pianeti, nelle collisioni tra le particelle elementari. Lo ritroviamo anche nella meccanica, nell’energia sprigionata dagli urti.

π: dalla fisica alla musica

Il π, in realtà, fa ormai parte anche della cultura pop moderna. Esiste, ad esempio, una disciplina sportiva, non ufficiale, che consiste nel decantare a memoria quante più cifre decimali del π. Akira Haraguchi, ingegnere giapponese, è il campione assoluto di questo sport. È riuscito a memorizzare ben 100.000 cifre.

Esiste anche uno stile di scrittura, chiamato Pilish, in cui la lunghezza delle parole utilizzate corrisponde alle cifre del π.

Esempio di pilish. Fonte: pbs.twimg.com

Un’iniziativa molto curiosa è stata, invece, quella di Daniel McDonald che ha tentato di riportare in musica le cifre del π. Ha creato la melodia associando un numero ad ogni nota nella Scala Armonica Minore di La.
Successivamente ha suonato la melodia con la sua mano destra mentre l’armonia veniva creata dalla sinistra.
È possibile trovare il video della composizione al seguente link: https://www.youtube.com/watch?v=OMq9he-5HUU.

Potremmo pensare di definire il pi greco come il compagno della nostra evoluzione, simbolo di progresso. Dalla prima intuizione ad oggi, il suo studio ci permette di comprendere meglio la realtà che ci circonda. Più scrutiamo a fondo, più notiamo una sorta di armonia nella natura che dal più piccolo elemento si ripercuote nei grandi corpi gassosi che soggiornano la volta celeste.
Quella stessa è presente anche in noi, piccola rappresentazione della complessità delle stelle, e in ogni petalo, nella curvatura di un onda. Il pi greco contribuisce a permetterci di capirla in un percorso che probabilmente sarà infinito, proprio come le sue cifre.

Alessia Sturniolo

Bibliografia

L’ombra di Chernobyl torna a far paura: il reattore si è davvero risvegliato?

La notte del 26 aprile 1986 presso la centrale nucleare di Chernobyl, nell’attuale Ucraina settentrionale, si è verificato quello che ancora oggi, dopo oltre trent’anni, è ritenuto il più disastroso degli incidenti nucleari mai verificatosi al mondo. Ma cosa accadde davvero quella notte? Facciamo un passo indietro.

Come funziona un reattore nucleare?

Un reattore nucleare è un sistema in grado di produrre energia mediante processi di fissione nucleare, cioè la separazione del nucleo di un atomo in due prodotti di fissione. Quando il nucleo di un atomo di grandi dimensioni, come quello dell’uranio, viene scisso in frammenti nucleari radioattivi, si libera un’energia davvero enorme. Essa è dovuta alla rottura dei legami generati nel nucleo da quella che in fisica nucleare viene definita la forza nucleare forte’, in grado, in condizioni di stabilità, di vincere le forze repulsive che si generano tra i protoni, e quindi di tenere unito il nucleo stesso.

 

Fissione nucleare – fonte: ecoage.it 

Bombardando di neutroni il nucleo di un atomo come l’uranio, e provocandone la scissione, vengono liberati ulteriori neutroni, che interverranno nella scissione successiva, e così via, generando una vera e propria reazione a catena.

Tali processi avvengono all’interno del nocciolo di un reattore, detto anche core, strutturato da un certo numero di elementi di combustibile nucleare, tipicamente appunto l’uranio. Per controllare le reazioni nucleari, vengono inoltre inserite nel nocciolo le cosiddette barre di controllo, costituite da materiali come il boro, o la grafite borata, che hanno la funzione di abbassarne la temperatura. Se tali barre vengono inserite nel core, infatti, il sistema è considerato spento. Man mano che vengono estratte invece, le reazioni iniziano a susseguirsi, ed il sistema a scaldarsi e produrre energia. Durante una così delicata dinamica è di vitale importanza raggiungere una condizione di equilibrio: è necessario cioè che il fattore di moltiplicazione, ossia il rapporto tra i neutroni presenti in una generazione di fissioni nucleari e quelli presenti nella successiva, rimanga pari ad 1. Più tale valore aumenta, più aumenterà la reattività.

Un altro parametro fondamentale per garantire la sicurezza dei processi di reazione nucleare è il coefficiente di vuoto, indice pari al rapporto tra il volume della parte di vapore e il volume della miscela di liquido/vapore, presenti nella zona attiva del reattore. Valori positivi indicano un incremento della reattività, viceversa valori negativi ne indicano una diminuzione. In un reattore come quello di Chernobyl, appartenente alla classe dei reattori RBMK, l’acqua non veniva utilizzata come moderatore delle reazioni nucleari (cioè per rallentare il flusso dei neutroni veloci), ma solo come fluido termovettore, in grado cioè di trasportare calore. Il coefficiente di vuoto, nella centrale nucleare di Chernobyl, era quindi essenzialmente un valore positivo.

 

Reattore nucleare – fonte: Wikipedia 

Cosa è successo a Chernobyl il giorno dell’incidente?

Questo fattore di rischio ha notevolmente contribuito all’avvento del terribile incidente, tuttavia il vero problema fu un altro. Durante quello che voleva essere un semplice test per verificare la capacità delle turbine di raffreddare il nocciolo del reattore, l’ingegnere capo Leonid Fëdorovič Toptunov, disinserisce volontariamente il sistema di raffreddamento di emergenza: la potenza del reattore passa dopo poco più di mezz’ora dai 30 MW ai 200MW. Le barre di raffreddamento a grafite vengono inserite solo per un terzo all’interno del nocciolo. Temperatura e pressione salgono alle stelle, saltano i tappi delle condutture di combustibile pesanti 350 kg, e si schiantano poco dopo sulle strutture dell’impianto. Si tenta il reinserimento delle barre di raffreddamento ma la manovra non ha successo: il reattore ormai ha raggiunto una potenza pari a 120 volte quella normale. Si verifica l’esplosione: un mostro di mille tonnellate di combustibile nucleare viene scagliato in aria, rilasciando una quantità incalcolabile di radiazioni nell’atmosfera. Il disastro è ormai avvenuto.

Reattore dopo l’esplosione – fonte: agi.it

Il “risveglio” del reattore

Sono passati ormai più di trent’anni dalla terribile catastrofe, ma l’incubo non sembra essere del tutto passato. E’ di pochi giorni fa infatti la notizia di un possibile risveglio del tristemente famoso reattore numero 4 di Chernobyl, palcoscenico del più grande disastro nucleare della storia. Sembrerebbe infatti che nella stanza 305/2 in cui precipitarono dopo l’esplosione 170 tonnellate di uranio radioattivo, i sensori abbiano rilevato un grande aumento di neutroni, dovuti alla presenza di reazioni nucleari autosostenute.

Le cause certe sono ancora ignote, tuttavia un’ipotesi imputa paradossalmente l’evento all’installazione del nuovo sarcofago, impiantato per confinare in sicurezza i materiali radioattivi. Nel 2016 è stata infatti sostituita la prima struttura, inserita subito dopo l’incidente nel 1986, con un colosso in acciaio, alto 110 metri e pesante ben 36.200 tonnellate. A differenza della prima struttura di confinamento, l’ultima è stata designata per scongiurare le infiltrazioni di acqua piovana all’interno del reattore: l’assenza di acqua tuttavia, potrebbe aver aumentato le probabilità dei neutroni di scontrarsi con l’uranio, generando le reazioni a catena di cui sopra. Dall’impiantazione del nuovo sarcofago, infatti, il numero dei neutroni registrato dai sensori è raddoppiato.

Il rischio non è, sottolinea Anatolii Doroshenko dell’Istituto ucraino per la sicurezza nucleare, così allarmante come quello del 1986; tuttavia è sufficiente a far temere un’esplosione che possa coinvolgere le zone non stabili dell’edificio, rilasciando polvere radioattiva nella struttura.

Il mondo dell’energia nucleare è certamente tanto affascinante quanto terrificante. Come in ogni ambito della scienza, però, la ricerca si evolverà, andrà avanti… e chissà quante altre sorprese ci riserverà in futuro.

 

Giulia Accetta 

L’influenza dell’uomo sull’Universo: dal principio antropico all’idea di multiverso

“Che cosa c’è in un nome? Ciò che noi chiamiamo con il nome di rosa, anche se lo chiamassimo con un altro nome, serberebbe pur sempre lo stesso dolce profumo.”

(W. Shakespeare, Romeo and Juliet)

https://www.cosediscienza.it/cosa-fatto-universo

Accade che di fronte ad alcune situazioni non si trovino le parole giuste, sebbene nella nostra mente ci sia un disegno ben preciso.
E ci sono momenti in cui viene meno anche quel disegno e sono insufficienti non solo le parole ma anche le risposte che vorremmo darci.
Quindi ci poniamo sempre più domande.

Da questo perpetuo domandarsi prendono vita varie teorie, alcune delle quali non ci appaiono neppure così nitide. Ma il bisogno di sapere è tanto da cercare responsi persino in quei luoghi difficili da raggiungere.

L’Universo: capiremo mai come sia nato? Perché sia nato? Perché esistiamo noi e non un’altra specie? Perché la Terra e non un altro pianeta?

Perché nasce il principio antropico?

Prima di spiegare cosa significhi principio antropico, concentriamoci sulle ragioni per cui si è sviluppato.

Perché tutto è così come lo vediamo e non in altro modo? E poi, l’Universo è così fatto per noi o indipendente da noi? In altri termini, la sua nascita si è verificata al fine della nostra esistenza o siamo solo un semplice effetto collaterale?

https://www.pinterest.it/pin/284641638920058010/

È questo che si chiedevano i primi ricercatori del “principio del tutto”. Tra questi Talete e Anassimandro.

Il primo riteneva che l’acqua fosse la materia primordiale, il principio divino che conteneva corpo e anima.
Per il secondo l’ἀρχή (principio) era l’ἄπειρον (infinito). Dall’infinito discendevano le esistenze e l’intero cosmo, dove tutto è regolato dal contrasto. Quello tra caldo e freddo fa disporre al centro la terra e l’acqua, il fuoco e l’aria in periferia. C’è un ordine.
Nella mente di Anassimandro vi era un’immortale estensione dello spazio, una radice cosmica infinita. In Talete tutto ha inizio da un elemento.

Si tratta solo di coincidenze?

Possiamo affermare che il principio antropico sosti a metà tra le due posizioni.

Qui l’infinito non è concepito come pensato da Anassimandro. Infatti, se tutto fosse infinito e quindi infinite fossero le possibilità esistenti, non dovremmo sorprenderci se tra queste vi sia un pianeta con vita al suo interno.

È un infinito entro certe norme. Ma è infinito perché le realtà in cui ci siano le condizioni che permettano la vita potrebbero essere infinite.

http://www.unariunwisdom.com/dna-and-the-holographic-universe/

Inoltre, così come Talete fondò le sue idee sull’elemento “acqua”, allo stesso modo a partire dalla seconda metà del Novecento i cosmologi cominciarono a domandarsi se fosse solamente un caso che il carbonio, l’elemento naturale origine della vita, richieda tempi lunghi per formarsi.

È forse solo una coincidenza che la fusione nucleare che avviene dentro le stelle, a seguito della loro esplosione, produca una quantità massiccia di carbonio pronto a fissarsi sulla superficie della Terra e far sì che si sviluppino forme di vita man mano sempre più complesse?
E ancora, è un caso che la Terra si trovi a una precisa distanza dal Sole cosicché il clima sia vivibile?

L’insieme di queste circostanze permette al pianeta di trovarsi in quella che si  chiama  “zona di abitabilità”.

Da Carter ai princìpi di Barrow e Tipler

Brandon Carter doveva essersi posto le medesime domande quando nel 1973 a Cracovia coniò l’espressione “principio antropico”, sostenendo che «[…] anche se la nostra situazione non è “centrale”, è inevitabilmente per certi versi privilegiata». Le leggi della fisica e le costanti cosmologiche sono necessariamente compatibili con l’esistenza umana, spostando l’ago della bussola verso una visione della Terra come nucleo primario.

Visualizza immagine di origine
https://campania.agesci.it/2018/11/uomo-universo/

Contro Copernico che, secondo Carter, aveva ridimensionato il ruolo fondamentale affidato al pianeta, e a favore di Giordano Bruno, per il quale i pianeti e gli astri ricoprivano tutti una posizione equivalente.

«Il principio antropico è l’idea che l’esistenza della vita (o più specificamente della vita umana) nell’Universo possa fissare vincoli ai caratteri dell’Universo attuale, e possa aver contribuito a far diventare l’Universo così com’è attualmente».

John Gribbin (“Companion to the Cosmos”, London, 1996)

Dalle stesse domande sono stati mossi John Barrow e Frank Tipler quando nel 1986 formularono la teoria del principio debole e del principio forte.
Secondo la prima, le quantità fisiche e cosmologiche e i fattori biologici sono subordinati alla richiesta che vi siano luoghi in cui la vita possa esistere.
Il principio forte aggiunge che le proprietà dell’Universo debbano essere tali da permettere lo sviluppo della vita in una certa fase della sua storia.

Secondo tali teorie, l’uomo non ha un ruolo marginale. Per i sostenitori del principio antropico è come se la sua mente e la mente dell’Universo viaggiassero insieme.

Immersi in un complesso di Universi

Nella cosmologia moderna si parla di “insieme” di Universi.
In tutta questa molteplicità ci saranno altri “domini” in cui potrebbero essere valide leggi fisiche diverse dalle nostre, domini a noi invisibili e lontani.

Si immagina uno spazio pluri-dimensionale in cui ogni possibile sito pullulante di vita sia collegato con gli altri attraverso cunicoli spazio-temporali.

Nel 1957 Hugh Everett III  sviluppò la sua formulazione del “multiworld”. In ogni momento esistono tutte le possibili varianti di sistemi dove ci sia vita umana.

https://noticiascuriosas.info/teoria-del-multiverso/

In ognuno ci sarà un osservatore che si domanderà se altri mondi e Universi esistano.
Quell’osservatore che per John Wheeler è essenziale, come dimostra con il suo “principio di partecipazione”. L’Universo esiste anche grazie alle osservazioni di chi ci abita.

Per finire, il fisico matematico Lee Smolin pensa a una “lotta cosmologica” in cui i nuovi Universi possono essere leggermente diversi dai vecchi Universi e in cui alla fine prevale chi sarà in grado di generare altri Universi simili a se stesso.

Probabilmente tutto appare poco realistico. Ma in fin dei conti quanto sappiamo?

Ciò che è possibile fare è continuare a porsi ancora tante, tantissime domande.

Giada Gangemi

Alla scoperta del Demone di LaPlace: colui che prevede il futuro

Nell’introduzione al suo Essai philosophique sur les probabilités del 1814, Pierre-Simon Laplace estese un’idea di Gottfried Leibniz che divenne famoso come Demone di Laplace. La definizione locus classicus di rigoroso determinismo fisico, con il suo unico possibile futuro.

Laplace disse:

“Possiamo considerare lo stato presente dell’universo come l’effetto del suo passato e la causa del suo futuro. Un intelletto che a un certo momento conoscerebbe tutte le forze che mettono in moto la natura e tutte le posizioni di tutti gli elementi di cui la natura è composto, se questo intelletto fosse anche abbastanza vasto da sottoporre questi dati all’analisi, abbraccerebbe in un’unica formula i movimenti dei corpi più grandi dell’universo e quelli del più piccolo atomo; per un tale intelletto nulla sarebbe incerto e il futuro proprio come il passato sarebbe presente davanti ai suoi occhi “.

Laplace postula una superintelligenza (il demone) che potrebbe conoscere le posizioni, le velocità e le forze su tutte le particelle dell’universo contemporaneamente, e quindi conoscere l’universo per tutti i tempi.

Quindi suppone che ogni particella segue esattamente una legge deterministica (classica) del moto. Se ottieni abbastanza informazioni, puoi effettivamente calcolare tutto il futuro che accadrà a questa particella. Per un sistema macroscopico costituito da un numero enorme di particelle, in teoria è possibile calcolare il destino di ogni singola particella e quindi fare previsioni valide per l’intero sistema.

Le critiche

Il concetto è stato criticato per la grande quantità di informazioni che sarebbero richieste, impraticabili se non impossibili da raccogliere istantaneamente. E dove sarebbero conservate le informazioni? Servirebbe in qualche parte dell’universo un regresso infinito per la memorizzazione delle informazioni.

Esperimento mentale

Immaginiamo l’esercizio come puramente mentale, che coinvolge solo l’idea di tale conoscenza. Possiamo vedere il demone come un sostituto secolare di un Dio onnisciente con perfetta preconoscenza.

Il punto di vista di Laplace implica che il passato e il presente contengono sempre esattamente la stessa conoscenza. Questo rende l’informazione una costante della natura. In effetti, alcuni matematici pensano che l’informazione sia una quantità conservata (la linea blu nella figura), come la conservazione della massa e dell’energia.

Rappresentazione visiva del punto di vista di LaPlace – ©Jacopo Burgio

Irreversibilità dell’entropia

Tuttavia, a metà del XIX secolo, Lord Kelvin (William Thomson) si rese conto che la seconda legge della termodinamica appena scoperta richiedeva che le informazioni non potessero essere costanti, ma sarebbero state distrutte con l’aumento irreversibile dell’entropia (disordine). Hermann Helmholtz l’ha descritta come la morte termica dell’universo.

In termini classici, non è che il destino del sistema non sia predeterminato, è principalmente perché abbiamo bisogno di una grande quantità di informazioni per fare i conti e questo semplicemente non è possibile per tutti gli scopi pratici (FAPP). Quindi dobbiamo omettere alcune informazioni.

I fisici, incluso Ludwig Boltzmann, descrissero l’entropia come “informazione persa“, sebbene molti matematici pensassero che le informazioni perse potessero essere recuperate (ad esempio, invertendo il tempo).

Rappresentazione visiva del punto di vista di Lord Kelvin – ©Jacopo Burgio

 

L’affermazione di Kelvin sarebbe corretta se l’universo fosse un sistema chiuso. Ma nel nostro universo aperto e in espansione, David Layzer ha mostrato che la massima entropia possibile aumenta più velocemente dell’entropia effettiva. La differenza tra la massima entropia possibile e l’entropia attuale è chiamata entropia negativa, aprendo la possibilità a strutture informative complesse e stabili.

Rappresentazione visiva del punto di vista di David Layzer – ©Jacopo Burgio

Indeterminazione Quantistica

A causa della sua assunzione canonica di determinismo , il demone di Laplace è incompatibile con l’interpretazione di Copenaghen , che prevede l’indeterminatezza.

Quindi ora possiamo dedurre che un Demone Laplace è impossibile, e per due ragioni distinte. La prima è che la fisica quantistica moderna è intrinsecamente indeterministica. Il futuro è solo probabilistico, sebbene possa essere “adeguatamente determinato“.

La seconda è che non ci sono abbastanza informazioni nel passato (nessuna nell’universo primordiale) per determinare il presente. Il “passato fisso” e le “leggi della naturanon predeterminano nulla. Allo stesso modo, le informazioni al momento attuale non determinano il futuro. Il futuro è aperto. Dobbiamo crearlo.

Ne consegue che il determinismo, l’idea filosofica secondo cui ogni evento o stato di cose, comprese ogni decisione e azione umana, è la conseguenza ineluttabile e necessaria di stati di cose antecedenti, non è vero.

Più precisamente, il determinismo, o la determinazione da alcuni eventi precedenti come cause, dovrebbe essere distinto dal predeterminismo del tempo di Laplace, l’idea che l’intero passato (così come il futuro) fosse determinato all’origine dell’universo.

Teoria del caos

Il ponte è probabilmente la teoria deterministica del caos. Come in questa teoria, qualsiasi incertezza nella condizione iniziale si gonfierà così rapidamente che ci perderemo completamente in breve tempo.

Per analogia, consideriamo un piccolo pezzo di sale il cui volume rappresenta le incertezze nella condizione iniziale, l’evoluzione di tale incertezza nel tempo. Se lo metto in acqua, rapidamente si dissolve e si mescola così finemente con il vasto volume d’acqua che non sai dire esattamente quale e quale, quindi devi ammettere che l’incertezza si è diffusa ovunque e ora tutta l’acqua è incerta. Questo è il cosiddetto “topologicamente misto“.

Tuttavia, se hai una risoluzione di osservazione infinita, sarai in grado di rintracciare dove vanno tutte le particelle di sale, quindi non c’è incertezza e ottieni ciò che fa il demone. Altrimenti, con minuscole limitazioni nella risoluzione, perdi tutte le informazioni.

Tieni presente che questa è solo un’analogia, in teoria (in termini classici) non hai bisogno di una risoluzione infinita, una risoluzione più fine della dimensione dell’atomo di sale funzionerebbe.

Conclusione

Ciò che le persone dovrebbero davvero trarre dall’esperimento mentale del demone di Laplace è che: in un universo deterministico, gli eventi portano a tutti gli altri eventi, inclusi i nostri pensieri e le nostre decisioni. Solo perché il demone di Laplace non può vedere il passato basandosi su una comprensione completa dello stato dell’universo, e anche se possono esserci o meno limitazioni alla previsione in avanti del demone, semplicemente non influenza il libero arbitrio che non esisterebbe comunque. Dopo tutto, il determinismo non implica necessariamente la prevedibilità, ma implica l’incompatibilità con la possibilità di fare diversamente, di propria iniziativa. L’idea del “libero arbitrio” che ha causato tanti problemi nel mondo. Idea che l’esperimento mentale del demone di Laplace ci aiuta a capire.

Il vero conflitto avviene solo nella meccanismo quantistico in cui l’entropia è definita come la traccia della matrice di densità. Quest’ultima è considerata (non TUTTI gli scienziati sono d’accordo) probabilisticamente “genuina”.

Per quanto riguarda qualsiasi potenziale evento non causato (data un’interpretazione quantistica indeterministica), sarebbe un enorme ostacolo per il demone di Laplace, e soprattutto se un tale evento ha voce in capitolo sui nostri pensieri o azioni, per la nostra stessa ostinazione e coerenza.

Gabriele Galletta

Andromeda e la Via Lattea iniziano a sfiorarsi in vista del loro futuro scontro

Le galassie rappresentano il cuore del nostro Universo. Si tratta di enormi conglomerati di stelle e materia interstellare. La loro vita è segnata da turbolenti moti intestini e continui scontri con altre simili. Ciò le porta ad accrescere le loro dimensioni. La collisione, infatti, le spinge a riassemblarsi in ammassi celesti nuovi. È il caso della nostra stessa galassia, la Via Lattea, che è destinata a scontrarsi con la vicina Andromeda e, forse, la loro collisione è già iniziata.

Conosciamo meglio la Via Lattea, la nostra casa

Oggi sappiamo che la Via Lattea è solo una delle tante galassie che popolano l’Universo.

È soggetta a due moti: uno rotatorio su se stessa, compiendo un giro completo in circa 2,4×108 anni (si tratta di una rotazione differenziale: le stelle interne, cioè, ruotano più velocemente di quelle esterne); uno rispetto all’Universo in espansione, alla velocità di due milioni di chilometri orari.

Stimiamo che la Via Lattea abbia una forma a disco schiacciato che raggiunge il massimo spessore al centro diminuendo nella periferia. La nostra galassia, quindi, vista da fuori e da una posizione di taglio (edge on), risulta piatta e allungata, a parte un rigonfiamento centrale. Vista di fronte, invece, assume la forma di una grande spirale.

Il centro della Via Lattea dista da noi circa 25800 anni luce. La zona centrale è occupata da un buco nero super massiccio chiamato “Sagittarius A star” e indicato con SgrA*. Si tratta di una sorgente di onde radio compatta e luminosa. Sagittarius A* avrebbe una massa di circa 4 milioni di volte quella del Sole. Trovandosi, inoltre, nel centro della nostra galassia, rappresenterebbe il fulcro attorno cui le stelle della Via Lattea, compresa la nostra, compiono il loro moto di rivoluzione.

La Via Lattea, vista in posizione di taglio e frontalmente – Fonte: AstronomiAmo

Andromeda: una vicina particolare

Andromeda è, per noi terrestri, una galassia speciale. Si tratta, infatti, dell’oggetto celeste più lontano visibile ad occhio nudo; in nessun altro punto del cielo il nostro sguardo, privato di strumenti, penetra così in profondità.

Andromeda vista dalla terra. Si può notare, anche a così grande distanza, la sua forma ellittica – Fonte: Media INAF

La vera natura di Andromeda è stata scoperta in tempi recenti, con la nascita, cioè, di telescopi che permettessero di studiarne forma, dimensioni e movimento. Sappiamo oggi che la nostra vicina è un maestoso sistema in rotazione.

Il suo diametro è stimato in circa 160.000 anni luce e contiene dai 200 ai 300 miliardi di stelle. Andromeda è, quindi, più grande della Via Lattea: si tratta, infatti, della galassia più importante del cosiddetto Gruppo Locale, l’ ammasso di sistemi di stelle (più di 70) comprendete anche la nostra.

Andromeda e le sue galassie satelliti – Fonte: Gruppo Astrofili di Piacenza

La distanza tra la nostra galassia e Andromeda è, in realtà, notevole. La luce che da essa arriva sulla Terra è partita circa 2.300.000 anni fa, un’epoca in cui il nostro pianeta aveva un aspetto differente da quello odierno. Si tratta del periodo in cui ebbe inizio l’Età della Pietra. L’intelligenza dei nostri antenati cominciava, allora, ad affermarsi. Tutta la storia dell’uomo si è svolta in questo intervallo di tempo.

Il misterioso alone che circonda Andromeda

La Via Lattea e Andromeda si stanno avvicinando sempre di più. Si stima che si scontreranno tra circa 4 miliardi di anni, ma si stanno già sfiorando. Ne sono la prova gli immensi aloni di gas che si estendono per circa 1,5 milioni di anni luce attorno ad Andromeda. Questo ambiente si studia sfruttando la luce dei quasar. Si tratta di sorgenti lontanissime che presentano righe spettrali spostate verso il rosso, ciò le rende facilmente distinguibile dalle altre.

Gli studi si stanno concentrando sulla composizione dell’alone, poiché conserva memoria degli eventi passati, oltre a essere il serbatoio da cui attingere il gas che formerà le future stelle.

“Comprendere gli enormi aloni di gas che circondano le galassie è immensamente importante”, ha spiegato Samantha Berek della Yale University di New Haven. “Questo serbatoio di gas contiene carburante per la futura formazione stellare all’interno della galassia, oltre a deflussi di eventi come le supernove. È pieno di indizi riguardanti l’evoluzione passata e futura della galassia, e siamo finalmente in grado di studiarla in grande dettaglio nel nostro vicino galattico più vicino”.

È emerso che il guscio più interno dell’alone si estende per circa mezzo milione di anni luce, popolato da ammassi globulari, galassie nane, satelliti e stelle isolate. Il guscio esterno è più esteso, rarefatto e caldo.

Poiché viviamo all’interno della Via Lattea, gli scienziati non sono in grado di osservarne l’alone. Credono, tuttavia, sia simile a quello di Andromeda visto che lo sono anche le due galassie.

Il “non scontro”

Inizierà, al momento dell’urto, una tumultuosa fase di fusione da cui nascerà una grande galassia ellittica. Si chiamerà Milkomeda, un mix tra Milky Way e Andromeda. L’evento non darà luogo a scontri frontali tra stelle ma sarà caratterizzato da incontri ravvicinati gradualmente più vicini fino alla fusione dei nuclei.

Anche se non ci saranno urti, l’evento non sarà privo di rischi, a causa delle forze gravitazionali in gioco e del buco nero super massiccio al centro delle galassie. La loro interazione potrebbe far espellere interi sistemi stellari nello spazio profondo.

Una rappresentazione artistica di come potrebbe apparire la progressiva fusione tra Andromeda e la Via Lattea a un ipotetico osservatore in grado di sopravvivere per molti miliardi di anni, cioè il tempo necessario perché si plachino le turbolenze della collisione ed emerga il risultato finale: una gigantesca galassia ellittica – Fonte: NASA, ESA, Z. Levay, R. van der Marel, T. Hallas, A. Mellinger

Immaginare questo scontro ci proietta in un domani incerto, in cui la sicurezza data dal guardare vicino ci abbandona. I moti galattici sono così potenti e maestosi da lasciarci stupiti. Seppur difficile da vedere, però, il loro caotico movimento sottende un ordine. È lo stesso che ritroviamo nel Sistema Solare o nel moto dei satelliti attorno al loro pianeta, una danza rotazionale in cui ogni corpo è mosso.

Quell’interruzione che lo scontro tra questi due giganti celesti pare portare farà nascere un nuovo caotico ordine.

Alessia Sturniolo