Visualizzazione post con etichetta fisica. Mostra tutti i post
Visualizzazione post con etichetta fisica. Mostra tutti i post

giovedì 10 ottobre 2024

Il Nobel per la Fisica a John J. Hopfield e Geoffrey E. Hinton.

 

Il Premio Nobel per la Fisica del 2024 è stato assegnato a John J. Hopfield e Geoffrey E. Hinton «per le scoperte e le invenzioni fondamentali che consentono l’apprendimento automatico con reti neurali artificiali».

Hopfield e Hinton hanno preso in prestito sistemi e strumenti dalla fisica per sviluppare i sistemi di apprendimento automatico (“machine learning”) che oggi fanno funzionare alcuni dei più famosi sistemi di intelligenza artificiale. I loro studi hanno permesso di sviluppare soluzioni per trovare andamenti e modelli nei dati, derivando da questi le informazioni. Il lavoro di Hopfield e Hinton è stato quindi fondamentale per sviluppare le tecnologie che fanno funzionare le reti neurali, cioè i sistemi che provano a imitare le nostre capacità di apprendimento e della memoria.

Nei primi tempi dell’informatica, gli algoritmi erano scritti dalle persone e la loro principale utilità era di indicare al sistema che cosa fare nel caso di una determinata circostanza, una indicazione piuttosto semplice riassumibile in: “Se si verifica questo allora fai quello”. Algoritmi, codice e altre variabili determinano il funzionamento di un software, cioè di un programma informatico, come il browser sul quale si è caricata la pagina che state leggendo in questo momento. Un algoritmo può essere definito come una sequenza finita di istruzioni per risolvere un determinato insieme di richieste o per calcolare un risultato.

Ci sono molti ambiti in cui i dati e i “se questo allora quello” da considerare sono tantissimi, una quantità tale da non poter essere gestita con istruzioni scritte a mano: più dati e più variabili portano a più eccezioni da prevedere e indicare al software per dire come comportarsi, ma se le eccezioni sono miliardi il compito non può essere assolto da dieci, cento o mille programmatori.

Questa difficoltà è stata superata con il machine learning (ML), cioè l’attività di apprendimento dei computer tramite i dati. Mette insieme l’informatica con la statistica, con algoritmi che man mano che analizzano i dati trovando andamenti e ripetizioni, sulla base dei quali possono fare previsioni. L’apprendimento può essere supervisionato, cioè basato su una serie di esempi ideali, oppure non supervisionato, in cui è il sistema a trovare i modi in cui organizzare i dati, senza avere specifici obiettivi.

Messa in altri termini: per fare una torta il software tradizionale segue una ricetta con l’elenco degli ingredienti e le istruzioni passo passo, mentre un software basato sul ML impara attraverso degli esempi osservando una grande quantità di torte, sbagliando e riprovando fino a quando non ottiene un risultato in linea con la richiesta iniziale. Per farlo ha bisogno di una rete neurale artificiale, un modello di elaborazione dei dati che si ispira al funzionamento delle reti neurali biologiche, come quelle nel nostro cervello.

Le reti neurali artificiali hanno richiesto decenni per essere sviluppate e perfezionate, con grandi difficoltà legate soprattutto alle ridotte capacità di elaborazione dei computer per buona parte del Novecento. Le cose iniziarono a cambiare nei primi anni Ottanta quando il fisico John Hopfield fissò in un modello matematico i principi per realizzare una rete neurale che simula la nostra capacità di ricordare e di ricostruire le immagini nella nostra mente. Hopfield aveva sviluppato il modello attingendo dalle proprie conoscenze in fisica e in particolare dalle proprietà magnetiche di alcuni materiali che condizionano il comportamento dei loro atomi.

Una rete di Hopfield funziona memorizzando dei modelli, come immagini e schemi, e poi richiamandoli quando riceve un input parziale oppure distorto come un’immagine incompleta o poco definita. Il sistema prova a minimizzare l’energia complessiva, cioè cerca di raggiungere uno stato stabile riducendo il disordine che rende instabile lo stato di partenza della rete. In pratica, quando la rete riceve un’immagine incompleta o rumorosa, “esplora” varie possibili configurazioni per ridurre l’energia complessiva, finché non trova una configurazione che corrisponde a un modello memorizzato, cioè a un’immagine “stabile” e riconoscibile. In questo modo può dire che una certa immagine mai analizzata prima assomiglia a una delle immagini che ha già in memoria.

Negli anni seguenti alla pubblicazione del modello di Hopfield, Geoffrey Hinton lavorò a un sistema che aggiungeva alcuni principi di fisica statistica, cioè quella parte della fisica che utilizza metodi statistici per risolvere problemi. Elaborò la “macchina di Boltzmann”, basata sulla distribuzione che porta il nome del fisico austriaco Ludwig Boltzmann.

La macchina di Boltzmann è un tipo di rete neurale usato per riconoscere particolari schemi nei dati. Per farlo utilizza due tipi di nodi: i nodi visibili, che ricevono l’informazione, e i nodi nascosti, che aiutano a elaborare queste informazioni senza essere visibili direttamente. Questi nodi interagiscono tra loro e influenzano l’energia complessiva della rete.

La rete funziona aggiornando uno alla volta i valori dei nodi, fino a raggiungere uno stato stabile, in cui il comportamento complessivo della rete non cambia più. Ogni possibile configurazione della rete ha una probabilità, determinata dall’energia della rete stessa. In questo modo, la macchina può generare nuovi modelli partendo da ciò che ha imparato. La macchina impara dagli esempi durante il suo allenamento: i valori delle connessioni tra i nodi vengono aggiornati in modo che i modelli presentati abbiano la probabilità più alta di essere ricreati, quindi più un modello viene ripetuto, più aumenta la probabilità che la rete lo ricordi.

Con i loro lavori ispirati alla fisica, Hopfield e Hinton hanno dato un contributo fondamentale allo sviluppo del machine learning, soprattutto negli ultimi 15 anni grazie all’aumentata capacità di calcolo dei processori. A distanza di anni, i grandi progressi partiti dalla fisica potrebbero avere importanti ricadute per la fisica stessa con l’elaborazione di nuovi modelli per effettuare misurazioni più accurate, per esempio escludendo il rumore di fondo nello studio delle onde gravitazionali. Le possibilità di impiego dei sistemi di intelligenza artificiale sono comunque sterminate e toccano praticamente qualsiasi ambito della ricerca.

John J. Hopfield è nato nel 1933 a Chicago, negli Stati Uniti, ed è docente alla Princeton University.
Geoffrey E. Hinton è nato nel 1947 a Londra, nel Regno Unito, ed è docente presso l’Università di Toronto in Canada. È stato ricercatore e dirigente di Google, incarico che ha lasciato lo scorso anno sollevando alcune perplessità e preoccupazioni sulla rapida evoluzione di alcuni sistemi di intelligenza artificiale.

https://www.ilpost.it/2024/10/08/nobel-fisica-2024/?fbclid=IwY2xjawF0g8NleHRuA2FlbQIxMQABHSUu0mHgIho7_QT2A8SUSna5LwGwEByMkmNRYHK94qmRwPIgrjMumm2qPA_aem_dOn1LM5W4z06zHb55XBvig

mercoledì 31 luglio 2024

I tachioni sfidano la fisica moderna. - Denise Meloni

 

I recenti progressi nella teoria dei tachioni hanno affrontato le incongruenze del passato incorporando sia gli stati passati che quelli futuri nelle condizioni al contorno, portando a una nuova teoria dell’entanglement quantistico e suggerendo un ruolo fondamentale nella formazione della materia.

I tachioni: gli “enfant terrible” della fisica moderna.

I tachioni sono particelle ipotetiche che viaggiano a velocità superiori a quella della luce. Queste particelle superluminali sono gli “enfant terrible” della fisica moderna. Fino a poco tempo fa, erano generalmente considerati entità che non rientravano nella teoria speciale della relatività.

Uni studio appena pubblicato dai fisici dell’Università di Varsavia e dell’Università di Oxford ha dimostrato tuttavia che molti di questi pregiudizi erano infondati. I tachioni non solo non sono esclusi dalla teoria, ma ci permettono di comprenderne meglio la struttura causale.

Lo studio.

Il moto a velocità superiori a quella della luce è uno degli argomenti più controversi della fisica. Fino a poco tempo fa, erano ampiamente considerate creazioni che non rientravano nella teoria speciale della relatività.

Finora erano note almeno tre ragioni per la non esistenza del tachione nella teoria quantistica. La prima: si supponeva che lo stato fondamentale del campo tachionico fosse instabile, il che avrebbe significato che tali particelle superluminali avrebbero formato delle `valanghe’.

La seconda: si supponeva che un cambiamento nell’osservatore inerziale avrebbe portato a un cambiamento nel numero di particelle osservate nel suo sistema di riferimento, ma l’esistenza di, diciamo sette particelle, non può dipendere da chi le sta osservando. La terza ragione: l’energia delle particelle superluminali potrebbe assumere valori negativi.

Nel frattempo, un gruppo di autori: Jerzy Paczos, che sta conseguendo il dottorato di ricerca presso l’Università di Stoccolma, Kacper Dębski, che sta completando il dottorato presso la Facoltà di Fisica, Szymon Cedrowski, studente dell’ultimo anno di Fisica (studi in inglese), e quattro ricercatori più esperti: Szymon Charzyński, Krzysztof TurzyńskiAndrzej Dragan (tutti della Facoltà di Fisica dell’Università di Varsavia) e Artur Ekert dell’Università di Oxford, hanno appena sottolineato che le difficoltà incontrate finora con i tachioni avevano una causa comune.

Si è scoperto che le “condizioni al contorno” che determinano il corso dei processi fisici includono non solo lo stato iniziale ma anche lo stato finale del sistema. I risultati del team internazionale di ricercatori sono stati appena pubblicati sulla prestigiosa rivista Physical Review D.

Per dirla in parole povere: per calcolare la probabilità di un processo quantistico che coinvolge i tachioni, è necessario conoscere non solo il suo stato iniziale passato, ma anche il suo stato finale futuro. Una volta che questo fatto è stato incorporato nella teoria, tutte le difficoltà menzionate in precedenza sono completamente scomparse e la teoria dei tachioni è diventata matematicamente coerente. “È un po’ come la pubblicità su Internet: un semplice trucco può risolvere i tuoi problemi“, ha affermato Andrzej Dragan, principale ispiratore dell’intera iniziativa di ricerca.

L’idea che il futuro possa influenzare il presente invece che il presente determini il futuro non è nuova in fisica. Tuttavia, fino ad ora, questo tipo di visione è stata al massimo un’interpretazione non ortodossa di certi fenomeni quantistici, e questa volta siamo stati costretti a questa conclusione dalla teoria stessa. Per ‘fare spazio’ ai tachioni abbiamo dovuto espandere lo spazio di stato“, ha aggiunto Dragan.

Conclusioni

Gli autori hanno previsto anche che l’espansione delle condizioni al contorno abbia le sue conseguenze: un nuovo tipo di entanglement quantistico appare nella teoria, mescolando passato e futuro, che non è presente nella teoria convenzionale delle particelle.

Lo studio ha anche sollevato la questione se i tachioni descritti in questo modo siano puramente una “possibilità matematica” o se tali particelle siano probabili da osservare un giorno.

Secondo gli autori, tali particelle non sono solo una possibilità, ma sono, di fatto, una componente indispensabile del processo di rottura spontanea responsabile della formazione della materia. Questa ipotesi significherebbe che le eccitazioni del campo di Higgs, prima che la simmetria venisse spontaneamente rotta, potrebbero viaggiare a velocità superluminali nel vuoto.

https://reccom.org/i-tachioni-sfidano-la-fisica-moderna/

domenica 10 marzo 2024

Buchi neri: l’IA rivela come crescono. - Arianna Guastella

Un nuovo studio, che utilizza l’apprendimento automatico, ha rivelato che la crescita dei buchi neri supermassicci nelle galassie richiede gas freddo oltre alle fusioni, sfidando le ipotesi precedenti e migliorando la nostra comprensione dell’evoluzione delle galassie.

I buchi neri supermassicci: giganti dormienti che si risvegliano.

Quando sono attivi, i buchi neri supermassicci svolgono un ruolo cruciale nel modo in cui si evolvono le galassie. Fino ad ora, si è pensato che la crescita fosse innescata dalla violenta collisione di due galassie seguita dalla loro fusione, tuttavia, una nuova ricerca condotta dall’Università di Bath ha suggerito che le fusioni tra galassie da sole non sono sufficienti ad alimentare un buco nero. Per spiegare la crescita di essi, è necessario un secondo ingrediente: un serbatoio di gas freddo a livello planetario situato al centro della galassia ospite.

Il nuovo studio, pubblicato sulla rivista Monthly Notice della Royal Astronomical Society, è stato il primo a utilizzare l’apprendimento automatico per classificare le fusioni galattiche con l’obiettivo specifico di esplorare la relazione tra le stesse, l’accrescimento di buchi neri supermassicci e la formazione stellare. Finora le fusioni sono state classificate (spesso erroneamente) esclusivamente attraverso l’osservazione umana.

Mathilda Avirett-Mackenzie, dottoranda presso il Dipartimento di Fisica dell’Università di Los Angeles Università di Bath e prima autrice del documento di ricerca, ha dichiarato: “Quando gli esseri umani cercano fusioni tra galassie, non sempre sanno cosa stanno guardando e usano molta intuizione per decidere se è avvenuta davveroAddestrando una macchina a classificarle, si ottiene una lettura molto più veritiera di ciò che stanno effettivamente facendo le galassie”.

La ricerca è frutto di una collaborazione tra i partner di BiD4BEST (Big Data Applications for Black Hole Evolution Studies), la cui rete innovativa fornisce formazione di dottorato sulla formazione dei buchi neri supermassicci.

buchi neri supermassicci sono una componente fondamentale delle galassie (per dare un senso di scala, la Via Lattea, con circa 200 miliardi di stelle, è solo una galassia di medie dimensioni), al centro di essa si trova un buco nero chiamato Sagittarius A*, che ha una massa di circa 4 milioni di volte quella del Sole.

Per gran parte della loro esistenza, i buchi neri supermassicci sono quiescenti, rimangono in uno stato di calma, con la materia che orbita intorno, e hanno un impatto minimo sulla galassia nel suo complesso. Tuttavia, per brevi periodi della loro esistenza (brevi solo in termini astronomici, con una durata di milioni o centinaia di milioni di anni), essi sfruttano la loro forza gravitazionale per attirare grandi quantità di gas verso di sé. Questo fenomeno, noto come accrescimento, genera un disco luminoso talmente intenso da poter eclissare l’intera galassia.

Sono queste brevi fasi di attività ad essere più importanti per l’evoluzione delle galassie, poiché le enormi quantità di energia rilasciata attraverso l’accrescimento possono influenzare il modo in cui le stelle si formano nelle stesse. Per una buona ragione, quindi, stabilire cosa provoca il movimento di una galassia tra i suoi due stati – quiescente e formazione stellare – è una delle più grandi sfide dell’astrofisica.

Active Galactic Nucleus Concept

Buchi neri, ispezione umana vs Machine Learning.

Per decenni, i modelli teorici hanno suggerito che i buchi neri crescono quando le galassie si fondono. Tuttavia, gli astrofisici che studiano da molti anni la connessione tra fusioni di galassie e crescita dei buchi neri hanno sfidato questi modelli con una semplice domanda: come possiamo identificare in modo affidabile le fusioni di galassie?

L’ispezione visiva è stato il metodo più comunemente utilizzato. I classificatori umani – esperti o membri del pubblico – hanno osservato le galassie e hanno identificato elevate asimmetrie o lunghe code di marea (regioni sottili e allungate di stelle e gas interstellare che si estendono nello spazio), entrambe associate alle fusioni delle stesse. Tuttavia, questo metodo di osservazione è dispendioso in termini di tempo e inaffidabile, poiché è facile per gli esseri umani commettere errori nelle loro classificazioni. Di conseguenza, gli studi sulle fusioni spesso forniscono risultati contraddittori.

Nel nuovo studio condotto da Bath, i ricercatori si sono posti la sfida di migliorare il modo in cui vengono classificate le fusioni studiando la connessione tra la crescita dei buchi neri e l’evoluzione delle galassie attraverso l’uso dell’intelligenza artificiale.

black hole in space elements of this image furnished by nasa 285461906

L’IA illumina i segreti dei buchi neri.

Gli scienziati hanno addestrato una rete neurale su fusioni di galassie simulate, quindi hanno applicato questo modello a quelle finora osservate nel cosmo.

In questo modo, sono stati in grado di identificare le fusioni senza pregiudizi umani e studiare la connessione tra fusioni di galassie e crescita dei buchi neri. Hanno anche dimostrato che la rete neurale supera i classificatori umani nell’identificarle.

Applicando questa nuova metodologia, i ricercatori sono stati in grado di dimostrare che le fusioni non sono fortemente associate alla crescita dei buchi neri. Le firme delle stesse sono ugualmente comuni nelle galassie con e senza buchi neri supermassicci in accrescimento.

Utilizzando un campione estremamente ampio di circa 8.000 sistemi di buchi neri in accrescimento – che ha permesso al team di studiare la questione in modo molto più dettagliato – si è scoperto che le fusioni portano alla crescita dei buchi neri solo in un tipo molto specifico di galassie, ovvero quelle contenenti quantità significative di gas freddo.

Questo ha dimostrato che le fusioni tra galassie da sole non sono sufficienti ad alimentare i buchi neri: devono essere presenti anche grandi quantità di gas freddo per consentire al buco nero di crescere.

Avirett-Mackenzie ha affermato: “Affinché le galassie possano formare stelle, devono contenere nubi di gas freddo in grado di collassare in stelle. Processi altamente energetici come l’accrescimento di un buco nero supermassiccio riscaldano questo gas, rendendolo troppo energetico per collassare o espellendolo fuori dalla galassia”.

La dottoressa Carolin Villforth, docente senior presso il Dipartimento di Fisica e supervisore della signora Avirett-Mackenzie a Bath, ha concluso: “Fino ad ora le fusioni sono state studiate allo stesso modo, attraverso la classificazione visiva. Con questo metodo, utilizzando classificatori esperti in grado di individuare caratteristiche più sottili, siamo riusciti a osservare solo un paio di centinaia di galassie, non di più. L’utilizzo dell’apprendimento automatico ha aperto un campo completamente nuovo e molto entusiasmante in cui è possibile analizzare migliaia di galassie alla volta”.

https://reccom.org/buchi-neri-l-ia-rivela-come-crescono/?fbclid=IwAR1VjOMuAp9HJEAvgnIXhBGU3OadubYJ7R_x5h5n4fSL5-nXh9oXkhqhRgs

sabato 2 marzo 2024

Una spiegazione semplice dell’entanglement quantistico. - Elena Buratin

 

L'entanglement, o correlazione quantistica, è un legame fra due o più particelle che hanno proprietà correlate.

L'entanglement, anche chiamato correlazione quantistica, è un legame fra due o più particelle che hanno proprietà correlate, chiamate stati quantici. Ma che cos'è esattamente l'entanglement? A che scala si manifesta? Chi lo ha teorizzato? Scopriamolo insieme!

Alcune nozioni base.

La meccanica classica, quella di Newton per intenderci, descrive le proprietà e il comportamento della materia a grande scala. La meccanica quantistica, invece, descrive  il comportamento microscopico di singole particelle che si comportano in modo contro-intuitivo, diversamente da come ci verrebbe spontaneo pensare. L'aggettivo "quantistico" deriva dal termine latino "quantum" riferito alla quantità che identifica il più piccolo pacchetto indivisibile di una certa grandezza.

Cos'è l'entanglement?

"Entanglement" (in inglese, "groviglio", "intreccio") è un termine coniato da Erwin Schrödinger nel 1935 e in meccanica quantistica indica un legame fra particelle. È definito da una funzione, chiamata funzione d'onda di un sistema, che descrive le proprietà delle particelle come fossero un unico oggetto, anche se le particelle si trovano ad enorme distanza. Questa correlazione permette alla prima particella di influenzare la seconda istantaneamente, e viceversa.

Ma non tutte le particelle sono "entangled", ovvero aggrovigliate. Affinché questa correlazione abbia luogo, cioè per far sì che le due particelle abbiano stati quantici correlati, queste due particelle devono essere prodotte simultaneamente da un'interazione fisica. Un tipico esempio di stato quantico è lo spin di una particella. Esso può assumere valore positivo o negativo. Quando abbiamo a che fare con particelle "entangled", quindi unite nel legame, la somma degli spin delle due particelle è pari a zero. Dunque se si misura lo spin di una delle due, automaticamente ed istantaneamente si conoscerà anche lo spin dell'altra.

È un po' come prendere un paio di guanti e di chiuderli separatamente in due scatole diverse. Se aprendo la prima scatola trovate il guanto destro, saprete immediatamente che nella seconda scatola c'è quello sinistro.

Ma com'è fatta la realtà quando nessuno la guarda? Gli spin delle due particelle sono definiti già in partenza o si materializzano solo nel momento dell'osservazione?

Diversi punti di vista.

Una prima corrente di pensiero fu capitanata da Niels Bohr, grande sostenitore della meccanica quantistica. Questa corrente riteneva che le particelle nascessero quando osservate e che solo la loro funzione onda del sistema fosse reale prima dell'osservazione.

Albert Einstein, Boris Podolsky e Nathan Rosen, invece, erano convinti che le particelle nascessero già con le loro caratteristiche (realismo locale), in quanto la relatività aveva dimostrato che nessuna informazione poteva trasmettersi istantaneamente, viaggiando più veloce della luce.

Questo fenomeno istantaneo, l'entanglement, doveva quindi essere legato a delle variabili nascoste, a noi sconosciute, le quali definiscono lo spin delle particelle prima ancora di effettuare l'osservazione.

Questi scienziati definirono la meccanica quantistica incompleta e mossero le loro critiche nel famoso paradosso EPR, acronimo derivato dalle loro iniziali.

Verifica sperimentale.

Nel 1964 John Bell identificò un metodo basato sulle probabilità, chiamato teorema di Bell, per capire se lo stato quantico delle due particelle entangled fosse definito fin dall'inizio (seguendo l'idea di Einstein, Podolsky e Rosen) o se si manifestasse solo a conseguenza dell'osservazione (come nell'ipotesi di Bohr).

A causa di difficoltà tecnologiche si dovette aspettare fino al 1982, quando Alain Aspect misurò il comportamento di fotoni entangled e validò la teoria di Bohr. Einstein aveva quindi torto.

Fintantoché le due particelle non vengono osservate, i loro spin rimangono indefiniti, ovvero entrambe le particelle hanno al tempo stesso spin positivo e negativo, secondo il principio di sovrapposizione degli stati. È la sola presenza dell'osservatore ad interferire con il sistema e a calarlo nella "realtà".

Conoscenza istantanea.

L'entanglement permette di conoscere istantaneamente il comportamento della seconda particella, non per via di un trasferimento di informazioni più rapido della luce, ma perché le due particelle sono di fatto un unico sistema governato da una sola funzione d'onda.

Una perturbazione esterna locale, come l'arrivo di un fotone o di un osservatore, non altera solo il comportamento della prima particella, ma influenza tutto il sistema, e di conseguenza definisce lo stato quantistico anche della seconda.

Una piccola precisazione finale. L'esempio dei guanti, utile per comprendere il fenomeno, non calza più perfettamente. Il guanto destro e quello sinistro, infatti, sono definiti fin dall'inizio, mentre lo stato quantico delle particelle non lo è. È un'interferenza esterna a definirne lo stato.

continua su: https://www.geopop.it/una-spiegazione-semplice-dellentanglement-quantistico/

https://www.geopop.it/

giovedì 12 ottobre 2023

VISIONE MECCANICISTICA E IDEALISTICA DEL MONDO. - Viviana Vivareli

 

Giordano Bruno e la fisica quantistica.

DOPO 4 SECOLI LA FISICA QUANTISTICA CONCORDA CON GIORDANO BRUNO.

Giordano Bruno dice: "Non è la materia che crea il pensiero ma il pensiero che crea la materia". Cosa vuol dire?
Prendiamo la domanda: "Cos’è il mondo?" La riposta cambia secondo come ognuno lo concepisce secondo la sua opinione. Questa cambia nel tempo, secondo i popoli e culture e cambia da persona a persona.
Al tempo di Giordano Bruno la Chiesa era la massima autorità non solo religiosa e filosofica ma anche scientifica. Lo abbiamo visto con Galileli che dovette abiurare le sue teorie sul sistema solare perché erano in disaccordo con quelle degli astronomi della Chiesa. Lo stesso strapotere fu esercitato contro le teorie filosofiche di Giordano Bruno al punto che la Chiesa lo condannò al rogo. Giordano Bruno era un filosofo e un visionario. Oggi possiamo affermare che molte delle sue intuizioni si accordano alle ipotesi dei più moderni fisici quantistici.
In linea di massima, nella storia della filosofia occidentale si sono alternate due posizioni base.
“Cos’è un albero?”.
La 1a posizione dice: Un albero è un oggetto a sé stante che mi viene descritto dai miei sensi e può essere definito dalla mia ragione (posizione realistica o meccanicistica: Aristotele. Il mondo è come un meccanismo formato da parti).
La 2a posizione dice: L’albero come fenomeno, cioè come mi appare, esiste solo in quanto è percepito in un certo modo dai miei sensi e filtrato dalla mia ragione ma io non so cosa sia l'albero "in sé" (posizione idealistica: Platone). Posso solo intuirlo, elevandomi a un livello superiore ai sensi e alla ragione.
Giordano Bruno è un idealista e sta dalla parte di Platone. Non so cosa sia il mondo nella sua realtà, so solo che idea me ne faccio attraverso sensi e ragione ma dell'albero "in sé" non so nulla.
Giordano Bruno vive alla fine del 1500, tardo Rinascimento, tempo di grandi mutamenti. Martin Lutero. Lotta tra cattolici e protestanti. Controriforma. Galilei che fa trionfare le leggi copernicane: la Terra gira attorno al Sole e non viceversa...
Per lungo tempo domina il pensiero meccanicistico.
Oggi è tramontato il pensiero meccanicistico di Galileo, Newton, Cartesio e Einstein e sta tornando l’idealismo con i Niels Bohr, Werner Heisenberg e David Bohm e stiamo rivalutando Giordano Bruno: non possiamo considerare il mondo come un orologio formato da tanti pezzi, esso è un intero in cui tutte le parti sono interconnesse. Tutto è uno. Nell’assoluto tutto esiste insieme, tutte le cose sono una cosa sola.
Se guardiamo solo ai fenomeni, ci sembrano tanti. Ma se cerchiamo l’Essere in sé, esso è UNO.
Giordano Bruno aveva detto: “La materia è in parte corporea e in parte incorporea”.
Ovviamente questa Materia assoluta o astratta non coincide con la parola materia come la indichiamo noi.. È la sostanza prima del mondo e in sé non ha forma anche se può prendere tutte le forme. Sostituisci alla parola Materia la parola Energia e hai la fisica attuale. La famosa formula di Einstein: E = mc2, dimostra che la materia (massa) e l’energia (E) sono solo due modalità (informazioni) della stessa sostanza fondamentale. Ma l’universo come noi lo vediamo è intrinsecamente un prodotto mentale.
Dice Bruno: “Tutto è uno rispetto alla sostanza”.
Dice ancora: “Nella Natura possiamo riconoscere due ordini di Essenza, conoscendo la Forma e la Materia”. Che è come dire l’Energia e l’Informazione sono tutto ciò che esiste. L’energia è informazione.
L'informazione struttura l’energia, le dà forma, cioè la modella in tutte le dimensioni dell’essere, a partire da sé stessa. L’informazione modella l’energia creando il mondo minerale, vegetale ecc.
Cosa unisce l’Energia con l’Informazione? La coscienza.
Esiste solo la Coscienza. A seconda dell’Informazione, esistono diverse entità di coscienza, che tuttavia sono composte dalla stessa sostanza, dai minerali, alle piante, agli animali e agli esseri umani fino alle forme di vita superiori. La forma si presenta attraverso l’auto-organizzazione, con l’aiuto dell’informazione.
David Bohm (meccanica quantistica) si chiede: “Una pietra ha coscienza?” Secondo la fisica quantistica, tutto è pieno di Coscienza da un sasso a una stella perché tutto è Vita, non esiste la “non vita”.
Spazio, tempo e causalità si applicano nel mondo reale, ma possono non esistere in mondi paralleli.
Bruno: “Nell’assoluto tutto esiste insieme, cioè nell’assoluto sia la possibilità che la realtà sono una cosa sola”.
Nell’assoluto non c’è tempo. Il tempo è un’illusione.
La fisica moderna lo chiama Paradosso di Einstein-Podolsky-Rosen.
Einstein formulò, insieme agli altri, un paradosso che per 20 anni fu oggetto di una disputa tra Einstein e il teorico della meccanica quantistica Nils Bohr.
Einstein diceva: “Se i postulati della fisica quantistica sono validi, dobbiamo accettare che, se dividiamo in due sulla Terra una particella, spostiamo la particella A verso la stella Sirio, che dista 4 milioni di anni luce dalla Terra, e la particella B della stessa distanza, ma in direzione opposta. Se la particella A su Sirio dovesse divergere, anche la particella B, che attualmente si trova a 8 milioni di anni luce da Sirio, dovrebbe divergere simultaneamente in direzione opposta.”
Ma com'era possibile che la stessa informazione si fosse trasmessa istantaneamente e quale era la causa della divergenza di B. Einstein diceva che il fatto era impossibile.
Ma nel 1982 Alain Aspeck riuscì a dimostrare per la prima volta e in modo sperimentale, cioè in laboratorio, che le idee di Bohr erano corrette e che Einstein sbagliava (sincronicità= due fatti possono accadere nello stesso istante come fossero collegati senza causa apparente). Jung prende la sincronicità come principio base: un uomo muore, il suo orologio si ferma. Io sono arrabbiata, mi si rompe la macchina. Due fatti uno dentro dime e uno fuori di me avvengono nello stesso istante come se uno rispecchiasse in modo simbolico l'altro.
Dunque c'è una dimensione dell'Essere in cui il tempo non esiste ma nemmeno lo spazio (la distanza) e non esiste il rapporto causa- effetto, ma tutte le cose sono collegate tra loro, perché tutto è Uno.
Finora si era ipotizzato un universo a tre dimensioni spaziali (altezza, larghezza e profondità), Einstein ci aggiunse una quarta: il tempo, ma non bastarono. I fisici si trovarono davanti dei problemi per risolvere i quali dovettero ipotizzare universi con più dimensioni. Hawking, per es., parla di 24 dimensioni.
Può essere che il mondo nella sua interezza sia multidimensionale.
Dunque noi viviamo in due mondi: da un lato il mondo fisico come ci appare ai sensi e alla ragione, da un altro lato un mondo metafisico che sfugge alla nostra percezione sensoriale e alla nostra logica. Ma questo mondo metafisico è esattamente quello di cui parlano da millenni tutte le religioni e tutti i filosofi idealisti come Platone che ci sono arrivati non con i sensi o la ragione ma con l'intuizione.
Giordano Bruno: “Nell’assoluto tutto esiste insieme, in un momento, cioè nell’aldilà non c’è tempo”.
Se il realismo non è corretto, allora deve essere vero l’idealismo, cioè devono esistere delle dimensioni metafisiche, che ancora non conosciamo e che non percepiamo con i sensi, le quali oltrepassano la fisica. Ne consegue che noi viviamo contemporaneamente in due mondi, quello della realtà biologica e quello della coscienza metafisica.
La realtà è una illusione, così come dicono da sempre le filosofie indiane.
Bruno: “Il pluralismo dell’Essere è solo apparente e casuale, In realtà l'Essere è uno. "
Come si manifesta allora la Realtà fenomenica, cioè quella che ci appare? La fisica quantistica risponde col “paradosso del gatto di Schrödinger”.
Schrödinger mise un gatto in una scatola, dove c'era un meccanismo in cui un atomo radioattivo poteva decadere o no, casualmente, liberando un gas velenoso che uccideva il gatto.
La vita del gatto era intrecciata (entanglement)) a un elettrone.
Ora, di fronte alla scatola chiusa, ci chiediamo: "Il gatto è vivo o morto?" In teoria sono possibili entrambi i casi. Finché non si apre la scatola, non abbiamo una certezza ma una probabilità. Possiamo avere nello stesso istante e insieme un 50% di gatto vivo e un 50% di gatto morto. Ma questo è un paradosso.
C'è un film "Sliding door" (porte scorrevoli), in cui una ragazza può prendere il metro o no. A seconda di quello che sceglie, la sua vita cambierà.
La realtà si presenta quindi come una “funzione di probabilità”, cioè ogni scelta che fai ti aprirà un mondo diverso.
Quando si studiano le particelle subatomiche, per es, gli elettroni, che sono funzioni d'onda e nella camera a bolle appaiono come un rapidissimo movimento, possiamo valutare la loro velocità o la loro posizione ma non entrambe le cose. Perché?
Abbiamo solo due risposte:
1) Non si sa, succede solo perché è così. È una legge di natura.
2) Il collasso della funzione F è il risultato dello scambio di informazioni tra una coscienza e l’altra.
La prima riposta non è soddisfacente.
Resta solo la seconda. In teoria può esserci un universo in cui il gatto è vivo e uno in cui il gatto è morto. Ma questa riafferma l’Idealismo. Se il mondo è il risultato di uno scambio di informazioni tra una coscienza e un'altra, il mondo è il frutto delle nostre coscienze. Il mondo emana dalle nostre idee, dalla nostra intuizione.
Il mondo inteso come una molteplicità di fenomeni è illusorio.
Bruno dice: “Perciò dovete accettare che tutto esiste in tutto, ma non in ogni cosa in modo universale e non in tutti i modi possibili. Perciò non sbaglia chi parla dell’Uno come Essere ed Essenza allo stesso tempo, chi dice che l’Uno è allo stesso tempo umano e illimitato, sia nella sostanza che nella durata”.
Così si vede che tutte le cose sono nell’Universo e che l’Universo è in tutte le cose. Noi in esso ed esso in noi e così tutte le cose finiscono in una perfetta unità. Questa unità è unica e duratura e rimane sempre. Questo Uno è eterno. Affermare il contrario sarebbe assurdo e arrogante, non avrebbe alcun significato accettabile. Cioè, questo mondo, questo Essere, il vero, l’universale, l’infinito, l’incommensurabile, contiene in ciascuna delle sue parti il tutto e con esso l’Onnipresenza stessa”.
Dunque può esserci una dimensione in cui non esiste il tempo, non esiste il luogo, non esiste la causa.
Di conseguenza, non esiste nemmeno la morte.
L'essere non nasce e non muore. Esiste per sempre.
La concezione globale del mondo di Giordano Bruno coincide quindi pienamente con la fisica quantistica, così come con le filosofie di Platone, Plotino, Fichte, Schelling, Hegel, i buddisti, gli induisti…
La conoscenza che può essere estratta dalla scienza è variabile. Dai Greci ai giorni nostri, le raffigurazioni che la scienza ha cercato di costruire del mondo sono in continua evoluzione. La conoscenza scientifica non è stabile. Ma c’è una filosofia eterna e assoluta che può essere solo intuita o sperimentata ed è la Metafisica.
La fisica quantistica di oggi si sta ricollegando alla Metafisica.
Il fisico quantistico di cui si parla tanto oggi, Tonelli, trae la sua fisica da esperienze extrasensoriali, a carattere metafisico.
Forse quell'unione tra scienza e fede che Steiner tanto desiderava si sta compiendo.
📷
1Persio FlaccoTutte le reazioni:

domenica 28 febbraio 2021

Buchi neri supermassicci fatti di materia oscura. - Laura Leonardi

Rappresentazione artistica di una galassia a spirale racchiusa in una distribuzione più ampia di materia oscura invisibile, nota come alone di materia oscura (colorata in blu). Studi sulla formazione di aloni di materia oscura hanno suggerito che ogni alone potrebbe ospitare un nucleo molto denso di materia oscura, che potrebbe potenzialmente imitare gli effetti di un buco nero centrale, o eventualmente collassare per formarne uno. Crediti: Eso / L. Calçada

Uno studio pubblicato su Monthly Notices of the Royal Astronomical Society teorizza la formazione di buchi neri supermassicci a partire dalla materia oscura, e mostra come quest’ultima possa distribuirsi fra alone e centro di una galassia fino a dar luogo a un nucleo di materia oscura molto denso.

Come si sono formati i buchi neri supermassicci nell’universo primordiale? Questa è una delle domande più intriganti della ricerca astrofisica moderna e, ad oggi, uno dei maggiori problemi ancora aperti per chi si occupa di evoluzione galattica. I buchi neri supermassicci sono stati osservati già a partire da ottocento milioni di anni dopo il Big Bang, ma come possano formarsi ed evolvere così rapidamente rimane inspiegabile.

Un team di astrofisici guidato Carlos R. Argüelles – ricercatore all’Universidad Nacional de La Plata, in Argentina, e all’ IcraNet (centro internazionale con sede a Pescara) – suggerisce ora la possibilità di un meccanismo che consentirebbe la formazione di buchi neri supermassicci a partire dalla materia oscura presente nelle regioni ad alta densità nei centri delle galassie.

Negli scenari convenzionali, è la normale materia barionica – ovvero, gli atomi e gli elementi che compongono le stelle, i pianeti e tutti gli oggetti che conosciamo, noi compresi – a collassare sotto il peso della gravità, formando così i buchi neri supermassicci, che poi crescono e si evolvono nel tempo. La nuova ipotesi, illustrata sul numero di aprile di Monthly Notices of the Royal Astronomical Society, prendendo in esame la potenziale esistenza di nuclei galattici stabili fatti di materia oscura e circondati da un alone diffuso sempre di materia oscura, mostra come le zone centrali di queste strutture possano diventare così dense da collassare anch’esse in buchi neri supermassicci una volta raggiunta la soglia critica. Stando a questo modello, ciò avverrebbe molto più rapidamente di quanto non sia possibile attraverso altri meccanismi di formazione, al punto da consentire ai buchi neri supermassicci dell’universo primordiale di essersi formati prima delle stesse galassie in cui abitano – contrariamente a quanto si ritiene sia avvenuto.

«Questo nuovo scenario di formazione», dice infatti Argüelles, «può spiegare in modo naturale come i buchi neri supermassicci abbiano avuto origine nell’universo primordiale, senza richiedere che si fossero già formate le stelle né invocare la presenza di “semi” di buchi neri con tassi di accrescimento irrealistici».

Un altro aspetto interessante del nuovo modello è che la massa critica che induce il collasso in un buco nero potrebbe non essere raggiunta nel caso degli aloni di materia oscura più piccoli, come quelli che circondano alcune galassie nane. Gli autori suggeriscono che ciò potrebbe dar luogo a galassie nane con un nucleo centrale di materia oscura ma senza un buco nero. Un tale nucleo di materia oscura potrebbe imitare la firma gravitazionale di un buco nero centrale convenzionale, mentre la presenza dell’alone esterno di materia oscura potrebbe spiegare le curve di rotazione della galassia.

«Questo modello mostra come gli aloni di materia oscura possano ospitare al loro centro concentrazioni ad alta densità, che potrebbero avere un ruolo cruciale per comprendere la formazione dei buchi neri supermassicci», osserva Argüelles.

La speranza degli autori è che, a partire dal loro modello teorico, ulteriori studi saranno in grado di far luce sulla formazione dei buchi neri supermassicci nelle epoche primordiali dell’universo, oltre a indagare se i nuclei delle galassie non attive, inclusa la Via Lattea, possano ospitare questi densi nuclei di materia oscura.

https://www.media.inaf.it/2021/02/25/smbh-dark-matter/?fbclid=IwAR1y1ArhbBv1WfZs9SaxXVV2SIvKaBbjMggO-fzcd7RFmt1mOfSvNrem4lQ

sabato 23 gennaio 2021

Il Sistema Solare si è formato in due tappe.

 

Il Sistema Solare si è formato in due tappe: è l'ipotesi suggerita da nuovi dati e una simulazione, capace di spiegare la diversità fra i pianeti rocciosi più interni, Mercurio, Venere, Terra, Marte e quelli gassosi, come Giove. Il risultato, pubblicato sulla rivista Science, si deve ai ricercatori coordinati da Tim Lichtenberg, dell'università britannica di Oxford.

"Il Sistema Solare interno, che si è formato prima ed è più asciutto, e il Sistema Solare esterno, che si è formato più tardi ed è più umido, sono diversi a causa di due diversi percorsi evolutivi" ha rilevato Lichtenberg. Questo, ha aggiunto, "apre nuove strade per comprendere le origini delle atmosfere di pianeti simili alla Terra".

Recenti osservazioni sui dischi di polveri e gas che si formano intorno alle stelle appena nate hanno mostrato che nella regione del disco dove nascono i pianeti possono esserci livelli di turbolenza tali che le interazioni tra i grani di polvere nel disco e l'acqua possono innescare due differenti esplosioni di formazione di mattoni di pianeti.

La prima avviene nelle regioni più interne del sistema planetario e la seconda avviene successivamente in una regione più lontana. I due distinti episodi di formazione determinano differenti modalità geofisiche di evoluzione: nella regione interna e più vicina alla stella i mattoni dei pianeti subiscono una rapida disidratazione, mentre nella regione più esterna si mantengono più umidi.

Per provarlo, i ricercatori hanno messo a punto una simulazione sulla formazione del Sistema Solare, mostrando che effettivamente la differenza fra i pianeti rocciosi interni e quelli gassosi esterni si può spiegare se questi pianeti sono nati in due fasi diverse. "I giovani pianeti del Sistema Solare Interno - ha osservato Lichtenberg - divennero molto caldi, svilupparono oceani di magma interni, formarono rapidamente nuclei di ferro e il loro iniziale contenuto di elementi volatili evaporò, portandoli a diventare dei pianeti asciutti".

(foto: Rappresentazione artistica della formazione del Sistema Solare in due fasi (fonte: Mark A Garlick / markgarlick.com)

https://www.ansa.it/canale_scienza_tecnica/notizie/spazio_astronomia/2021/01/22/il-sistema-solare-si-e-formato-in-due-tappe_f8575961-8a57-4e35-b9e3-28b5975b7c8b.html

martedì 6 ottobre 2020

Nobel per la Fisica 2020, premiati gli scienziati che studiano i buchi neri: Roger Penrose, Reinhard Genzel e Andrea Ghez.

 













Il Comitato dei Nobel ha attribuito questo premio alla scoperta "dei più oscuri misteri dell’universo". Penrose ha lavorato a lungo con il cosmologo Stephen Hawking, morto due anni fa.

Il premio Nobel per la Fisica 2020 è stato assegnato a Roger Penrose, “per aver scoperto che la formazione di un buco nero è una chiara predizione della teoria generale della relatività” e congiuntamente a Reinhard Genzel e Andrea Ghez “per la scoperta di un oggetto compatto supermassiccio al centro della nostra galassia”. Il Comitato dei Nobel ha attribuito questo premio alla scoperta “dei più oscuri misteri dell’universo”. Penrose ha lavorato a lungo con il cosmologo Stephen Hawking, morto due anni fa.



Penrose (a sinistra nella foto), che è anche matematico e filosofo, ha ottenuto il dottorato a Cambridge University e ha svolto ricerca a Princeton e Syracuse. È stato ricercatore al King’s College (1961-63) e poi professore di matematica applicata al Birkbeck College di Londra, ha insegnato a Oxford. Nel corso della sua carriera ha ottenuto premi e riconoscimenti, tra i quali: la Eddington Medal insieme a Hawking, la Royal Medal, la Dirac Medal , la Einstein Medal, il Naylor Prize e la De Morgan Medal (2004). Ordine al merito nel 2000, ha ricevuto lauree honoris causa da varie università.

Genzel è nato nel 1952 in Germania, a Bad Homburg vor der Höhe. Si è laureato nel 1978 nell’Università tedesca di Bonn e in seguito ha diretto l’Istituto Max Planck per la Fisica Extraterrestre. In seguito si è trasferito negli Stati Uniti per insegnare nell’Università della California a Berkeley. La più giovane dei premiati, Andrea Ghez, è nata nel 1965 negli Stati Uniti, a New York, e nel 1992 si è laureata presso il California Institute of Technology (Caltech). Attualmente insegna nell’Università della California a Los Angeles.

Il prestigioso premio è stato assegnato a coloro che studiano “i fenomeni più esotici dell’Universo”: Penrose ha mostrato che la Teoria generale della relatività porta alla formazione di buchi neri, e mentre Genzel e Ghez hanno scoperto che un oggetto invisibile ed estremamente pesante governa le orbite delle stelle al centro della nostra galassia. Un buco nero supermassiccio è l’unica spiegazione attualmente nota, sottolinea l’Accademia reale svedese delle Scienze che quest’anno ha dovuto annunciare il più prestigioso riconoscimento scientifico online a causa della pandemia di coronavirus. L’Accademia reale svedese delle Scienze ha assegnato il riconoscimento da 10 milioni di corone svedesi metà a “Roger Penrose che ha utilizzato metodi matematici ingegnosi per dimostrare che i buchi neri sono una diretta conseguenza della teoria della relatività generale di Albert Einstein. Lo stesso Einstein non credeva che i buchi neri esistessero davvero, questi mostri super-pesanti che catturano tutto ciò che li entra. Niente può sfuggire, nemmeno la luce” sottolinea l’Accademia.

“Nel gennaio 1965, dieci anni dopo la morte di Einstein, Roger Penrose dimostrò che i buchi neri possono davvero formarsi e li descrisse in dettaglio; nel loro cuore, i buchi neri nascondono una singolarità in cui tutte le leggi conosciute della natura cessano. Il suo articolo innovativo è ancora considerato il contributo più importante alla teoria della relatività generale dai tempi di Einstein” riferisce l’Accademia reale svedese delle Scienze. Gli altri due scienziati insigniti del Nobel, a cui è andata pari merito l’altra metà, gli altri 5 milioni di corone di svedesi, a Reinhard Genzel e Andrea Ghez, che “guidano ciascuno un gruppo di astronomi che, dall’inizio degli anni ’90, si è concentrato su una regione chiamata Sagittarius A * al centro della nostra galassia”. “Le orbite delle stelle più luminose più vicine al centro della Via Lattea sono state mappate con crescente precisione. Le misurazioni di questi due gruppi concordano, trovando entrambi un oggetto estremamente pesante e invisibile che attira l’accozzaglia di stelle, facendole correre a velocità vertiginose. Circa quattro milioni di masse solari sono raggruppate in una regione non più grande del nostro sistema solare”.

Un buco nero, che ‘pesa’ circa 4 milioni di masse solari, tutte concentrate in una sola regione non più grande del nostro sistema solare. “Il loro lavoro è pionieristico, ci ha dato la maggiore prova mai raccolta di un buco nero supermassiccio al centro della Via Lattea”. Grazie ai telescopi più grandi del mondo, Genzel e Ghez hanno potuto vedere attraverso le enormi nuvole di gas e polvere interstellare, creato nuove tecniche per compensare la distorsione causata dalla nostra atmosfera e costruito strumenti unici, dedicandosi completamente a questa ricerca a lungo termine. “Ho provato dubbio, ma anche eccitazione” ha detto la professoressa Ghez, la quarta donna a ricevere il Premio Nobel per la Fisica, alla domanda su cosa avesse provato nel notare un oggetto sconosciuto nella Via Lattea. “Mai come adesso si può comprendere l’importanza dello studio della scienza e dei fenomeni del mondo. Sono onorata di aver ricevuto il premio, accetto con piacere la responsabilità di ispirare altre donne a studiare nel campo”.

(foto ilFQ)

https://www.ilfattoquotidiano.it/2020/10/06/nobel-per-la-fisica-2020-premiati-gli-scienziati-che-studiano-i-buchi-neri-roger-penrose-reinhard-genzel-e-andrea-ghez/5956165/