SUL CONCETTO DI “VERITÀ” IN FISICA

 

(Paolo Rossi – Dipartimento di Fisica – 12 Marzo 2007)

 

Quid est veritas? (Joh. 18:38)

 

La nozione di verità in fisica è necessariamente più complessa e ambigua della nozione di verità in logica e in matematica. La prima non può ovviamente prescindere dalla seconda in quanto la matematica costituisce il linguaggio stesso della fisica, e pertanto ogni conclusione relativa alla nozione di verità delle proposizioni matematiche si estende di necessità alle corrispondenti proposizioni della fisica, ma questa condizione necessaria non è, almeno per la maggior parte dei fisici (ma su questo punto torneremo in seguito) anche condizione sufficiente.

Manca infatti, al consolidamento delle proposizioni matematiche di interesse fisico, l’elemento della cosiddetta “verifica sperimentale”, che sta alla base del metodo galileiano e che si potrebbe in qualche modo riassumere nell’idea che le proposizioni della fisica dicono qualcosa “sul mondo reale”.

Finora sono stato costretto a essere impreciso e indeterminato, perché come vedremo è proprio il senso preciso di questo “dire qualcosa sul mondo reale” che costituisce l’oggetto specifico di una qualunque indagine sul peculiare significato della nozione di “verità in fisica”.

A me pare abbastanza chiaro che i due nodi centrali su cui deve concentrarsi l’analisi sono quello della “verificabilità” e quello del “significato” delle proposizioni. Li ho enunciati nell’ordine in cui li discuterò, ma è evidente che l’ordine logico dei problemi è quello opposto, perché il problema del significato  è quello realmente centrale, e l’altro ne è corollario.

Ma comincio dalla verificabilità perché questo problema, almeno per la maggior parte dei fisici, avrebbe già trovato una soluzione definitiva col principio popperiano della falsificabilità, per cui vengono riconosciute come fisicamente “vere” solo quelle proposizioni per le quali è in linea di principio possibile disegnare procedimenti che portano potenzialmente alla loro falsificazione, ma l’insieme di tali procedimenti dà in pratica un esito comunque negativo.

Questa nozione di verità è intrinsecamente provvisoria, in quanto nulla può escludere che sarà in futuro concepita una nuova procedura di falsificazione il cui esito anziché negativo sarà positivo. Citando a braccio Kafka “non si capisce bene come un uomo possa credere nell’esperienza, quando per definizione la prossima volta essa potrà essere differente”.

Mi sembra comunque quasi inevitabile che la nozione di falsificabilità rimandi a sua volta, sia nella definizione delle procedure che nell’analisi del risultato della loro applicazione, al problema del significato. Lo stesso “evento” può in molti casi essere inteso come strettamente falsificante per una teoria o un modello, oppure soltanto come indicazione della necessità di un differente “dizionario” per la traduzione delle formule in proposizioni relative ai “fatti”.

In questo senso è anche immaginabile che si possano concepire “veri” o “falsi” paradossi della falsificabilità, e questo non è soltanto un esercizio puramente accademico di dialettica, ma ha precisi riscontri nella storia della fisica.

In effetti negli ultimi quarant’anni, almeno a partire dall’articolo di Gell-Mann del 1964, l’applicazione della nozione di falsificabilità si è fatta più articolata e sofisticata. Consideriamo appunto la teoria dei quark, che molto ha fatto discutere non solo da un punto di vista fisico ma anche da uno “metafisico” (nel senso etimologico della parola). Qual è il senso dell’affermazione “un protone (o un neutrone) è formato da tre quark caratterizzati dalla proprietà di essere ciascuno portatore di uno diverso tra i tre valori possibili di una quantità denominata convenzionalmente colore” se teniamo conto del fatto che quest’affermazione è accompagnata, a livello assiomatico (secondo alcuni) o teorematico (secondo altri) dalle proposizioni “i quark isolati non sono osservabili” e “l’unico colore osservabile è il bianco (ossia la sovrapposizione coerente dei tre colori fondamentali oppure di un colore e del suo complementare)”?

A questo livello le proposizioni appena enunciate potrebbero sembrare, nel loro insieme, non falsificabili, e pertanto inadatte a svolgere il ruolo di “proposizioni fisicamente vere”. Eppure non c’è oggi (quasi) nessun fisico che dubiti dell’esistenza dei quark, come pure delle nozioni di confinamento dei quark e del colore.

Il paradosso non è completamente insolubile, per fortuna, perché ciò che di fatto avviene è il concepimento e la realizzazione di sempre nuove esperienze,  il cui esito può essere – o non essere – compatibile, per quanto in modo indiretto e deduttivo, con l’esistenza dei quark,  e questo indipendentemente dalla loro osservabilità. D’altra parte situazioni in qualche modo analoghe si hanno in discipline scientifiche che hanno una componente “storica” (basti pensare alla cosmologia, alla tettonica o alla biologia evoluzionistica), componente che in quanto tale non è suscettibile di replica o di falsificazione sperimentale, ma che pure ammettono livelli anche sofisticati di teorizzazione e formalizzazione e criteri di verità ancora una volta basati sul “tutto avviene come se…” di newtoniana memoria e sulla possibilità di una falsificazione indiretta tramite una proposizione del tipo “qualcosa non avviene come se…”

D’altronde se spingiamo il nostro scetticismo filosofico fino ad assumere un legame solo convenzionale e vagamente intersoggettivo tra le tutte proposizioni “fattuali” e i “fatti” che esse pretendono di descrivere (che è poi il problema della fedeltà delle traduzioni cui accennavo in precedenza) ci rendiamo conto che la differenza tra i quark e i quasar non è poi così abissale.

La falsificabilità popperiana ha a suo tempo sgombrato il campo da molte difficoltà interpretative della meccanica quantistica nelle fasi iniziali della sua elaborazione (dal “gatto di Schrödinger” al dualismo onda-particella) e ha anche permesso, in tempi più recenti (si veda la storia delle “disuguaglianze di Bell”) di chiudere in sostanza l’annoso capitolo delle teorie “realiste” basate su “variabili nascoste”.

Pur tuttavia proprio nel contesto specifico della meccanica quantistica non è completamente ovvio che la nozione “ingenua” di falsificabilità che ho enunciato all’inizio si applichi senza difficoltà, anche concettuali. In particolare le affermazioni relative ai processi di misura sono tutte formulate in linguaggio “classico” (in quanto non esiste una trattazione quantistica degli “apparati di misura”) e pertanto, parlando in senso stretto, le proprietà che si verificano (o falsificano) dipendono dal tipo di misura che si fa, ovvero dal “contesto”, il che attenua notevolmente il valore di “verità” delle proposizioni, che al limite, in molte interpretazioni, finiscono con l’avere solo un significato estrinseco e probabilistico, analogo alle affermazioni sul comportamento medio di un grande numero di elementi di uno stesso insieme che si possono fare in statistica. E si noti che questo atteggiamento mentale, con lo sviluppo dello studio dei sistemi complessi e delle teorie del caos, tende a “dilagare” anche in ambiti della fisica finora considerati “classici”, con una messa in discussione della nozione stessa di causalità fisica, che rischia di spostarsi dal piano gnoseologico a quello ontologico.

Con queste considerazioni ci siamo però per il momento soltanto avvicinati al problema del “significato”, che è decisamente più arduo in quanto impone non soltanto la definizione di protocolli che permettano di mettere in corrispondenza le proposizioni matematiche con i “fatti”, ma richiede anche, in forma più spesso implicita che esplicita, l’assunzione di una specifica “metafisica” che giustifichi il senso e la validità dell’introduzione di tali protocolli.

Molto popolare tra i fisici è stato a lungo, ed è tuttora, un qualche tipo di operazionismo alla Bridgman, per cui la corrispondenza tra le nozioni matematiche e le situazioni fisiche cui esse si dovrebbero riferire è determinata dalle sequenze (accuratamente definite) di operazioni che occorre fare per giungere all’attribuzione di un valore numerico (e quindi di una realtà matematica) alla misura di una determinata quantità “fisica”, per cui la definizione fisica (o significato) della quantità matematica risulta nei fatti determinata dalla procedura stessa.

È una soluzione che ha un suo fascino, e che ha permesso anche di uscire concretamente da alcuni apparenti vicoli ciechi non solo concettuali ma anche “sperimentali”. Ne sia esempio il problema della rinormalizzazione, nato dal fatto che in teoria quantistica dei campi ci si rese conto, già a partire dagli anni ’30, che i calcoli teorici potevano produrre valori infiniti per quantità apparentemente dotate di significato “reale”. Un’analisi operativa porta però a comprendere che nessuno degli infiniti risultanti dal calcolo è in realtà “osservabile”, e le “osservabili”, una volta definite con appropriate procedure operazionali possono essere calcolate, con risultati finiti, anche se nei passaggi intermedi del calcolo compaiono quantità divergenti (tenute sotto controllo con una procedura di “regolarizzazione”), che alla fine però figurano a numeratore e denominatore di una stessa frazione e quindi si cancellano.

Queste procedure di rinormalizzazione, nate in maniera euristica e semiempirica, sono poi state accuratamente formalizzate, e l’attuale teoria della rinormalizzazione non è totalmente priva di rigore matematico, anche se lascia sempre una certa dose di imbarazzo anche in chi ne apprezza tutta la potenza algoritmica e concettuale.

Esistono poi tuttora difficoltà nella rinormalizzazione di teorie che sono per altri aspetti ritenute “vere”, come l’elettrodinamica quantistica, in cui sono presenti singolarità fisicamente inaccettabili dette “poli di Landau”, cosa che induce a pensare a una sostanziale incompletezza della teoria e spinge da un lato alla costruzione di teorie più ampie che siano prive di queste difficoltà, dall’altro alla ricerca di teorie non solo rinormalizzabili ma anche “finite”, ricerca che ha condotto attraverso vari passaggi alle moderne teorie supersimmetriche e alle cosiddette “teorie di stringa”, su cui torneremo per la loro rilevanza, a tutt’oggi più concettuale che sperimentale.

Ma, come si diceva, sulla nozione di “significato di una proposizione fisica” si scontrano (filosoficamente, non nella pratica quotidiana) due concezioni che per comodità chiameremo “ontologica” e “fenomenologica”, ma che per altri versi potrebbero forse legittimamente chiamarsi “platonica” e “aristotelica”, o anche “realista” e “nominalista” o “idealista” ed “empirista”, a seconda di quale dei grandi momenti della tradizione filosofica occidentale vogliamo prendere come punto di riferimento.

Il punto di vista ontologico è quello secondo il quale la corrispondenza tra le quantità matematiche e quelle fisiche è una proprietà intrinseca della natura, nel senso in qualche modo annunciato da Galileo con il famoso passo del Saggiatore in cui parla del libro dell’Universo scritto in caratteri matematici (e non a caso la rivoluzione galileiana ha non poco a che vedere con la ripresa rinascimentale del platonismo).

C’è un corollario molto forte di questa concezione, che è presente anche in alcuni dei filoni più avanzati della ricerca contemporanea in fisica teorica, e che consiste nell’idea che la teoria fisica fondamentale “vera” esiste ed è unica, ovvero che, una volta che tutti gli assiomi saranno stati enunciati correttamente e tutte le possibilità matematiche compatibili con gli assiomi stessi saranno state esplorate, ci si accorgerà che c’è un’unica teoria completamente consistente e “pertanto” deve essere quella “vera” (non molto di più e niente di meno, mi pare, della famosa prova di sant’Anselmo). Una decina di anni fa si è addirittura arrivati a scrivere su un pezzo di carta la “formula” di questa teoria, che circola sotto il nome di M-theory.

L’ M-theory nasceva come sviluppo delle teorie di superstringa, che dopo essere state per un certo numero di anni studiate e classificate si dimostrarono tutte riconducibili, grazie a relazioni dette di “dualità”, a differenti avatar di uno stesso modello fondamentale, definito in uno spazio a undici dimensioni (di cui molte necessariamente ”compattificate”).

Questa concezione, dopo qualche momento di gloria, è stata tuttavia messa in crisi e pressoché vanificata dalla scoperta abbastanza recente che la teoria non prevede un singolo stato fondamentale (il “vuoto” della teoria, a partire dal quale si crea l’universo e si determinano tutte le sue caratteristiche e strutture particolari) ma ne prevede, dicono, circa 10500, un numero tanto smisuratamente grande da richiedere a sua volta una teoria (che nessuno possiede) per spiegare perché noi e l’universo attuale ci troviamo proprio nella situazione in cui siamo e non in una delle pressoché infinite altre “realtà” possibili.

Al di là dell’episodio specifico, questa visione della fisica, che corrisponde poi anche a un’ipotesi di estremo riduzionismo (la versione taleban del fisicalismo), è comunque sempre presente sotto traccia nella ricerca, soprattutto teorica. Un precedente illustre fu la famosa ricerca della “teoria del campo unificato” cui Einstein dedicò senza successo gli ultimi trent’anni e passa della sua attività scientifica.

La concezione “fenomenologica”, che è sicuramente più popolare tra i fisici sperimentali delle interazioni fondamentali (anche perché se fosse vera quella ontologica prima o poi essi si troverebbero disoccupati) è invece più strettamente legata ai protocolli operazionali e al popperismo (talvolta spicciolo). Da questo punto di vista la formalizzazione matematica (modellizzazione) dei fenomeni appare essenzialmente come un fatto di bookkeeping, ossia come un modo rapido ed efficace di tenere la “contabilità” dei fenomeni stessi, senza la pretesa di darne mai una spiegazione “ultima”, e quindi senza nemmeno una preoccupazione eccessiva per i requisiti di coerenza interna assoluta e di estendibilità illimitata (nel tempo, nello spazio e in energia) delle predizioni della teoria.

L’inconsistenza dell’elettrodinamica, di cui abbiamo parlato poco sopra, si spiega quindi col fatto che tale teoria è solo parte del più articolato Modello Standard delle interazioni fondamentali, e l’eventuale (probabile) inconsistenza di quest’ultimo è dovuta al suo far parte di una teoria più complessa, capace di includere la gravità quantistica (anch’essa per ora inconsistente), una teoria che a sua volta risulterà prima o poi incompleta, in una ricorsione all’infinito che però non è la stessa invocata dal teorema di Gödel, in quanto nel nostro caso non si tratta di indimostrabilità della consistenza ma di dimostrabilità dell’inconsistenza.

Questa concezione, che come dicevo è propria della fisica sperimentale delle alte energie (e ne giustifica ideologicamente gli ingenti investimenti), non è però certo estranea anche alla fisica della materia, che rifugge dalle ipotesi riduzioniste estreme e ama invece i modelli “semplificati” che descrivono i fenomeni “in un certo intervallo di valori dei parametri”. Pur facendo uso di strumenti concettuali estremamente più sofisticati e “moderni”, questa fisica è forse quella più vicina alla concezione ottocentesca, dominante prima della grande e forse definitiva separazione metodologica tra fisica teorica e fisica sperimentale affermatasi a seguito delle grandi rivoluzioni scientifiche del Novecento (relatività e meccanica quantistica).

Un’ultima notazione tutto sommato comune ai differenti approcci al problema della “verità” in fisica è quella che riguarda il modo in cui devono essere formulati gli assiomi. È notevole sotto questo profilo l’affinità con l’approccio della cosiddetta “matematica inversa”, in quanto nel caso della fisica è più che mai vero che si parte dai “teoremi” che si vogliono dimostrare (e che sono le “verità” fisiche sulle quali esiste un consenso teorico e sperimentale) per individuare l’insieme (possibilmente minimo) di assiomi che permettono la dimostrazione di questi teoremi.

Quale che sia la visione del mondo alla quale il fisico, esplicitamente o implicitamente, aderisce, non v’è dubbio che nell’accettazione degli assiomi, oltre alla richiesta della loro mutua coerenza, e a una richiesta “estetica” di semplicità e minimalità (che pure gioca un ruolo non indifferente), il ruolo fondamentale è preso dalla richiesta che dagli assiomi si possa dedurre una descrizione del mondo capace di soddisfare (in modo permanente per gli “ontologi”, in modo provvisorio per i “fenomenologi”) i criteri di “verità sperimentale” che abbiamo in precedenza richiamato, e che in ciascuna determinata stagione di “scienza normale” (nel senso di Kuhn) sono comunque largamente condivisi all’interno della comunità dei fisici.