SUL CONCETTO DI “VERITÀ” IN
FISICA
(Paolo Rossi –
Dipartimento di Fisica – 12 Marzo 2007)
Quid est veritas? (Joh. 18:38)
La nozione di verità in fisica è
necessariamente più complessa e ambigua della nozione di verità in logica e in
matematica. La prima non può ovviamente prescindere dalla seconda in quanto la
matematica costituisce il linguaggio stesso della fisica, e pertanto ogni
conclusione relativa alla nozione di verità delle proposizioni matematiche si
estende di necessità alle corrispondenti proposizioni della fisica, ma questa
condizione necessaria non è, almeno per la maggior parte dei fisici (ma su
questo punto torneremo in seguito) anche condizione sufficiente.
Manca infatti, al consolidamento
delle proposizioni matematiche di interesse fisico, l’elemento della cosiddetta
“verifica sperimentale”, che sta alla base del metodo galileiano e che si
potrebbe in qualche modo riassumere nell’idea che le proposizioni della fisica
dicono qualcosa “sul mondo reale”.
Finora sono stato costretto a
essere impreciso e indeterminato, perché come vedremo è proprio il senso
preciso di questo “dire qualcosa sul mondo reale” che costituisce l’oggetto
specifico di una qualunque indagine sul peculiare significato della nozione di
“verità in fisica”.
A me pare abbastanza chiaro che
i due nodi centrali su cui deve concentrarsi l’analisi sono quello della
“verificabilità” e quello del “significato” delle proposizioni. Li ho enunciati
nell’ordine in cui li discuterò, ma è evidente che l’ordine logico dei problemi
è quello opposto, perché il problema del significato è quello realmente centrale, e l’altro ne è
corollario.
Ma comincio dalla verificabilità
perché questo problema, almeno per la maggior parte dei fisici, avrebbe già
trovato una soluzione definitiva col principio popperiano della
falsificabilità, per cui vengono riconosciute come fisicamente “vere” solo
quelle proposizioni per le quali è in linea di principio possibile disegnare
procedimenti che portano potenzialmente alla loro falsificazione, ma l’insieme
di tali procedimenti dà in pratica un esito comunque negativo.
Questa nozione di verità è
intrinsecamente provvisoria, in quanto nulla può escludere che sarà in futuro
concepita una nuova procedura di falsificazione il cui esito anziché negativo
sarà positivo. Citando a braccio Kafka “non si capisce bene come un uomo possa
credere nell’esperienza, quando per definizione la prossima volta essa potrà
essere differente”.
Mi
sembra comunque quasi inevitabile che la nozione di falsificabilità rimandi a
sua volta, sia nella definizione delle procedure che nell’analisi del risultato
della loro applicazione, al problema del significato. Lo stesso “evento” può in
molti casi essere inteso come strettamente falsificante per una teoria o un
modello, oppure soltanto come indicazione della necessità di un differente
“dizionario” per la traduzione delle formule in proposizioni relative ai
“fatti”.
In
questo senso è anche immaginabile che si possano concepire “veri” o “falsi” paradossi
della falsificabilità, e questo non è soltanto un esercizio puramente
accademico di dialettica, ma ha precisi riscontri nella storia della fisica.
In
effetti negli ultimi quarant’anni, almeno a partire dall’articolo di Gell-Mann
del 1964, l’applicazione della nozione di falsificabilità si è fatta più
articolata e sofisticata. Consideriamo appunto la teoria dei quark, che molto
ha fatto discutere non solo da un punto di vista fisico ma anche da uno
“metafisico” (nel senso etimologico della parola). Qual è il senso
dell’affermazione “un protone (o un neutrone) è formato da tre quark
caratterizzati dalla proprietà di essere ciascuno portatore di uno diverso tra
i tre valori possibili di una quantità denominata convenzionalmente colore”
se teniamo conto del fatto che quest’affermazione è accompagnata, a livello
assiomatico (secondo alcuni) o teorematico (secondo altri) dalle proposizioni
“i quark isolati non sono osservabili” e “l’unico colore
osservabile è il bianco (ossia la sovrapposizione coerente dei tre colori
fondamentali oppure di un colore e del suo complementare)”?
A questo livello le proposizioni
appena enunciate potrebbero sembrare, nel loro insieme, non falsificabili, e
pertanto inadatte a svolgere il ruolo di “proposizioni fisicamente vere”.
Eppure non c’è oggi (quasi) nessun fisico che dubiti dell’esistenza dei quark,
come pure delle nozioni di confinamento dei quark e del colore.
Il paradosso non è completamente
insolubile, per fortuna, perché ciò che di fatto avviene è il concepimento e la
realizzazione di sempre nuove esperienze,
il cui esito può essere – o non essere – compatibile, per
quanto in modo indiretto e deduttivo, con l’esistenza dei quark, e questo indipendentemente dalla loro
osservabilità. D’altra parte situazioni in qualche modo analoghe si hanno in
discipline scientifiche che hanno una componente “storica” (basti pensare alla
cosmologia, alla tettonica o alla biologia evoluzionistica), componente che in
quanto tale non è suscettibile di replica o di falsificazione sperimentale, ma
che pure ammettono livelli anche sofisticati di teorizzazione e formalizzazione
e criteri di verità ancora una volta basati sul “tutto avviene come se…” di
newtoniana memoria e sulla possibilità di una falsificazione indiretta tramite
una proposizione del tipo “qualcosa non avviene come se…”
D’altronde se spingiamo il
nostro scetticismo filosofico fino ad assumere un legame solo convenzionale e
vagamente intersoggettivo tra le tutte proposizioni “fattuali” e i “fatti” che
esse pretendono di descrivere (che è poi il problema della fedeltà delle
traduzioni cui accennavo in precedenza) ci rendiamo conto che la differenza tra
i quark e i quasar non è poi così abissale.
La falsificabilità popperiana ha
a suo tempo sgombrato il campo da molte difficoltà interpretative della
meccanica quantistica nelle fasi iniziali della sua elaborazione (dal “gatto di
Schrödinger” al dualismo onda-particella) e ha anche permesso, in tempi più
recenti (si veda la storia delle “disuguaglianze di Bell”) di chiudere in sostanza
l’annoso capitolo delle teorie “realiste” basate su “variabili nascoste”.
Pur
tuttavia proprio nel contesto specifico della meccanica quantistica non è
completamente ovvio che la nozione “ingenua” di falsificabilità che ho
enunciato all’inizio si applichi senza difficoltà, anche concettuali. In
particolare le affermazioni relative ai processi di misura sono tutte formulate
in linguaggio “classico” (in quanto non esiste una trattazione quantistica
degli “apparati di misura”) e pertanto, parlando in senso stretto, le proprietà
che si verificano (o falsificano) dipendono dal tipo di misura che si fa,
ovvero dal “contesto”, il che attenua notevolmente il valore di “verità” delle
proposizioni, che al limite, in molte interpretazioni, finiscono con l’avere solo
un significato estrinseco e probabilistico, analogo alle affermazioni sul
comportamento medio di un grande numero di elementi di uno stesso insieme che
si possono fare in statistica. E si noti che questo atteggiamento mentale, con
lo sviluppo dello studio dei sistemi complessi e delle teorie del caos, tende a
“dilagare” anche in ambiti della fisica finora considerati “classici”, con una
messa in discussione della nozione stessa di causalità fisica, che rischia di
spostarsi dal piano gnoseologico a quello ontologico.
Con
queste considerazioni ci siamo però per il momento soltanto avvicinati al
problema del “significato”, che è decisamente più arduo in quanto impone non
soltanto la definizione di protocolli che permettano di mettere in
corrispondenza le proposizioni matematiche con i “fatti”, ma richiede anche, in
forma più spesso implicita che esplicita, l’assunzione di una specifica
“metafisica” che giustifichi il senso e la validità dell’introduzione di tali
protocolli.
Molto popolare tra i fisici è
stato a lungo, ed è tuttora, un qualche tipo di operazionismo alla Bridgman,
per cui la corrispondenza tra le nozioni matematiche e le situazioni fisiche
cui esse si dovrebbero riferire è determinata dalle sequenze (accuratamente
definite) di operazioni che occorre fare per giungere all’attribuzione di un
valore numerico (e quindi di una realtà matematica) alla misura di una
determinata quantità “fisica”, per cui la definizione fisica (o significato)
della quantità matematica risulta nei fatti determinata dalla procedura stessa.
È una soluzione che ha un suo
fascino, e che ha permesso anche di uscire concretamente da alcuni apparenti
vicoli ciechi non solo concettuali ma anche “sperimentali”. Ne sia esempio il
problema della rinormalizzazione, nato dal fatto che in teoria quantistica dei
campi ci si rese conto, già a partire dagli anni ’30, che i calcoli teorici
potevano produrre valori infiniti per quantità apparentemente dotate di
significato “reale”. Un’analisi operativa porta però a comprendere che nessuno degli
infiniti risultanti dal calcolo è in realtà “osservabile”, e le “osservabili”,
una volta definite con appropriate procedure operazionali possono essere
calcolate, con risultati finiti, anche se nei passaggi intermedi del calcolo
compaiono quantità divergenti (tenute sotto controllo con una procedura di
“regolarizzazione”), che alla fine però figurano a numeratore e denominatore di
una stessa frazione e quindi si cancellano.
Queste procedure di
rinormalizzazione, nate in maniera euristica e semiempirica, sono poi state
accuratamente formalizzate, e l’attuale teoria della rinormalizzazione non è
totalmente priva di rigore matematico, anche se lascia sempre una certa dose di
imbarazzo anche in chi ne apprezza tutta la potenza algoritmica e concettuale.
Esistono poi tuttora difficoltà
nella rinormalizzazione di teorie che sono per altri aspetti ritenute “vere”,
come l’elettrodinamica quantistica, in cui sono presenti singolarità
fisicamente inaccettabili dette “poli di Landau”, cosa che induce a pensare a una
sostanziale incompletezza della teoria e spinge da un lato alla costruzione di
teorie più ampie che siano prive di queste difficoltà, dall’altro alla ricerca
di teorie non solo rinormalizzabili ma anche “finite”, ricerca che ha condotto
attraverso vari passaggi alle moderne teorie supersimmetriche e alle cosiddette
“teorie di stringa”, su cui torneremo per la loro rilevanza, a tutt’oggi più
concettuale che sperimentale.
Ma, come si diceva, sulla
nozione di “significato di una proposizione fisica” si scontrano
(filosoficamente, non nella pratica quotidiana) due concezioni che per comodità
chiameremo “ontologica” e “fenomenologica”, ma che per altri versi potrebbero
forse legittimamente chiamarsi “platonica” e “aristotelica”, o anche “realista”
e “nominalista” o “idealista” ed “empirista”, a seconda di quale dei grandi
momenti della tradizione filosofica occidentale vogliamo prendere come punto di
riferimento.
Il punto di vista ontologico è
quello secondo il quale la corrispondenza tra le quantità matematiche e quelle
fisiche è una proprietà intrinseca della natura, nel senso in qualche modo
annunciato da Galileo con il famoso passo del Saggiatore in cui parla
del libro dell’Universo scritto in caratteri matematici (e non a caso la
rivoluzione galileiana ha non poco a che vedere con la ripresa rinascimentale
del platonismo).
C’è un corollario molto forte di
questa concezione, che è presente anche in alcuni dei filoni più avanzati della
ricerca contemporanea in fisica teorica, e che consiste nell’idea che la teoria
fisica fondamentale “vera” esiste ed è unica, ovvero che, una volta che tutti
gli assiomi saranno stati enunciati correttamente e tutte le possibilità
matematiche compatibili con gli assiomi stessi saranno state esplorate, ci si
accorgerà che c’è un’unica teoria completamente consistente e “pertanto” deve
essere quella “vera” (non molto di più e niente di meno, mi pare, della famosa
prova di sant’Anselmo). Una decina di anni fa si è addirittura arrivati a
scrivere su un pezzo di carta la “formula” di questa teoria, che circola sotto
il nome di M-theory.
L’ M-theory nasceva come
sviluppo delle teorie di superstringa, che dopo essere state per un certo
numero di anni studiate e classificate si dimostrarono tutte riconducibili,
grazie a relazioni dette di “dualità”, a differenti avatar di uno stesso
modello fondamentale, definito in uno spazio a undici dimensioni (di cui molte
necessariamente ”compattificate”).
Questa concezione, dopo qualche
momento di gloria, è stata tuttavia messa in crisi e pressoché vanificata dalla
scoperta abbastanza recente che la teoria non prevede un singolo stato
fondamentale (il “vuoto” della teoria, a partire dal quale si crea l’universo e
si determinano tutte le sue caratteristiche e strutture particolari) ma ne
prevede, dicono, circa 10500, un numero tanto smisuratamente grande
da richiedere a sua volta una teoria (che nessuno possiede) per spiegare perché
noi e l’universo attuale ci troviamo proprio nella situazione in cui siamo e
non in una delle pressoché infinite altre “realtà” possibili.
Al di là dell’episodio
specifico, questa visione della fisica, che corrisponde poi anche a un’ipotesi
di estremo riduzionismo (la versione taleban del fisicalismo), è
comunque sempre presente sotto traccia nella ricerca, soprattutto teorica. Un
precedente illustre fu la famosa ricerca della “teoria del campo unificato” cui
Einstein dedicò senza successo gli ultimi trent’anni e passa della sua attività
scientifica.
La concezione “fenomenologica”,
che è sicuramente più popolare tra i fisici sperimentali delle interazioni
fondamentali (anche perché se fosse vera quella ontologica prima o poi essi si
troverebbero disoccupati) è invece più strettamente legata ai protocolli
operazionali e al popperismo (talvolta spicciolo). Da questo punto di vista la
formalizzazione matematica (modellizzazione) dei fenomeni appare essenzialmente
come un fatto di bookkeeping, ossia come un modo rapido ed efficace di
tenere la “contabilità” dei fenomeni stessi, senza la pretesa di darne mai una
spiegazione “ultima”, e quindi senza nemmeno una preoccupazione eccessiva per i
requisiti di coerenza interna assoluta e di estendibilità illimitata (nel
tempo, nello spazio e in energia) delle predizioni della teoria.
L’inconsistenza
dell’elettrodinamica, di cui abbiamo parlato poco sopra, si spiega quindi col
fatto che tale teoria è solo parte del più articolato Modello Standard
delle interazioni fondamentali, e l’eventuale (probabile) inconsistenza di
quest’ultimo è dovuta al suo far parte di una teoria più complessa, capace di
includere la gravità quantistica (anch’essa per ora inconsistente), una teoria
che a sua volta risulterà prima o poi incompleta, in una ricorsione
all’infinito che però non è la stessa invocata dal teorema di Gödel, in quanto
nel nostro caso non si tratta di indimostrabilità della consistenza ma di
dimostrabilità dell’inconsistenza.
Questa concezione, che come
dicevo è propria della fisica sperimentale delle alte energie (e ne giustifica
ideologicamente gli ingenti investimenti), non è però certo estranea anche alla
fisica della materia, che rifugge dalle ipotesi riduzioniste estreme e ama
invece i modelli “semplificati” che descrivono i fenomeni “in un certo
intervallo di valori dei parametri”. Pur facendo uso di strumenti concettuali
estremamente più sofisticati e “moderni”, questa fisica è forse quella più
vicina alla concezione ottocentesca, dominante prima della grande e forse
definitiva separazione metodologica tra fisica teorica e fisica sperimentale
affermatasi a seguito delle grandi rivoluzioni scientifiche del Novecento
(relatività e meccanica quantistica).
Un’ultima notazione tutto
sommato comune ai differenti approcci al problema della “verità” in fisica è
quella che riguarda il modo in cui devono essere formulati gli assiomi. È
notevole sotto questo profilo l’affinità con l’approccio della cosiddetta
“matematica inversa”, in quanto nel caso della fisica è più che mai vero che si
parte dai “teoremi” che si vogliono dimostrare (e che sono le “verità” fisiche
sulle quali esiste un consenso teorico e sperimentale) per individuare
l’insieme (possibilmente minimo) di assiomi che permettono la dimostrazione di
questi teoremi.
Quale che sia la visione del
mondo alla quale il fisico, esplicitamente o implicitamente, aderisce, non v’è
dubbio che nell’accettazione degli assiomi, oltre alla richiesta della loro
mutua coerenza, e a una richiesta “estetica” di semplicità e minimalità (che
pure gioca un ruolo non indifferente), il ruolo fondamentale è preso dalla
richiesta che dagli assiomi si possa dedurre una descrizione del mondo capace
di soddisfare (in modo permanente per gli “ontologi”, in modo provvisorio per i
“fenomenologi”) i criteri di “verità sperimentale” che abbiamo in precedenza
richiamato, e che in ciascuna determinata stagione di “scienza normale” (nel
senso di Kuhn) sono comunque largamente condivisi all’interno della comunità
dei fisici.