A chi studia filosofia viene insegnato che nulla è ovvio, quasi tutto è questionabile ed è generalmente utile e intelligente cercare di evitare asserzioni universali e assolute quando non si è ragionato troppo approfonditamente di un tema. D’altro canto, chi studia e si interessa di epistemologia e filosofia della scienza impara presto che l’arte di rapportarsi criticamente ad altre discipline è scivolosa e complessa: occorre infatti la profonda umiltà di riconoscersi come un non-tecnico di quella materia, che però ha approfondito (o almeno dovrebbe) e si limita ad apportare un contenuto che – tendenzialmente – riguarda la sfera metodologica e/o propriamente ‘filosofica’. Può essere allora interessante trovarsi dall’altro lato e assistere a come può essere facile travisare il significato di una frase, di un dettaglio e, più in generale, rendersi conto dello sforzo titanico che occorre per far dialogare due discipline.
Popper e la giurisprudenza: un rapporto confuso
“[…] In tema di ‘epistemologia della scienza forense’ le vette si colgono senz’altro nelle acquisizioni di una giurisprudenza illuminata che ha tracciato un vero e proprio discours de la méthode di cartesiana memoria, seguendo la via inaugurata dalla sentenza Franzese. […] Questi princìpi trovano formidabile riscontro nel falsificazionismo popperiano, che, con la sua forza espansiva, rappresenta il senso stesso del processo penale. Con vera e propria nonchalance le Sezioni unite Pavan hanno considerato il metodo di Popper come un’acquisizione epistemologica ormai assodata. […]”
C. Conti (2021)
È usanza sorprendentemente comune quella di citare Karl Popper in ambito giuridico. Oltre che in riviste specializzate (come l’esempio riportato sopra), il filosofo austriaco può vantare la presenza e l’esposizione – più o meno accurata – delle proprie idee all’interno di numerose sentenze: Daubert v. Merrell Dow Pharmaceuticals, Inc., 509 U.S. 579 (1993), Franzese (Cass. SU, 30328/2002 Riv. 222138-01), Knox-Sollecito (Cass., 36080/2015 Riv. 264863-01) sono solo alcune. La questione diventa interessante e problematica nel momento in cui molte di queste sentenze presentano l’epistemologia popperiana come una acquisizione assoluta e definitiva; la falsificazione (spesso confusa con il criterio di falsificabilità) viene presentata come il metodo universale per la validazione delle teorie scientifiche. Nulla di più lontano dallo stato dell’arte in filosofia della scienza (per una trattazione del problema specifico si veda l’articolo di G. Boniolo e G. Gennari). Qui ci interessa chiarire i punti salienti della teoria epistemologica di Popper e, allo stesso tempo, osservare quali obiezioni hanno storicamente fatto sì che la teoria delle congetture e confutazioni venisse classificata per quello che è: una teoria bellissima e affascinante, ma che purtroppo risulta debole ad un’analisi approfondita.
Popper e il neopositivismo a confronto
La teoria popperiana risulta più immediata se la si confronta con alcune istanze del neopositivismo, la teoria dominante dell’epoca in cui un giovanissimo Popper si avvicina alla filosofia della scienza. Il neopositivismo guarda alla scienza secondo i criteri di conferma e verificazione. Gli scienziati, in ottica neopositivista, partendo dalle osservazioni empiriche arrivano a formulare teorie e leggi che andranno verificate empiricamente tramite esperimenti. Una spiegazione apparentemente semplice e lineare che, tuttavia, si fonda su due assunzioni implicite ampiamente discutibili:
- partire dal dato empirico per formulare una legge generale è un classico esempio di inferenza induttiva, notoriamente problematica (già dal lavoro di Hume) poiché impossibile da fondare logicamente senza cadere in un circolo vizioso;
- il principio di uniformità della natura, ovvero l’assunzione per cui le cose della natura si comportano sempre allo stesso modo (es. il sole è sempre sorto quindi sorgerà anche domani mattina). Dalle obiezioni e dalle risposte a tali principi, Popper cerca di proporre una visione della scienza che possa permettersi di rifiutare il principio di induzione, ossia lavorare solamente con la certezza delle deduzioni senza essere costretti ad effettuare quell’atto di fede che è l’assunzione a priori del principio di uniformità della natura.
Il falsificazionismo in a nutshell
Popper nota quella che può essere chiamata un’asimmetria logica tra verificazione e falsificazione. L’idea è molto semplice: una frase come “tutti i cigni sono rosa” ha bisogno di infinite osservazioni per essere verificata, mentre al primo cigno non rosa l’enunciato è falsificato in automatico. Allora, come sostiene Popper, è molto più conveniente concentrarsi sulla falsificazione, poiché per falsificare non servono induzioni o infiniti esperimenti. Il compito dello scienziato ‘popperiano’ diventa quello di formulare ipotesi e/o teorie (congetture) falsificabili per poi cercare la falsificazione (confutazioni) tramite gli esperimenti e le osservazioni empiriche. Una teoria falsificata dall’esperimento è da rigettare, mentre una corroborata è da controllare nuovamente, ancora e ancora all’infinito; una teoria robusta è proprio una corroborata molteplici volte. Il punto è semplice quanto apparentemente strabiliante: grazie alla falsificabilità abbiamo un criterio di demarcazione capace di chiarirci quando i nostri enunciati sono scientifici e grazie alla falsificazione possiamo mettere alla prova gli enunciati e vedere quali reggono il confronto con il metodo e quali no. L’epistemologia di Popper è così affascinante proprio perché chiara, accessibile e apparentemente molto efficace.
Contro il falsificazionismo
Ma arriviamo ora al cuore della questione. Il falsificazionismo ha avuto molti sostenitori e altrettanti avversari; conseguentemente le obiezioni e le risposte a tali obiezioni si sprecano. Un argomento di natura non logica o filosofica, bensì pragmatica, legato a quegli studiosi guardano con attenzione alla storia della scienza, accusa di utopia la tesi di Popper. A ben vedere, infatti, storicamente nessun intellettuale ha mai formulato una teoria con il desiderio di provare a confutarla. Le teorie vengono da sempre difese strenuamente e vi è molto clamore quando si tratta di dover scegliere tra due o più teorie egualmente buone. Questo argomento non è in alcun modo definitivo, è chiaro; tuttavia, è bene ricordare che l’evidenza storica ci scoraggia dal prescrivere agli scienziati un metodo e un obbiettivo che confligga con la libertà della ricerca.
Tralasciando per brevità e semplicità il problema delle ipotesi ad hoc, sono due le obiezioni più interessanti che mostrano seriamente i difetti e le lacune del falsificazionismo:
- gli asserti probabilistici;
- l’olismo.
“Comunque si definisca il concetto di probabilità […] le asserzioni probabilistiche non saranno falsificabili. Le ipotesi probabilistiche non mettono fuori causa nulla che sia osservabile; le stime probabilistiche non possono contraddire una asserzione-base, né possono esserne contraddette. […]”
K. Popper, Logica della scoperta scientifica, Einaudi, Torino, 2010, p. 201
Popper è cristallino nella sua avversione verso gli enunciati statistici e, tuttavia, non può permettersi di negare l’evidente importanza che questi hanno nella pratica scientifica quotidiana – oltre all’uso enorme che ne viene fatto da parte di tutti gli scienziati moderni. Per risolvere il problema, il filosofo austriaco propone di considerare un evento come falsificante un’ipotesi statistica solo se essa lo nega e questo è riproducibile. In pratica, l’evento non è un falsificatore potenziale se la probabilità che accada è molto bassa. Il problema della risposta di Popper è evidente: come si stabilisce quanto bassa deve essere la probabilità di un evento affinché questo non sia un falsificatore? Quello che viene sollevato è un nuovo tipo di problema di demarcazione che ha come unica risposta quella di affidarsi alle capacità dello scienziato nel caso specifico. Una risposta ovviamente insoddisfacente.
Il secondo argomento è indubbiamente quello più difficile da arginare, nonché il più problematico per i fautori del falsificazionismo. Nel 1906, il fisico e filosofo francese Pierre Duhem pubblicò la prima edizione de La teoria fisica. Nel libro Duhem avanza un’ipotesi che sarebbe poi passata alla storia con il nome di tesi Duhem-Quine (anche se la versione che ne diede successivamente Quine è per alcuni aspetti diversa e molto più ‘forte’). La tesi asserisce che non è mai possibile controllare un enunciato preso singolarmente, ma bisogna sempre controllare gli enunciati componenti una teoria presi come un insieme. La ratio dietro la tesi è la seguente: le teorie possono essere pensate come insiemi contenenti ipotesi esplicite, ipotesi implicite e asserti osservativi; nel momento in cui un esperimento fallisce, l’unica informazione che riceviamo tramite feedback è che la congiunzione degli elementi dell’insieme è falsa. Non sappiamo però in quale dei congiunti risieda il problema. Sostanzialmente, non abbiamo idea se l’errore si trovi in un’assunzione, in un’osservazione oppure in qualche congettura, e tentare di capirlo sembra quantomeno estremamente dispendioso. Se la tesi è giusta, allora l’asimmetria tra verificazione e falsificazione viene meno: entrambe le operazioni divengono egualmente impossibili e il falsificazionismo riceve un colpo potenzialmente fatale.
Idola tribus
Del falsificazionismo originale viene salvato poco o nulla. Tuttavia, Popper gode di un pregio molto particolare quanto segretamente ambito dai filosofi: il rispetto degli scienziati. Nonostante gli scontri, gli errori e le gaffe, il filosofo austriaco è stato senza ombra di dubbio uno dei pochissimi ad avere un impatto così marcato e personale sulla scienza e sul suo operato. Sono stati molteplici gli scienziati autodefinitisi “popperiani” ed è incredibilmente difficile trovare un’altra teoria che abbia saputo dialogare (e scontrarsi) così fervidamente con la scienza (in particolar modo la fisica) di metà ‘900; una scienza già matura e pienamente consapevole di se stessa. Ancora più grande è la fama di Popper quando si fuoriesce dall’epistemologia; i suoi scritti di filosofia politica lo hanno reso celebre al grande pubblico, consacrandolo come uno dei pensatori più affascinanti, provocatori e polarizzanti del secolo scorso.
Eppure, è buona cosa – metodologicamente parlando – distruggere gli idola e contestualizzare il pensiero dei grandi del passato. Tralasciando la politica, la teoria dell’autore di Congetture e confutazioni si è dimostrata errata e non regge al vaglio di un’analisi approfondita. È stato un contributo importantissimo per la storia della filosofia della scienza ed è bene lasciarlo lì, tra gli altri giganti del suo tempo.
La filosofia, infatti, per quanto avente delle derive bizzarre e discutibili, rimane un sapere in crescita e soggetto a revisione (per quanto possibile). Il dibattito sulle teorie del metodo scientifico e quello sul criterio di demarcazione tra scienza e non-scienza ha subito cambiamenti e stravolgimenti incredibili dopo la pubblicazione della Logica della scoperta scientifica (1934) e Congetture e confutazioni (1963). Si pensi solo che il lavoro più famoso di Feyerabend, Contro il metodo, è del 1975; i lavori più rilevanti di Lakatos sono di fine anni ’60 e le sue celebri lectures alla London School of Economics sono dei primi anni ’70. Ma ovviamente, c’è ancora molta ricerca sui nuovi problemi riguardanti le teorie del metodo.
In conclusione, purtroppo e per fortuna quando ci domandiamo cosa sia la scienza e cosa caratterizzi i suoi procedimenti e il suo lavoro, Popper non può aiutarci e la risposta necessita di essere cercata altrove.
Leggi anche: