Prima di seguirli, verifica che vivano secondo le loro parole.
Confucio
Il modello classico
Analizzando il percorso del pensiero scientifico non possiamo trascurare l’evidenza che Babilonesi, Maya, Aztechi, o Cinesi possedevano un numero di conoscenze astronomiche e matematiche che avevano consentito loro di costruire calendari molto precisi e di creare regole di computo corrette per svariati problemi concreti. Analogamente avevano conoscenze di botanica, zoologia, medicina e ingegneristiche rilevanti. Però, è con la Grecia che possiamo far risalire la nascita della scienza perché i greci avevano elaborato un modello nuovo e originale del sapere.
Tale modello prevedeva che quando aspiriamo a conoscere una certa realtà non possiamo limitarci ad appurare che essa esista e a descrivere come sia fatta, ma dobbiamo anche cercare di comprendere perché esiste e perché è fatta così come ci appare. Pertanto non è più sufficiente attenerci a quanto ci fornisce l’esperienza ma dobbiamo far intervenire la ragione la quale chiarisce che quanto constatiamo rientra in un quadro generale, non facendo più riferimento a miti o a concezioni animistiche.
Quello che si manifesta in Grecia a partire dal VI secolo a.C. era l’esigenza di rendere esplicite le “ragioni”, attraverso una dimostrazione la quale fosse capace di rifarsi a principi universali e non più a raffigurazioni più o meno immaginifiche. In tal modo la spiegazione dei modi di apparire delle cose fu ricercata nel che cosa esse sono, cioè nella loro natura o essenza o nelle cause che le pongono in essere. Emergevano quindi accanto alle esigenze dell’empiria anche quelle del logos.
Ad esempio, come già detto, altre civiltà conoscevano esempi pratici corretti di problemi matematici e geometrici, ma sono i Greci che hanno fornito la dimostrazione delle proprietà generali dei numeri e delle figure geometriche di cui quegli esempi non erano che casi particolari, e con ciò essi hanno fornito anche la ragione della loro correttezza. Questa rivoluzione scientifica è rimasta la caratteristica costante di quello che è definito il modello classico della scienza.
La costruzione della rivoluzione scientifica greca parte dalla necessità di garantire il possesso della verità: già Parmenide (nato nel 540 a.C.) distinse tra verità e opinione, ove la prima si conquista con il logos il quale può obbligarci a respingere quanto sembrerebbe evidente ai sensi, affidandosi ai quali si resterebbe nel regno potenzialmente fallace delle opinioni. Ma possono sussistere anche opinioni vere, pertanto esiste il problema di distinguere tra opinioni (anche vere) ed epistéme (sapere). Il problema fu affrontato da Platone e da Aristotele che sostennero che dopo aver appurato una verità l’epistéme, il sapere autentico si raggiunge solo quando si è in grado di darne la ragione ossia di darne il perché. Ma che cosa significa darne il perché? Per i greci voleva dire: offrire una dimostrazione; e in che cosa consiste una dimostrazione? Per Aristotele una dimostrazione consiste in una concatenazione di proposizioni nella quale la verità delle premesse si trasmette alle conclusioni; per realizzare la concatenazione delle proposizioni Aristotele inventò la logica la quale identifica le forme di alcuni schemi deduttivi corretti (Famoso il sillogismo: Tutti gli uomini sono mortali, Socrate è un uomo, Socrate è mortale) e si evidenziano alcune forme scorrette di ragionamento. Ma come garantirsi della verità delle premesse? Esse devono essere vere di per sé e sono chiamate princìpi. In conclusione il sapere autentico è quello che si fonda su princìpi evidenti, universali e necessari (detti anche assiomi o postulati). Ad esempio tutta la geometria euclidea si basa su 5 postulati: 1. Tra due punti qualsiasi è possibile tracciare una e una sola retta. 2. Si può prolungare una retta oltre i due punti indefinitamente. 3. Dato un punto e una lunghezza, è possibile descrivere una circonferenza. 4. Tutti gli angoli retti sono uguali. 5. Se una retta taglia altre due rette determinando dallo stesso lato angoli interni la cui somma è minore di quella di due angoli retti, prolungando indefinitamente le due rette, esse si incontreranno dalla parte dove la somma dei due angoli è minore di due angoli retti.
Il concetto greco di scienza non era altro che quello di un sapere non vincolato ai contenuti, ma aspirava a investire contenuti diversi, pur dovendo rilevare livelli di applicazione diversi a seconda della materia trattata.
Una prima ripartizione la formula Aristotele e riguarda le finalità per le quali si cerca il sapere. La prima finalità riguarda il sapere volto alla conoscenza di come stanno le cose; le scienze che perseguono questo fine sono chiamate teoretiche e, secondo Aristotele, sono la fisica, la matematica e la metafisica (che studia la realtà in quanto tale, ossia i princìpi primi che valgono per qualunque tipo di realtà e che arriva anche a stabilire l’esistenza di realtà che non si possono conoscere attraverso i sensi). La seconda finalità riguarda un sapere in vista dell’agire correttamente, ossia volto alla conoscenza di come si deve condurre la propria esistenza; le relative scienze sono dette pratiche e sono l’etica, e la politica. La terza finalità riguarda un sapere in vista del fare e produrre risultati e oggetti concreti; le relative scienze sono dette poietiche o arti (con un significato diverso da quello attuale), come diverse attività produttive, ma anche la medicina e l’oratoria. Come si può notare il concetto moderno di scienza prevede esclusivamente, della classificazione aristotelica, la fisica e la matematica, anche se già Aristotele, nell’Etica Nicomachea, osservava che nell’etica non era possibile conseguire lo stesso grado di rigore dimostrativo che si raggiunge nella matematica. L’aspirazione a comprendere le cause è viva anche nella cultura latina se fa dire a Virgilio nelle Georgiche «Felix qui potuit rerum cognoscere causas».
Nel Medioevo si può affermare che la scienza non fece progressi; giova però ricordare l’opera del matematico pisano Leonardo Fibonacci (1170-1240). Fibonacci, nel 1202 pubblicò, e nel 1228 riscrisse il Liber abbaci, opera in quindici capitoli con la quale introdusse per la prima volta in Europa le nove cifre, da lui chiamate indiane e il segno 0 che in latino è chiamato zephirus, adattamento dell'arabo sifr, ripreso a sua volta dal termine indiano sunia, che significa vuoto. Zephirus in veneziano divenne zevero ed infine comparve l'italiano zero. Per mostrare l'utilità del nuovo sistema egli pose sotto gli occhi del lettore una tabella comparativa di numeri scritti nei due sistemi, romano e indiano. Nel libro presentò inoltre criteri di divisibilità, regole di calcolo di radicali quadratici e cubici ed altro. Introdusse con poco successo anche la barretta delle frazioni, nota al mondo arabo.. Nel libro sono anche compresi quesiti matematici che gli furono posti, con la loro soluzione. All'epoca il mondo occidentale usava i numeri romani e il sistema di numerazione greco e i calcoli si facevano con l'abaco. Questo nuovo sistema stentò molto ad essere accettato, tanto che nel 1280 la città di Firenze proibì l'uso delle cifre arabe da parte dei banchieri. Si riteneva che lo "0" apportasse confusione e venisse impiegato anche per mandare messaggi segreti e poiché questo sistema di numerazione veniva chiamato "cifra", da questa denominazione deriva il termine messaggio cifrato. Giova ricordare che il centro-nord Italia divenne famosa in Europa per i suoi banchieri che per primi usarono la numerazione araba, e che erano quindi facilitati nel calcolo.
Busto di Aristotele
Nascita della scienza moderna.
L’idea che la gente ha, comunemente, del Rinascimento è quella di un periodo di straordinaria fioritura letteraria e artistica, nato in Italia e diffusosi in tutta Europa accompagnato dalla nascita di nuove filosofie e profondi sconvolgimenti religiosi e il crinale tra Medioevo e Rinascimento è collocato alla scoperta dell’America. Tale visione manca però di uno degli elementi che costituiscono la grandezza del Rinascimento il suo contributo alla creazione della scienza moderna. Un primo apporto lo diede Niccolò Copernico (1473-1543) con il suo modello eliocentrico. La sua teoria - che propone il Sole al centro del sistema di orbite circolari dei pianeti componenti il sistema solare - riprende quella greca di Aristarco di Samo dell'eliocentrismo, la teoria opposta al dominante geocentrismo, che voleva invece la Terra al centro del sistema. Merito suo non è dunque l'idea, già espressa dai greci, ma la sua dimostrazione tramite procedimenti di carattere matematico. La nascita della scienza moderna coincide però, con il superamento della scienza classica e questo passo fu compiuto da Galileo Galilei (1564-1642). Galileo afferma che la conoscenza delle “sostanze naturali” non poteva avere successo se si pretendeva di conoscere la loro essenza intima; occorreva, invece, conoscere le proprietà (“affezioni”) di tali sostanze e tali proprietà dovevano poter essere quantificabili e matematizzabili. Egli sostiene, inoltre, che le proposizioni in cui si formula la conoscenza scientifica devono essere, dapprima, formulate come ipotesi (“supposizioni”) e poi controllate mediante esperimenti, introducendo esplicitamente il metodo sperimentale come strumento principe della conoscenza scientifica. Infine, Galileo supera anche il tradizionale concetto di osservazione, intesa come uso diretto dei sensi; egli ricorre sistematicamente agli strumenti e con ciò si avvia la consapevolezza che l’osservazione scientifica è normalmente un’osservazione strumentale e si inaugura quel connubio tra scienza e tecnologia che diventerà sempre più stretto. Erede di Galileo sarà Isaac Newton (1642-1727) che a materia e moto, intese da Galileo come entità primitive che si conservano, aggiunge il concetto di forza come grandezza capace di determinare una variazione del moto (accelerazione); in particolare alle forze già note, Newton aggiunge la forza gravitazionale con la quale egli spiega la caduta dei gravi, il moto del pendolo, le orbite dei pianeti e il sistema solare, fenomeni che rientrano in quella che verrà chiamata meccanica. Non si può trascurare il fatto che gli sviluppi della meccanica si ebbero anche grazie ai progressi nel calcolo infinitesimale alla cui creazione contribuirono lo stesso Newton e Wilhelm Leibniz (1646-1716). In tutto il settecento l’analisi infinitesimale venne applicata alla dimostrazione di svariati problemi di fisica con la nascita della fisica matematica che finirà per incarnare il paradigma della scientificità. Newton accentuò la posizione galileiana dell’eliminazione della metafisica (dal greco metà physicà, oltre la materia) o dell’occulto dalla spiegazione dei fenomeni naturali. Cartesio (1596-1650) tentò di operare una mediazione tra scienza e metafisica con l’introduzione di due sostanze la res extensa e la res cogitans (materia e spirito), sostenendo che la scienza è competente a studiare la res extensa e non tocca la seconda che è di esclusiva competenza della metafisica e della teologia.
Immanuel Kant (1724-1804) chiarisce quali debbano essere le caratteristiche di un autentico sapere, che egli chiama scienza. Esse sono il requisito della cumulatività e coerenza delle informazioni e quello dell’accordo degli specialisti del campo (visione parzialmente aristotelica), requisiti che la metafisica non possiede, mentre per Kant matematica, fisica e chimica hanno raggiunto lo stato sicuro di scienza. Giova notare che la chimica si era lasciata alle spalle i legami con le dottrine magiche e misteriche; con Antoine Lavoisier (1743-1794) la chimica assume le vesti di una costruzione teorica rigorosa e verificata dalla sperimentazione.
Nell’ottocento si sviluppa, partendo dall’Inghilterra, la rivoluzione industriale, in particolare nei settori tessile, minerario e metallurgico; un effetto di questa rivoluzione sarà l’invenzione da parte di James Watt (1736-1819) della macchina a vapore che avvia l’epoca delle macchine, dei trasporti (Georges Stephenson costruisce la prima locomotiva a vapore) e di una nuova branca della fisica: la termodinamica. La rivoluzione industriale richiede sempre più energia e al carbone si aggiungono in brevissimo tempo, petrolio ed elettricità. Le macchine si arricchiscono di nuove invenzioni come la dinamo di Pacinotti (1841-1912) e l’alternatore di Galileo Ferraris (1847-1897); altre invenzioni in coda alla rivoluzione industriale sono telegrafo, telefono, lampadina elettrica e una gran quantità di prodotti chimici. Nell’ambito dei processi produttivi si impongono il fordismo, la parcellizzazione del lavoro e il taylorismo.
Dopo la seconda guerra mondiale si sviluppa un’altra rivoluzione industriale caratterizzata dalla nascita di nuovi settori industriali come spaziale, elettronico, telematico, informatico, farmaceutico, biochimico, ma specialmente dal fatto che in essi il progresso non è più garantito dalla disponibilità di materie prime e fonti di energia ma dalla capacità di coordinare e gestire preziose risorse umane e potentissimi calcolatori. Questa rivoluzione vede affiancare all’attività industriale quella dei servizi alle persone e alle imprese; nel campo della scienza ai grandi scienziati tuttologi si sostituiscono gli scienziati specialisti. L’ultimo dei grandi scienziati con una poliedricità di interessi e competenze fu Lord Kelvin (1824-1907) che utilizzò la sua perizia di matematico per studi di idrodinamica, di termodinamica, di elettromagnetismo, di geofisica, di ingegneria dei cavi telegrafici transatlantici. Con la Grande Esposizione di Londra del 1851 ha inizio l’era delle fiere industriali che diventano le vetrine dei progressi tecnici e tecnologici dei vari paesi.
Nel settecento nasce una disciplina, la teoria dell’evoluzione, che interessa la nascita dell’uomo e sulla quale gli scienziati stanno, ancora oggi, dibattendo. Le teorie evoluzioniste trovarono forti resistenze nel mondo accademico di allora, forse maggiori della stessa teoria copernicana, perché mettevano in discussione i principi tradizionali della teologia riguardanti l’uomo. Se Copernico aveva tolto la Terra dal centro dell’universo, l’evoluzionismo toglie all’uomo la posizione di centralità e di perfezione che lo rendeva simile al creatore. Il lamarckismo fu la prima teoria evoluzionistica e fu elaborata dal naturalista francese Jean-Baptiste de Lamarck (1744-1829). Nella sua opera Philosophie zoologique (1809), Lamarck giungeva alla conclusione che gli organismi, così come si presentano, fossero il risultato di un processo graduale di modificazione che avveniva sotto la pressione delle condizioni ambientali. Lamarck assegnava una notevole importanza al ruolo attivo degli organismi nel modificarsi in risposta agli stimoli ambientali, e riteneva che l'uso di determinati organi, o parti di organi, provocasse le modificazioni; in questo modo essi rispondono meglio alle esigenze di sopravvivenza dell'animale, in base al principio secondo cui la funzione crea l'organo. Le modificazioni si sarebbero poi trasmesse alla generazione successiva e l'accumularsi dei caratteri acquisiti, di generazione in generazione, avrebbe determinato l'apparire di nuove specie meglio adattate all'ambiente. Prima di Lamarck si riteneva che le specie esistessero così come erano state create, secondo quanto detto nella Genesi biblica, e quindi che fossero rimaste immutate durante tutta la storia della Terra. Questa teoria è detta fissismo ed ancora oggi essa trova credito presso alcune confessioni di fondamentalisti biblici. Charles Robert Darwin (1809-1882) è stato il naturalista britannico, celebre per aver formulato la teoria dell'evoluzione delle specie animali e vegetali per selezione naturale agente sulla variabilità dei caratteri (origine delle specie), per aver teorizzato la discendenza di tutti i primati (uomo compreso) da un antenato comune (origine dell'uomo) e per aver teorizzato la possibile esistenza di un antenato comune a tutte le specie viventi. Pubblicò la sua teoria sull'evoluzione delle specie nel libro L'origine delle specie (1859); quando il libro uscì andò esaurito in due giorni. Darwin raccolse molti dei dati su cui basò la sua teoria durante un viaggio intorno al mondo sulla nave HMS Beagle, e in particolare durante la sua sosta alle Isole Galápagos. Il Neodarwinismo è la teoria evoluzionistica attualmente più accreditata in campo scientifico. Essa deriva dall'integrazione tra:
1. la teoria dell'evoluzione delle specie per selezione naturale di Charles Darwin;
2. la teoria dell'ereditarietà di Gregor Mendel sulle basi dell'eredità biologica rivista alla luce della moderna genetica, comprese le mutazioni genetiche casuali come sorgente della variazione;
3. la forma matematica della genetica delle popolazioni;
4. l'analisi dei dati della paleontologia.
In breve, il neodarwinismo si fa carico di una specifica concezione che consiste nel considerare come unità fondamentale dell'eredità il gene come bersaglio del meccanismo dell'evoluzione (la selezione naturale). La sintesi neodarwiniana unifica diverse branche della biologia che in precedenza avevano pochi punti di contatto, in particolare la genetica, la citologia, la sistematica, la botanica e la paleontologia.
Nello stesso periodo nel quale si impongono le teorie evoluzioniste nasce il positivismo il cui programma è quello di estendere il metodo scientifico al mondo dell’uomo e della società, e quindi a settori riservati, fino ad allora, alla metafisica, come psicologia, etica, politica, storia. Auguste Comte (1798-1875), considerato il fondatore del positivismo creò una nuova disciplina la sociologia che cercò di impostare come ”fisica sociale” sul modello della meccanica newtoniana per quanto concerne lo studio delle strutture e delle dinamiche sociali. Comte considerò la sociologia come l'ultimo risultato di uno sviluppo di scienze, quali la biologia, la chimica e la fisica. Egli pensava che lo studio di tale disciplina avrebbe condotto l'umanità a uno stato di benessere, dato dalla comprensione e dalla conseguente capacità di controllo del comportamento umano. Il positivismo portò i suoi princìpi al di fuori della filosofia; in arte con la nascita del naturismo in Francia (Emile Zola) e del verismo in Italia (Giovanni Verga) e in politica con il marxismo che Carlo Marx (1818-1883) elaborò proprio grazie a una lettura scientifica della storia.
Ritratto di Galileo Galilei
La scienza oggi
Nell’ottocento si sviluppa un’esasperata ricerca di rigore logico nell’ambito della matematica che porta a esiti inattesi ossia a una situazione di vera e propria crisi dei fondamenti e, infine, ai famosi teoremi di Gödel (1906-1978) . I teoremi di Gödel sono teoremi di logica del primo ordine (Nella logica matematica una teoria del primo ordine è un particolare sistema formale, cioè una teoria formale in cui è possibile esprimere enunciati e dedurre le loro conseguenze logiche in modo del tutto formale e meccanico), e devono essere collocati in questo contesto. Nella logica formale, tanto gli enunciati matematici quanto le dimostrazioni sono scritti in un linguaggio simbolico (simbolo è un elemento della comunicazione, che esprime contenuti di significato dei quali esso diventa il significante), dove è possibile verificare meccanicamente la validità delle dimostrazioni, e non ci possono essere dubbi sul fatto che un teorema sia conseguenza degli assiomi inizialmente elencati. Ricordo che un assioma è una proposizione o un principio che viene assunto come vero perché ritenuto evidente o perché fornisce il punto di partenza di un quadro teorico di riferimento. In teoria, qualsiasi dimostrazione sviluppata entro un sistema formale può essere verificata da un computer, e di fatto esistono programmi fatti per controllare la validità delle dimostrazioni o per cercare nuove dimostrazioni (sono chiamati dimostratori automatici dei teoremi o General Theorem Prover - Gtp). Per definire una teoria formale bisogna conoscere e definire alcuni assiomi di partenza. Ad esempio si può partire da un insieme finito di assiomi, come nella geometria euclidea, oppure, con maggiore generalità, si può consentire che esista un insieme infinito di assiomi. In questo caso, però, deve essere possibile controllare meccanicamente se un qualsiasi enunciato è un assioma di quell'insieme oppure no (si parla in questo caso di schema di assiomi). In informatica si direbbe che esiste un insieme ricorsivo di assiomi (un insieme ricorsivo è un insieme di numeri naturali, per cui è possibile costruire un algoritmo che in un tempo finito sia in grado, dato un qualunque numero naturale, di stabilire se esso appartiene o no all'insieme). Anche se può sembrare strano immaginare un elenco infinito di assiomi, questo è proprio ciò che si usa nella assiomatizzazione dei numeri naturali nella logica del primo ordine: quando vogliamo convertire gli assiomi di Peano (Gli assiomi di Peano sono un gruppo di assiomi ideati dal matematico Giuseppe Peano al fine di definire assiomaticamente l'insieme dei numeri naturali) in un linguaggio del primo ordine, il principio di induzione (Il principio d'induzione è un enunciato sui numeri naturali che in matematica trova un ampio impiego nelle dimostrazioni) diventa uno schema di assiomi; esso dice che per ogni possibile proprietà se lo zero ha quella certa proprietà e il successore di qualsiasi numero naturale che abbia quella proprietà ha anch'esso quella proprietà, allora tutti i numeri naturali hanno quella proprietà. Poiché ciò deve valere per ogni possibile proprietà e nel linguaggio del primo ordine non si può quantificare sulle proprietà, l'unico modo possibile per definire il principio di induzione in questo contesto è considerare un numero infinito di assiomi, uno per ogni possibile proprietà che si può definire nel linguaggio del primo ordine. La teoria assiomatica che si ottiene con tale formalizzazione è nota nell'ambito della logica matematica con l'acronimo PA (Peano Arithmetic). Il primo teorema di incompletezza di Gödel dimostra che qualsiasi sistema che permette di definire i numeri naturali è necessariamente incompleto: esso contiene affermazioni di cui non si può dimostrare né la verità né la falsità. Il fatto che possano esistere sistemi incompleti non è una scoperta particolarmente sorprendente. Ad esempio se si elimina il postulato delle parallele dalla geometria euclidea si ottiene un sistema incompleto (nel senso che il sistema non dimostra tutte le proposizioni vere). L'essere incompleto per un sistema formale significa semplicemente - da un punto di vista semantico - che esso non include tutti gli assiomi necessari a caratterizzare univocamente uno specifico modello (è il caso ad esempio dei primi quattro assiomi di Euclide che ammettono come modello sia la geometria euclidea sia le geometrie non euclidee). Ciò che Gödel ha mostrato è che, in molti casi importanti, come nella teoria dei numeri, nella teoria degli insiemi o nell'analisi matematica, non è mai possibile giungere a definire la lista completa degli assiomi che permetta di dimostrare tutte le verità. Ogni volta che si aggiunge un enunciato all'insieme degli assiomi, ci sarà sempre un altro enunciato non incluso. Si possono sempre aggiungere infiniti assiomi; ad esempio, si possono aggiungere tutti gli enunciati veri sui numeri naturali alla lista degli assiomi, ma tale lista non è un insieme ricorsivo. Se si prende un qualsiasi enunciato casuale, non sarà possibile stabilire se esso è o non è un assioma del sistema. Pertanto data una qualsiasi dimostrazione, in generale, non sarà più possibile verificarne la correttezza. Il teorema di Gödel ha un'altra interpretazione esprimibile nel contesto informatico. Nella logica del primo ordine l'insieme di tutti i teoremi di una teoria è un insieme ricorsivamente enumerabile: ciò significa che è possibile scrivere un algoritmo che possa generare, prima o poi, ogni dimostrazione valida. Ci si può chiedere se questi teoremi soddisfino la proprietà più restrittiva di essere anche ricorsivi. È possibile scrivere un programma per computer in grado di determinare con certezza se una certa affermazione è vera o falsa? Il teorema di Gödel dice che ciò, in generale, non è possibile. Molti studiosi di logica sostengono che i teoremi di incompletezza di Gödel abbiano definitivamente affossato il programma di David Hilbert volto a costruire un formalismo matematico universale. L'idea generalmente condivisa è che nel secondo teorema si trovi la risposta definitiva che ha dato il colpo di grazia al programma di Hilbert, altri pensano che tale risposta si trovi nel primo teorema, ma c'è anche chi ritiene che nessuno dei due conduca necessariamente a questo tipo di conclusione circa il programma di Hilbert. Con qualche semplificazione il secondo teorema di Gödel afferma che nessun sistema coerente può essere utilizzato per dimostrare la sua stessa coerenza. Questo risultato ebbe effetti devastanti sul programma di Hilbert. David Hilbert riteneva che la coerenza di sistemi formali complessi, come ad esempio quello dell'analisi matematica sul campo dei reali, potesse essere dimostrata scomponendo il sistema in sistemi più semplici. In questo modo, il problema della coerenza di tutta la matematica si sarebbe potuto ricondurre alla coerenza dell'aritmetica elementare. Il secondo teorema di incompletezza di Gödel mostra che, dato che nemmeno un sistema particolarmente semplice come quello dell'aritmetica elementare può essere utilizzato per provare la propria stessa coerenza, così, a maggior ragione, esso non può essere utilizzato per dimostrare la coerenza di sistemi più potenti. In sostanza con Gödel si dimostra che nessun sistema formale è in grado di dimostrare dal suo interno la propria non contradditorietà.
Mentre filosofi e logici sconvolgevano il mondo della matematica due teorie sconvolgevano la fisica. La relatività (Einstein 1879-1955) e la meccanica quantistica (Planck, Heisenberg, Bohr …) davano, infatti, duri colpi alla fisica meccanicistica. Si pensi al fatto di dover conciliare la dualità della rappresentazione corpuscolare e ondulatoria delle particelle elementari, all’indeterminazione dell’attribuzione simultanea, a livello microfisico, di valori a grandezze coniugate (posizione e velocità ad esempio), alla necessità di considerare la massa e le dimensioni spaziali di un corpo non più come sue proprietà inalterabili e intrinseche, ma come variabili in funzione della velocità, all’interdipendenza di due variabili concettualmente distinte come spazio e tempo, alla conversione di una concezione deterministica a una probabilistica delle leggi naturali, con la correlata riconsiderazione del principio di causalità. D’altra parte già con il secondo principio della termodinamica “il calore passa da un corpo ad uno più freddo”, non era stata dimostrata la non reversibilità associando, pertanto, il principio stesso ad un’ipotesi probabilistica; “la probabilità che il calore passi da un corpo freddo a uno caldo ha una probabilità infinitamente piccola. Il terremoto provocato dalla relatività e dalla fisica quantistica era stato interpretato come la prova che la fisica fino ad allora conosciuta si era dimostrata falsa, pur avendo goduto di due secoli ininterrotti di conferme sperimentali e di trionfi interpretativi. Come si poteva davanti a una rivoluzione di tale violenza continuare a ritenere che la scienza offrisse un sapere certo? Che le teorie scientifiche che stavano imponendosi sarebbero state quelle vere? Cosicché quella che possiamo definire scienza contemporanea si discosta da quella precedente per il fatto di riconoscere come sua caratteristica la fallibilità piuttosto che la certezza. La consacrazione di questa concezione viene dal filosofo Karl Popper (1902-1994) il quale critica le tesi del neo-positivismo sottolineando che le ipotesi scientifiche non possono mai essere riconosciute come vere in forza delle conferme sperimentali, poiché queste ultime riguardano sempre e soltanto le loro conseguenze logiche ed è ben noto che la verità delle conseguenze non assicura in modo certo la verità delle premesse, mentre la falsità di una conseguenza è sufficiente per asserire la falsità di una almeno delle premesse da cui è stata dedotta. La scienza, secondo Popper, si caratterizza per il fatto di sottoporsi a questa procedura di falsificazione che consiste, di fronte a un problema conoscitivo, di formulare una congettura capace di risolverlo ma, nello stesso tempo, di porsi alla ricerca di possibili situazioni sperimentali che potrebbero falsificare la congettura stessa. Se questa resiste a tali sforzi la si può ritenere corroborata, ma mai definitivamente stabilita con certezza. La scienza può soltanto accrescere il livello di verosimiglianza delle sue conquiste conoscitive, ma non può mai fregiarsi del titolo di conoscenza certa e vera. Presto o tardi ogni teoria scientifica viene refutata e abbandonata e non v’è alcuna ragione per ritenere che questa modalità debba arrestarsi a un certo punto: la ricerca non ha mai fine. Per Popper la falsificabilità è anche il criterio di demarcazione tra scienza e non scienza: una teoria è scientifica se e solo se essa è falsificabile.
Se la scienza antica poteva considerarsi ispirata dall’ideale dell’osservazione, quella moderna dall’ideale della scoperta, quella contemporanea è significativamente presentata come ricerca, vale adire come un’attività che si innesta su quanto già la scienza ha costruito, ma non già a titolo di patrimonio sicuramente acquisito, bensì come insieme di costrutti rivedibili, criticabili, abbandonabili. La scienza si alimenta della scienza stessa per correggersi e progredire. confutarla. Nel novecento si ha, inoltre, un’esplosione di nuove scienze che non è il caso qui di approfondire. Basta citare, tra le altre: la biologia molecolare, la genetica, la teoria dei sistemi, la cibernetica, la cosmologia, la climatologia, le nanotecnologie, l’intelligenza artificiale, l’ecologia. Nessuno degli scienziati si pose più l’obiettivo della definizione di una verità assoluta, ma solo e sempre quello della progressione del pensiero scientifico.
..... Eugenio Caruso
3 febbraio 2013
Tratto da