Il compito degli uomini di cultura è più che mai oggi quello di seminare dei dubbi, non già di raccogliere certezze, Norberto Bobbio

Pagine

Statistica, caos e probabilità

Condividi
Introduzione

In un contesto sociale contemporaneo in cui prende piede la progressiva scientizzazione di ogni veduta, anche della più astratta, si inserisce a pieno titolo il fatto che si può applicare una teoria statistica generale ad aspetti meno consueti. Il tentativo posto in essere dalla scienza moderna è, in un quadro più ampio, quello di irradiare certezze e prevedibilità anche a spaccati per loro natura imprevedibili. Il conformizzarsi a mappe cognitive pre-esistenti e in continuo movimento è anche un aspetto non secondario di istituzionalizzazione di una razionalità umana considerata limitata e per questo intrinsecamente permeata di diversi gradi di errore. L’analisi fatta mette in luce come in questa prospettiva universalistica possa essere inserita anche quella di una configurazione probabilistica, pur considerando il mio solo un tentativo marginale poiché approfondimento improprio di un corso introduttivo di statistica. Per questo, l’esplicito richiamo alla termodinamica non è che un aspetto utile a supportare le mie teorie in merito. Il richiamo implicito è invece quello riferito all’interpretazione statistica di un fenomeno, che ci porta ad affermare la sua probabilità/improbabilità in base alla lontananza o vicinanza all’equilibrio dei sistemi complessi.

“Tu ritieni che Dio giochi a dadi col mondo
io credo invece che tutto ubbidisca a una legge
in un mondo di realtà obiettive che cerco di cogliere per via furiosamente speculativa.
Lo credo fermamente, ma spero che qualcuno scopra una strada più realistica
- o meglio un fondamento più tangibile -
di quanto non abbia saputo fare io.
Nemmeno il grande successo iniziale della teoria dei quanti
riesce a convincermi che alla base di tutto vi sia la casualità,
anche se so bene che i colleghi più giovani considerano
questo atteggiamento come un effetto di sclerosi.”
A.Einstein, 1926 (da una lettera a Max Born)
La reinterpretazione dei sistemi valoriali contemporanei consente di analizzare, in una prospettiva multiparadigmaticamente [Kuhn] indefinita e indefinibile, situazioni e alternative tra di loro diverse mediante un approccio sintetico e generalizzante della complessità reale che tende alla omogeneizzazione dei tratti comuni e dei meccanismi di ogni fattispecie concreta. Ciò che costituisce il minimo comune denominatore di ogni singolarità e specificazione differenziata quotidianamente, è il percepire esse stesse come strutture sistemiche in armonia con una linearità teorica dei sistemi viventi. È possibile ricorrere a schemi interpretativi della realtà caratterizzati dalla necessità di riduzione di complessità seguendo la tendenza odierna di scientizzare e calcolare – razionalizzandolo – l’esistente. In una variabilità di sistema dove fisiologicamente l’evoluzione è la normalità, e dove l’instabilità è un fattore necessario per la sua riproduzione, il mutamento e l’adattamento al nuovo stato-di-cose è condizione sine qua non per la sopravvivenza sistemica. In questa prospettiva è il più adatto – e non il più forte – a sopravvivere, come in una mitosi cellulare allorché ineliminabile. Quello della dinamicità è un tratto fondamentale che in una interpretazione estensiva si ricollega direttamente ad un plusvalore sistemico ben riassunto dall’assioma dello strutturalismo gestalico che, in capo a Wertheimer, si rifà ad una concezione tale per cui “il tutto è più della somma delle singole parti”. Ciò premesso, è importante considerare la complessità del sistema. Un sistema aperto caratterizzato da equifinalità, ovverosia da combinazioni diverse di possibilità per raggiungere i medesimi obiettivi, è tanto più adatto a sopravvivere e riprodursi quanto più differenziato e articolato sia al suo interno. Sposando tale tesi, l’autoreferenzialità (autolegittimazione) e l’autopoiesi (autoriproduzione dei suoi elementi costitutivi) sono determinanti da una complessità che è il nuovo paradigma che sostituisce quello lineare della fisica classica, ovvero che toglie prevedibilità ai sistemi non solo per la razionalità limitata umana [Simon], ma anche a causa della dipendenza sensibile dalle condizioni iniziali del sistema, dalle quali differisce imprevedibilmente e con una sequenza di eventi casuali, differenziandone le caratteristiche, anche con definizioni distorte. L’instabilità e le fluttuazioni del nostro universo fisico e biologico creano perciò sub-unità interagenti per la quali non ha la priorità la funzione, né tantomeno una “complicazione” (somma meccanica delle parti senza effetti di interazione), ma la “complessità” che richiama di per sé la termodinamica come teoria generale. Se è vero – come è vero – che ciò che lega due sistemi è la temperatura e se è vero che sillogisticamente i sistemi S1 e S2 sono in equilibrio, e S2 è in equilibrio con S3, è altrettanto vero che S1 è in equilibrio con S3 (principio zero); nel caso concreto, allo stesso modo, se la loro temperatura interna è stabile e costante, se uno di essi si dovesse alterare, anche tutti gli altri saranno soggetti a turbolenze compensative. Il primo principio è invece un principio di conservazione dell’energia, la quale per permettere al sistema di funzionare e di espletare almeno le funzioni sufficienti al suo mantenimento deve essere consumata in parte per la produzione di lavoro, che non può essere prodotto ciclicamente facendo ricorso ad un’unica sorgente [Clausius e Kelvin], e che produrrà incessantemente ulteriore calore (secondo e terzo principio). Non potendo diminuire, l’entropia creerà maggior disordine, e con esso maggiore complessità, che se non riequilibrata da chiusure operative adattive porterà inevitabilmente alla disintegrazione del sistema. Come un organismo che si nutre, produce lavoro, crea energia aggiunta che elimina tramite gli apparati escretori pena lo “scoppio” del sistema” [Palacios], anche il sistema teorico statistico in sé si autotutela e limita tale entropia per mezzo della selezione, ossia concedendo ad alcune sue parti maggior importanza, e ad altre meno. Inoltre, il retroterra relazionale – e con esso il fatto che tali relazioni aggiungono temporalmente elementi rispetto al tempo precedente t-1 – è perfettamente in sintonia con l’unidirezionalità temporale di un sistema che aggiunge disordine, energia, complessità ma che non può tornare indietro. Rappresentando il disordine un gran numero di disposizioni dei sottosistemi interni al sistema, l’ordine è una relazione che permette di determinare la selezione di una particolare disposizione delle parti costituenti, tenendo conto anche dell’esistenza di un ordine precedente. Procedendo in questo senso, e considerando la tesi di Boltzman che considera l’entropia come il logaritmo di una probabilità, si può affermare che la probabilità è strettamente connessa con l’ordine di un sistema, essendo una dichiarazione circa la verosomiglianza del manifestarsi di un certo particolare evento fra tutti i possibili eventi che possono manifestarsi un dato sistema; detto ciò, una situazione improbabile tenderà con il passare del tempo a trasformarsi in una situazione più probabile. E, in richiamo al secondo principio, ogni sistema lasciato a se stesso tenderà in media a raggiungere lo stato caratterizzato dalla probabilità massima, che non vuol dire che il sistema passerà necessariamente in una configurazione più probabile ma solo che questo accadrà “in media”, cioè qualche particolare cambiamento potrà andare in un altro senso, ma con bassa probabilità. Ad esempio, pur tenendo in considerazione le dovute eccezioni, a livello di potere la governabilità di un impianto relazionale, o sociale, o politico, è data dalla scelta della situazione migliore per raggiungere gli obiettivi preposti non solo in base ad astratte preferenze, ma anche grazie all’eliminazione degli errori precedenti e all’accaparramento delle situazioni che invece hanno la massima probabilità di essere le migliori per quel contesto. Non solo. La probabilità è anche strettamente connessa con l’informazione, che consiste quindi nell’esclusione di alcune tra le possibili disposizioni alternative di un sistema, cioè ad una diminuzione di possibili probabilità e di aumento di ordine; intendendo, per informazione, non tanto “conoscenza”, quanto “conoscibilità”, è anch’essa condizione sine qua non sia per l’ordine interno e per le relazioni dei sistemi, sia per una comunicazione intersistemica nell’ambiente. Maggior informazione crea maggior ordine, poiché la poca probabilità – e quindi una segmentazione eccessiva della probabilità complessiva – dà molta più informazione che una probabilità unica. Nella lingua italiana per esempio, lettere con una bassa probabilità.come z, q, h danno molte più informazioni che lettere più probabili; disponendo all’uopo in più possibilità di scelta e di confronto che significano gestione dell’incertezza, l’irreversibilità dei processi formati da cicli aperti e non da cilindri configurazionali finiti, e cioè chiusi, della macchina termica di Carnot che perciò tende al massimo disordine poiché scambia energia ma non materia (sostanzialità), si scartano i sistemi isolati dove non è scambiata nemmeno energia, e si avrà il massimo di entropia e quindi uno stato di equilibrio, così come avviene nell’Universo. Un sistema aperto è in grado di autorganizzarsi spontaneamente quando si trova lontano dall’equilibrio, in seguito a perturbazioni esterne che inducono fluttuazioni casuali del sistema che non lasciano previsionabilità sul quando e sul come avverrà la messa in ordine; l’ordine strutturale è di per sé condizione necessaria ma non sufficiente a che ci sia una corretta interpretazione della complessità organizzata, vista la correlazione con un ordine funzionale, l’esistenza di gerarchie e di retroazioni (catena alimentare nell’ecosistema naturale, organizzazione aziendale nel mondo sociale,…). I sistemi biologici, molto complessi e ordinati, conservano e trasmettono informazione sotto forma di ordine e funzioni acquisite durante l’evoluzione, e tengono conto di un feed-back e di fluttuazioni che possono portare a instabilità e alla formazione di nuove strutture, ovverosia determinando incompatibilità con la regolarità e la prevedibilità classiche. Pur tuttavia in sistemi dinamici non lineari, parametri variano in modo caotico in sistemi sani, mentre una variazione regolare può essere segno di patologia: non a caso le distorsioni intrinseche di per sé, se non stabilizzate e non regolari, sono presenti in un qualsivoglia campo di azione interagente. La dipendenza sensibile dei sistemi complessi alle condizioni iniziali, non descrivibili mediante leggi fisiche deterministiche, fa sì che il loro comportamento non sia intrinsecamente indeterministico, ma il problema sta nella fissazione di quelle condizioni iniziali mai conosciute appieno, e nella presenza inevitabile di errori nell’analisi – in questo caso – umana, conducenti ad una deviazione fra il comportamento previsto e quello reale. Nello specifico – e esponenzialmente –, per quanto piccola sia l’indeterminazione iniziale, l’incertezza corrisponderà ad un intervallo sufficientemente ampio in cui si innesta la discrezionalità individuale, in una situazione in cui la conoscibilità delle situazioni originarie, e con esse intendendo anche le cause che comportano un determinato assetto, è scarsa o perlomeno ambigua. In effetti, storiograficamente le variabili o anche le costanti storiche variano e si sommano in base alle contingenze reali che comunque richiedono una numerosità abbastanza elevata di problematiche per innescare una determinata fattispecie concreta analizzabile statisticamente, e le cui analisi in profondità sono molto spesso frammentarie e/o incomplete, o parzialmente errate, tanto che le dinamiche future di una situazione apparentemente simile possono discostarsi di gran lunga da quella già analizzata (verificabilità asintotica) [Gosset]. L’azione riassumibile in dati deve costituire un’autodescrizione del sistema per capirne le dinamiche, coadiuvata dalla presenza di un’informazione interna che non è necessariamente veritiera ma che in ogni caso corrisponde alle tendenze evolutive del sistema stesso, dove però – e più in generale – , proprio perché entropicamente tende al disordine, per non soccombere cerca “razionalmente” un ordine tramite una autoimmunizzazione, nonché decongestionando e esperendo un’azione a-conflittualizzante contro l’allentamento dei legami interni, la specializzazione, la cumulazione di effetti di rifiuto. E la regolarità geometrica soggiacente alle strutture – più o meno ordinate -, ovverosia l’invarianza rispetto al cambiamento di scala (autosomiglianza), rimanda direttamente alle rappresentazioni più o meno simboliche ricorrenti nella statistica lineare e non: la linea e la curva. Prendendo spunto dai recenti studi sul cervello umano, compiuti in relazione all’emisfero sinistro razionale e quello destro creativo, sul piano intellettuale ha affascinato la linearità, mentre sul piano artistico la non-linearità. La geometria euclidea [Euclide] dal 300 a.C è stata interiorizzata dal pensiero occidentale come gruppo coerente di regole logiche, integrata dalle teorie secentesche di Cartesio inerenti agli intervalli regolari di tre rette perpendicolari che conferiscono posizionalità spaziale agli oggetti, e presumibilmente completata da Newton e Leibnitz attraverso il calcolo differenziale e la concezione lineare delle curve. La differenziazione e il suo inverso – l’integrazione – fu in grado di fornire un sistema di interpretazione dell’Universo-sistema. Ma la loro intera concettualizzazione è da rimettere in discussione dopo la presa di posizione di Weierstrass e Sierpinski, le cui figure non asservivano alle formule matematiche precedenti. I profondi studi novecenteschi sull’infinito permettono così a Von Koch di risolvere matrici infinite di equazioni lineari tramite la sua “linea costiera” e “il fiocco di neve” a lunghezze via via sempre più crescenti, spunto centrale per introdurre ciò di cui si vuol discutere: la probabilità. In ciò aiuta, anche se introducendo complessità ai risultati finali, la dimensione frattale, che richiama l’irrazionalità numerica costituente la maggior parte delle situazioni reali, ma che ha trovato fino a Lindermayer e Mandelbrot il limite della difficoltà dei calcoli. Quest’ultimo, negli anni ’50, estrinseca la prospettiva probabilistica nello studio dell’imprevedibilità temporale dei fenomeni ciclici del mercato dei beni di consumo: la ricorsività delle variazioni del prezzo del cotone nel tempo gli ha fatto capire come ogni parte ha all’incirca il medesimo andamento dell’intero. La somiglianza statistica dell’invarianza di scala di una parte all’intero richiama almeno tre aspetti di primaria importanza: il già citato strutturalismo gestaltico wertheimeriano, ma soprattutto l’andamento simmetrico-asimmetrico delle configurazioni probabilistiche delle curve statistiche di Gauss, e tutta la teoria campionaria e stimatoria sia per grandi che per piccoli campioni anche in relazione all’estrapolazione dell’errore standard [di nuovo Gosset con la T]. Mandelbrot, studiando cicli all’interno di cicli, utilizzò tecniche di iterazione introducendo un fattore causale ad ogni fase, in modo che la curva non risultasse periodicamente e artificialmente regolare, notando egualmente che tutti i frattali si erano rivelati invarianti per trasformazioni lineari, ovverosia autosimili per cambiamenti di scala e per traslazioni, e, perciò, matematicamente astrattizzaabili. Ciò – ogni punto moltiplicato per se stesso e aggiunto al punto originario – ha permesso di definire fenomeni naturali come i fulmini o il classico flusso turbolento dell’acqua, cioè quei fenomeni esclusi puntualmente da una indagine scientifico-statistica in quanto caotici, aventi un comportamento imprevedibile e non ripetibile. La rivoluzione scientifica della scienza della complessità permette di trovare definizioni adeguate al “panta rei” eraclitiano, tenendo conto del fatto che sistemi ordinati possono essere trasformati con incredibile facilità in incontrollabili, così come l’ordine può emergere dal caos: retroattivamente esiste una certa quantità x che varia – nel tempo o in relazione a qualche altra variabile – in modo tale che il valore di x, in qualsiasi istante, dipenda con andamento regolare dal suo valore nell’istante precedente, venendo però a cadere il legame cartesiano tra grandezze fisiche che possono assumere valori diversi a seconda delle circostanze (variabilità), esprimibile con relazioni matematiche di eguaglianza. È con Poincarè – nel 1892 – che si incrina il determinismo della fisica classica e che si evidenzia come i sistemi dinamici non siano stabili ma abbiano un grado intrinseco di caoticità, data dal porro unicum dell’elemento terzo che rompe la regolarità e la prevedibilità dei due primi elementi provocando perturbazioni influenzanti il comportamento del sistema globale, quindi la sua stabilità, e di conseguenza l’integrabilità delle equazioni differenziali. La suddetta concezione è affiancabile alla definizione di per sé statistica della connessione spuria, ancorché determinata da variabili interagenti esterne, ma è con lo studio sui gradi di libertà di Lorenz (1968) che si arriva alla concettualizzazione del caos deterministico, ossia il comportamento caotico di sistemi molto semplici, che si rifà allo studio di Mandelbrot sul particolarismo-globalismo sistemico e sul costante aumento di complessità-caos, pur tuttavia avente una struttura ordinata poiché descrivibile matematicamente (sistema frattale); alla relatività di Einstein inerente al legame spazio-tempo e alla scissione del magnetismo dalla meccanica; alla teoria dell’unitarietà fisica-biologica di Fantappiè tramite fenomeni sintropico-dipendenti dal passato (cause) e dal futuro (fini), con la conseguente doppia tendenza ordine/disordine; alla fisica quantistica di Heisenberg per cui le leggi fisiche diventano di tipo probabilistico, anche per via della non ripetibilità di uno stesso fenomeno nelle stesse condizioni. La fissazione in legge della sconfitta del riduzionismo in base al quale le proprietà globali sono univocamente determinate da quelle locali permette di andare oltre quella concezione meccanicistica secondo cui il tutto è più della somma delle singole parti, anche se paradossalmte – poiché la natura combatte il caos con il caos che diventa perciò regolarità nelle moltitudini di forme di vita attraverso le mutazioni casuali, come allo stesso modo è casuale la funzione random di un campionamento casuale semplice – la quantistica è una teoria intrinsecamente probabilistica: l’assegnazione di una funzione di stato allo stato di un sistema al tempo t, dà informazioni solamente sulla probabilità di ottenere un dato valore; tuttavia, il discorso è diverso in relazione alla previsione futura del tempo t+1 per la sua già citata dipendenza allo stato originario che fa sì che il “moto caotico” porti ad un comportamento statistico, che vuol dire maggior stabilità nella prevedibilità del risultato. Sotto questo punto di vista, il caos risulta più fondamentale dell’ordine, è la situazione più comune in natura, è robusto e stabile, mentre l’ordine è relativamente raro e può essere facilmente distrutto dalla piccola perturbazione; il problema è imparare a controllarlo, e la meccanica quantistica della popolazione microscopica vi riesce meglio di quella classica dei fenomeni macroscopici. La logica matematica di Turing e Godel ci dimostra che esistono affermazioni che non possono essere provate né come né vere né false, e la complessità non è rarità o patologia ma quasi-totalità: la complessità algoritmica fa sì che una sequenza di cifre irregolare non possa essere scritta con un algoritmo più breve (complessità K+), o il contrario con K-; inoltre, una profondità logica misura il tempo impiegato dal calcolatore per creare l’algoritmo sostitutivo, che in una sequenza casuale è pari al tempo impiegato per scrivere ogni singola cifra. Quanto appena detto è importante per due ordini di motivi che rimandano alla imprevedibilità-indeterminazione: la già accennata informazione sistemica e il tema della soggettività. In effetti, la relazione tra leggi, ordine e caos ha origini molto antiche e già l’uomo primitivo percepiva un mondo totalmente caotico, tentato di imbrigliare dagli uomini di scienza che devono scoprirne le regole e aprirsi al “regno delle forme e delle proporzioni geometriche” [Platone] o da Newton e dai neo-newtoniani. Ma il fatto che il futuro di un sistema sia determinato in modo univoco dal suo stato presente, non significa che noi siamo effettivamente in grado di determinarlo, poiché i sistemi integrabili sono in realtà pochissimi. La scoperta del numero più “irrazionale” possibile che permea l’esistente e che corrisponde alla sezione aurea, è associato alla famosa sequenza di Fibonacci secondo la quale ogni numero è somma dei due precedenti, e apre lo studio del caos e delle forme geometriche complesse attraverso i frattali e gli “attrattori strani”. Per quanto concerne questi ultimi, la loro determinazione è data da regole ben precise ma con un alto grado di imprevedibilità: ad esempio è attrattore strano lo stato di attività biologica che si trova in situazioni, come quelle tipiche della vita, intermedie in qualche modo fra la pura casualità e la totale predicibilità delle macchine artificiali (così nel cervello, nel sistema circolatorio, nel sistema olfattivo, nel rapporto ospite-parassita,…). Non è vero che i sistemi biologici tendono ad uno stato di equilibrio e che la presenza di fluttuazioni disordinate è determinata da cause esterne o patologiche, normalmente assenti, ma – come per la natura e il microcosmo – l’irregolarità è normalità ed è corrispondente e conditio sine qua non per l’adattabilità biologica. La teoria dei sistemi viventi [Capra], ovverosia una visione unificata di “mente, materia e vita”, attiene ad un approccio transdisciplinare di omotetia statistica in cui di primaria importanza sono gli ingrandimenti campionari ramificati di una realtà più vasta dal frastagliato profilo – ad esempio il campione a grappoli – e di cui mantengono le peculiarità, che consente infiniti ulteriori ingrandimenti sempre più dipendenti dal loro grado di libertà (T di Student) e da effetti dissipativi esterni. La grandezza dei campioni è perciò significativa per misurare un adattamento sistemico nel tempo anche rispetto alle perturbazioni esterne, ma è altrettanto importante la risposta elastica dell’adattamento interpretativo dei dati, nonché la significatività più o meno alta della probabilità di accettazione di un’ipotesi di confutazione posta ex-ante o ex-post. E un’ulteriore complicazione è data dalla finitezza dei numeri reali nella realtà [Zito] poiché la loro informazione infinita diventa finita nelle concrete misurazioni statistiche; in quest’ambito si inserisce perciò la razionalità e la discrezionalità di uno studioso che microcosmicamente non sostiene l’immagine di dio nel proprio Io [Freud], e tende perciò a mettere in discussione ipoteticamente il risultato raggiunto, o, comunque, a considerare l’effettiva probabilità della giustezza dello stesso, così come fa nel proprio inconscio quando anche la più profonda verità è espressa in forma dogmatica. La velocizzazione dei tempi dell’essere universale tramite il genio creativo individuale, l’intuizione, il confronto con i dati posseduti, l’inseare la novità, è una peculiarità dell’uomo che lo porta ad aggirare la non-probabilità; pertanto – ritornando ad un discorso più generale – i processi di autoregolazione dei sistemi non sono altro che un adattamento al caos [Casati], una forma di resistenza flessibile che genera continui mutamenti e che rende in tal modo possibile l’evoluzione – della vita e non – evitando l’azzeramento entropico totale e garantendo la sopravvivenza. In definitiva, il concetto da introdurre è quello di “rete”: un sistema in equilibrio è in realtà morto, giacché essi si mantengono in uno stato che è ben lontano dall’equilibrio, ma che è lo stato naturale ed è stabile, poiché la struttura generale viene conservata nonostante il mutamento in atto nelle sue componenti [Prigogine]; tale auto-organizzazione è alla base dei fenomeni dell’apprendimento, dello sviluppo e dell’evoluzione sistemici ed è inserita in una rete di relazioni in cui la funzione di ogni componente è quella di trasformare e sostituire altri componenti della rete. La rete continuamente si forma, e attraverso sincronicità e irripetibilità crea ordine (e permette l’”effetto farfalla” prigoginiano); ergo –paradossalmente – la normalità caotica e le strutture dissipative, per quanto imprevedibili, poiché altamente probabili, configurazionalmente creano ordine.

CONCLUSIONI

La tendenza attuale di ricondurre ogni aspetto della vita ad un approccio scientifico che generalizzi e astrattizzi ogni aspetto della vita reale, pur sempre tenendo conto dell’esistenza di molti altri approcci difformi, fa sì che con la statistica si ricorra perfettamente ad una neutralità di vedute. La termodinamica, in quanto legge generale, aiuta il formarsi di una simile teoria; e la portata di visioni così “perfezioniste” in ogni ambito comportano la fissazione a-prioristicamente dei limiti di ogni aspetto/”sistema” studiato e, implicitamente, il riconoscimento dell’esistenza di una individualità non scevra di difetti. All’uopo, si tenta di “razionalizzare l’insuccesso umano” [Feynman], laddove l’imprevedibilità e la caoticità sono sempre presenti.

“Il grande Caos è l’inizio di tutto,
il grande Caos è la fine di tutto:
tutto è il grande Caos
[…]
Il grande Caos è senza ordine, è senza forma, è senza logica.”

Abdul Al Azraq, 730-738
P. Pizzari, “Necronomicon”, Atanòr, 2003, p.103.

“Così, dato che la vita non consente spesso nessuna dilazione,
è cosa certissima che, quando non è possibile discernere opinioni più certe
dobbiamo seguire le più probabili; anzi, anche quando riscontriamo in tutte lo stesso grado di probabilità, occorre seguirne qualcuna e considerarla poi,
nell'ambito dell'azione, come non più dubbia, ma certissima e verissima
perché tale è la ragione che ci ha indotti alla scelta.”
Cartesio, 1637
G.Brianese,
Il "Discorso sul Metodo" di Cartesio e il problema del metodo nel XVII secolo,
Paravia, Torino, 1988, p. 64.
Related Posts Plugin for WordPress, Blogger...