Teilhard de Chardin e la teoria generale dell' Evoluzione




1) La legge di condensazione e complessificazione.
 

 

 

     a) Premessa metodologica

Come vedremo in seguito nell’ambito sub microscopico la meccanica quantistica e le più recenti acquisizioni sulla fisica e la teoria dei laser hanno dimostrato la fondatezza sostanziale della visione di Teilhard sul processo evolutivo, cioè un processo di condensazione e complessificazione che procede attraverso veri e propri salti di stato determinati da transizioni caratterizzate da effetti soglia e processi cooperativi.

La legge di condensazione e complessificazione si prefigura come legge di tipo universale, cioè che riguarda tutti gli aspetti della realtà che ci circonda che spazia dalla fisica delle particelle sino alla cosmologia.

Naturalmente questo non significa che vi è una unica formulazione matematica che sia capace di rendere conto della realtà in tutti i suoi vari aspetti ma solamente che vi è un unico principio formatore che determina la struttura delle varie formulazioni.

Come qualsiasi legge della natura, essa infatti assume significato quando è applicata ad una situazione reale che ne determina quelle che in fisica vengono dette condizioni al contorno condizionandone la formulazione con il suo rispettivo campo di applicabilità. Per esempio la legge della conservazione dell’energia assume in ambito quantistico ( sub-microscopico) una formulazione diversa da quella adottata in ambito macroscopico che è ancora diversa da quella valida in condizioni relativistiche, cioè quando la velocità degli oggetti si avvicina alla velocità della luce.

Il passaggio dalla dimensione atomico-molecolare a quella cellulare procariota ed eucariota comporta naturalmente una ridefinizione dei parametri in termini di grandezze medie essendo praticamente impossibile utilizzare il formalismo matematico della meccanica quantistica per molecole di elevato peso molecolare e quindi tanto meno per sistemi cellulari.

Questo naturalmente non significa che le leggi quantomeccaniche che regolano le reazioni tra piccole molecole non sian valide per le reazioni che avvengono in ambito cellulare, ma solamente che in questo secondo caso vi sono molte variabili diverse che determinano le condizioni al contorno in cui operano le stesse leggi naturali.

La ridefinizione dei parametri è un elemento fondamentale per qualsiasi trattazione scientifica moderna e costituisce la base di quel riduzionismo metodologico che a partire da Cartesio costituisce la base su cui è costruito il sapere nell’età moderna.

Questo metodo si articola in quattro punti fondamentali che sono:

1) il dubbio, inteso naturalmente non come via principale verso lo scetticismo ma come strumento che permette di non assumere niente come verità assoluta, data per scontata, ma di essere sempre pronto a rimettere tutto in discussione e sottoporlo nuovamente alla prova della ragione.

2) L’analisi, cioè di suddividere il problema in parti separate da analizzare individualmente per individuarne le caratteristiche fondamentali anche rischiando esemplificazione ed approssimazioni

3) La sintesi, cioè il passaggio dal particolare al totale per mettere in correlazione la interazione tra le varie parti nella formazione del tutto

4) La enumerazione, che in termini moderni potremmo definire come la verifica sperimentale della teoria acquisita tramite il precedente processo razionale.

Il metodo cartesiano che costituirà poi la base del metodo sperimentale di Galileo, incorpora quindi nel suo interno uno strumento riduzionista, cioè l’analisi ma nello stesso tempo si classifica con una visione olistica, cioè con la sintesi in cui ricomporre le conoscenze acquisite tramite l’analisi per poterle applicare alla conoscenza del tutto.

Questo metodo è del tutto contrario al riduzionismo ontologico, cioè al materialismo, che si limita esclusivamente al secondo livello e cerca di spiegare il tutto tramite le caratteristiche dei singoli costituenti senza prender in considerazioni le interazioni tra le parti che danno origine alle proprietà emergenti caratteristiche dell’insieme.

Il riduzionismo metodologico costituisce quindi uno strumento ineliminabile per l’acquisizione della conoscenza ma per essere tale deve essere applicato in modo rigoroso ed accurato poiché un uso non corretto di questo metodo può portare, come spesso accade, a delle conclusioni del tutto errate o per lo meno alquanto azzardate.

Nell’ambito del secondo punto infatti, cioè la fase di analisi e di separazione del problema in settori separati riveste un ruolo fondamentale la definizione delle condizioni al contorno in cui le varie teorie scientifiche si sviluppano, cioè la definizione di quei postulati che determinano i limiti di validità della teoria stessa e di cui occorre tener conto nell’ambito della fase successiva, cioè quella della sintesi.

Molto spesso si tende invece ad estrapolare indebitamente i risultati ottenuti nel secondo livello per proiettarli, attraverso processi analogici, al quarto livello saltando completamente la fase tre, cioè la sintesi. (3) La formulazione matematica di tutte le teorie scientifiche e quindi anche i concetti sottesi, debbono essere sempre correlati con le condizioni al contorno e soprattutto con la verifica sperimentale , che costituisce il quarto livello del metodo.

Sulla base quindi di questa premessa osserviamo quali sono i vari campi in cui tale legge si esprime.

     a) Cosmologia
La teoria del Big-Bang, nonostante i molti problemi non ancora risolti, costituisce l’ipotesi maggiormente suffragata sulla nascita dell’universo, e vede i primi inizi quasi contemporaneamente alla stesura de “Il fenomeno umano”.

Teilhard accenna ad essa solo vagamente in una nota del libro “Il fenomeno umano” nel capito della previta, e non coglie la profonda consonanza tra la sua visione dell’universo e la stessa teoria che vedrà nella seconda metà del secolo la sua completa affermazione.

Secondo tale ipotesi, dopo l’eplosione iniziale e la separazione della materia dall’energia, che si ritiene avvenuta in frazioni di secondo, l’universo era composto esclusivamente di atomi di idrogeno e successivamente di elio, elementi che sono tuttora in esso predominanti.

L’universo è quindi venuto formandosi in seguito al processo di condensazione che è avvenuto a causa del suo raffreddamento progressivo in concomitanza con il processo di espansione determinato dal Big-Bang.

L’attrazione gravitazionale ha determinato la formazione di stelle al cui interno sono avvenuti ed avvengono attualmente processi di fusione nucleare che generano atomi sempre più pesanti corrispondenti agli altri elementi presenti in natura e liberando contemporaneamente una enorme quantità di energia.

La formazione dei pianeti, dei satelliti e delle altre stelle sarebbe avvenuta in seguito alla esplosione di queste stelle di prima generazione con la contemporanea dispersione dei loro atomi nell’universo.

Quindi, dopo il primo punto di singolarità iniziale, vi è una unica legge naturale che da forma e contenuto a tutta la realtà che ci circonda, e cioè la legge di condensazione, o come avrebbe detto Teilhard di complessificazione che non consiste in una semplice sovrapposizione ma in una profonda unione delle parti che si fondono e si compenetrano per generare un nuovo individuo ( cioè un nuovo ente indivisibile).

In base a questa legge quindi possiamo dire che nelle singole stelle i singoli protoni si fondono per formare nuclei pesanti con più protoni e neutroni ed a livello planetario che i singoli atomi si uniscono per formare molecole e che molecole più piccole si fondono per formare molecole più grandi fino alla materia vivente.

Il processo di condensazione della materia, e quindi di aumento dell’ordine che avviene in alcuni punti dell’universo è determinato e compensato dall’aumento del disordine globale dovuto al processo di espansione attualmente in atto nell’universo.

Sotto questo aspetto quindi e con queste considerazioni il meccanismo proposto da Teilhard rientra perfettamente nei limiti della meccanica classica e della termodinamica nei termini in cui esse sono state formulate agli inizi del XX secolo per spiegare le leggi della trasmissione del calore e della energia soprattutto in relazione alla loro trasformazione in lavoro.

Le leggi della termodinamica sono state formulate infatti per sistemi isolati ( in cui non vi è scambio né di energia né di materia con l’ambiente esterno) o con sistemi chiusi ( in cui vi è solo scambio di energia e non di materia) e rendono conto dell’insieme del sistema ma non delle singole parti costituenti. Il cosiddetto carattere antientropico, attribuito ai processi di complessificazione è da attribuire quindi ad una inesatta determinazione dei limiti di validità della termodinamica che nei processi vitali sarebbe applicata addirittura a sistemi aperti, cioè in cui vi è anche scambio di materia.

     b) Chimica – Fisica : Il legame chimico.
Il passaggio dalla fisica nucleare alla chimica in cui ci occupiamo dell’interazione tra i vari atomi e della formazione delle molecole comporta una ridefinizione del problema e delle rispettive variabili con la conseguente ridefinizione delle condizioni al contorno: si passa infatti dal campo delle forze nucleari forti alle forze nucleari deboli ed alle forze elettromagnetiche ( questi due tipi di forze sono state recentemente riunificati in un unico tipo).

Gli atomi e le molecole costituiscono i mattoni fondamentali della realtà che ci circonda compresi i nostri stessi corpi. La base teorica su cui si fondano le conoscenze della chimica e della biologia molecolare è costituita dalla meccanica quantistica.

Nell’ambito della realtà sub microscopica, cioè nel trattare con atomi e molecole, siamo costretti tuttavia ad abbandonare una trattazione di tipo deterministico per accontentarci di una trattazione di tipo probabilistico.

La ragione di questo salto qualitativo di scelta metodologica e quindi del formalismo matematico è dovuta al fatto che qualunque tipo di misura noi facciamo, od immaginiamo di fare su di una particella elementare, comporta una interferenza sul sistema tale da alterarne l’energia o la posizione. Questa difficoltà è espressa dal principio di indeterminazione di Heisenberg che ci indica esplicitamente i limiti di precisione con cui possiamo fare questo tipo di misure.

La meccanica quantistica quindi rinuncia a definire con esattezza la posizione di una particella elementare ( ad esempio un elettrone in un atomo od una molecola) per privilegiare invece la definizione esatta della sua energia e per fare questo, sulla base di esperimenti che hanno messo in evidenza la natura ondulatoria e corpuscolare di tale particella, associa ad essa una funzione d’onda il cui quadrato ci fornisce la probabilità di trovare tale particella in un determinato volume dello spazio.

L’approccio quantomeccanico, applicato a sistemi alla stato stazionario, cioè in cui non vi è variazione di energia con il tempo, fornisce come soluzione delle funzioni d’onda stazionarie (autofunzioni) caratterizzate da valori di energia quantizzati (autovalori) che vengono denominate orbitali.

Ogni atomo presente in natura ha quindi una sua particolare struttura elettronica che è determinata dal numero dei protoni presenti nel nucleo e dal numero di elettroni orbitanti intorno ad esso. Questi elettroni si dispongono a coppie su orbitali di energia crescente a partire da quelli che sono più vicini al nucleo che hanno una minore energia interna. Di tutti questi elettroni una particolare rilevanza viene assunta dagli elettroni presenti nell’orbita più esterna che sono attratti con minor forza dal nucleo e che sono di norma quelli che sono implicati nella formazione del legame chimico con altri atomi, uguali o diversi , per formare la molecola .

Al momento della formazione di un legame chimico, ad esempio tra due atomi dello stesso tipo, quello che si osserva è una interazione tra due orbitali atomici che si combinano in modo da formare due orbitali molecolari di cui uno ad energia minore degli orbitali atomici di partenza ed uno ad energia maggiore dando luogo a due nuovi orbitali molecolari su cui si dispongono due elettroni degli atomi di partenza. (4)

Il legame chimico può avvenire anche tra atomi di specie diversa attraverso un meccanismo che è perfettamente analogo dando luogo a molecole sempre più grandi.

Le nuove entità molecolari che si formano hanno tutte in comune la caratteristica di avere una energia interna minore dalla somma delle energie interne degli atomi costituenti ed inoltre di avere una distribuzione degli orbitali elettronici (che sono in numero uguale alla somma degli orbitali atomici degli atomi costituenti) modificata dalle interazioni atomiche tale da avere una minore differenza di energia tra gli orbitali occupati dagli elettroni, che configurano lo stato fondamentale della molecola e gli orbitali non occupati che possono essere raggiunti dagli elettroni a temperature maggiori o per azione di urti con altre molecole o per assorbimento di radiazione elettromagnetica.

Ogni nuova molecola formata ha delle caratteristiche completamente diverse da quelle degli atomi di partenza e costituisce una vera e propria nuova entità, cioè una nuova sostanza. Queste nuove entità quindi e le loro caratteristiche sono riconducibili ma non riducibili alle caratteristiche degli atomi di partenza. Questo significa che in genere, tranne che in casi estremamente semplici, le proprietà delle nuove molecole non sono deducibili a priori dalle caratteristiche degli atomi di partenza anche se a posteriori possono essere interpretate in funzione delle particolarità degli elementi costituenti.

Questa difficoltà nel predire esattamente le caratteristiche delle nuove molecole sulla base della conoscenza degli atomi costituenti deriva semplicemente dalla molteplicità delle particelle (nucleo ed elettroni) che costituiscono ciascun atomo che deve interagire con altri atomi per formare la molecola. Questo non vuol dire naturalmente che noi siamo del tutto impotenti di fronte alla problematica di effettuare nuove sintesi, perché possiamo procedere per analogie e per approssimazioni che sulla base delle conoscenze acquisite ci permettono di elaborare nuove tecnologie e nuove informazioni.

La formazione di una nuova molecola rappresenta quindi il caso più semplice ed elementare del fenomeno della emergenza che è determinato dalla molteplicità e dalla complessità connessa al tipo di interazione che si instaura tra le varie particelle. Questa interazione, come abbiamo detto , determina una ridefinizione delle energie degli orbitali degli atomi costituenti, che sono più ravvicinati tra di loro.

A livello molecolare quindi, anche per molecole relativamente semplici, un aumento della molteplicità e della complessità comporta una maggiore stabilità di tutto l’insieme, un aumento del numero dei modi normali di vibrazione, cioè degli spostamenti relativi di un atomo rispetto agli altri ed una maggiore possibilità di transizione tra vari livelli energetici nel senso che essi sono più ravvicinati e quindi richiedono una minore energia per essere effettuati. Quando un sistema atomico è in equilibrio termico con l’ambiente circostante assume una configurazione di minima energia interna determinata dalla legge di distribuzione di Boltzmann che per temperature non troppo elevate determinano una configurazione chiamata stato fondamentale.

Il processo di complessificazione comporta tuttavia anche un’altra caratteristica che occorre sempre tenere presente, e cioè che molecole più complesse sono anche molecole che sono più facilmente attaccabili da entità esterne, e quindi , in genere , più reattive. Per esempio molecole di idrogeno o di azoto o di gas nobili possono resistere a condizioni estreme di temperatura , mentre molecole organiche molto più grosse vanno incontro a processi di scissione e di deterioramento. Questo significa che la molteplicità e la complessità è in genere portatrice di un elevatissimo valore aggiunto ma nello stesso tempo comporta una maggiore fragilità per cui essa è possibile solo in particolari condizioni ed ha bisogno per conservarsi di sofisticati meccanismi di difesa.

Come vedremo questo aspetto sarà molto importante per le reazioni chimiche che avvengono durante un processo vitale. Possiamo quindi riassumere affermando che il processo di complessificazione comporta nell’ambito della chimica-fisica a) la formazione di nuove entità (cioè molecole) che noi chiameremo individui le cui caratteristiche sono deducibili, ma non riducibili alle caratteristiche degli elementi di partenza; b) i nuovi individui hanno una maggiore stabilità, perché sono caratterizzati da una minore energia interna rispetto alla somma delle energie dei costituenti c) i nuovi individui sono maggiormente differenziati tra di loro perché le loro caratteristiche cambiano a seconda delle modalità di reazione pur partendo dagli stessi elementi costituenti e d) i nuovi individui presentano un maggior grado di libertà, intesa non nel senso antropologico del termine ma in senso fisico, cioè le molecole maggiormente complesse, essendo caratterizzate da stati a più bassa energia e maggiormente ravvicinati hanno la possibilità di essere eccitate più facilmente e quindi di accedere ad una maggiore distribuzione, a parità di temperatura, rispetto alle molecole costituenti.

L’aumento della complessità comporta quindi un aumento del grado di individualità dei nuovi soggetti, interpretando questo termine nel senso sopra descritto.

Quanto detto sopra in maniera molto succinta e semplificata costituisce la struttura fondamentale su cui si fonda la meccanica quantistica per una trattazione qualitativa e quantitativa del legame chimico.

Teilhard de Chardin aveva intuito in maniera sostanzialmente corretta il meccanismo sopra esposto associandolo erroneamente ad una forma di energia, che egli definisce “energia radiale” che egli presuppone in continuo aumento proprio per sottolineare lo svolgimento naturale di questo processo che egli aveva messo a base dell’evoluzione, come pure aveva intuito la correlazione tra complessità e reattività a cui abbiamo accennato ipotizzando una correlazione tra energia radiale ( che aumenta le centreità del sistema) con l’energia tangenziale che identificava con l’energia tradizionalmente trattata nelle scienze chimiche e nelle scienze fisiche.

Il rapporto tra energia interna (con la conseguente configurazione degli stati elettronici) e la reattività è stata ampiamente trattata nella teoria degli orbitali di frontiera elaborata da Fukui , premio nobel per la chimica nel 1981, che prende in esame le interazioni tra le singole molecole e le molecole circostanti al momento della formazione di un nuovo legame ed in tale trattazione trova giustificazione anche l’andamento non continuo del processo di complessificazione ipotizzato da Teilhard con la presenza dell’energia di attivazione che costituisce una specie di soglia che deve essere superata affinché il processo abbia luogo.


     c) Effetti soglia ed effetti di Up Conversion

Un altro problema con cui la teoria di Teilhard ha dovuto fare i conti è la legge termodinamica della degradazione dell’energia. Abbiamo già detto che le leggi della termodinamica di per sé non vietano che all’interno di un sistema che globalmente evolve verso stati a maggiore entropia vi possano essere delle fluttuazioni energetiche tali da indurre in alcune sue zone un andamento del tutto contrario, tuttavia, tranne che nei sistemi viventi un tale comportamento non era mai stato reso evidente in natura e rimaneva del tutto inspiegato. La risposta a questo problema è arrivata verso la fine degli anni 70 del XX secolo con lo sviluppo della teoria e delle tecniche laser applicate al campo dell’ottica non lineare e dei fenomeni coerenti.

Attraverso l’uso di laser pulsati con alta potenza di picco focalizzati su piccole porzioni di materia è stato possibile provocare processi di Up Conversion cioè trasformare radiazione elettromagnetica di bassa energia (luce rossa) in radiazione elettromagnetica di alta energia (luce ultravioletta), cioè andando in senso contrario a quanto previsto dalla legge di degradazione dell’energia.

Questi processi sono molto difficili da osservare e dipendono dalla intensità della radiazione incidente in modo non lineare, tuttavia, pur mostrando nella globalità dell’esperimento un andamento concorde con le leggi della termodinamica provano che, in piccolissime quantità ed in condizioni appropriate, è possibile anche muoversi anche in senso opposto a quello che generalmente si osserva.

Questi processi apparentemente di tipo antientropico possono essere o non essere a soglia e sono sostanzialmente effetti di tipo cooperativo e coerenti, cioè tali che i fotoni o gli atomi si muovono insieme in concordanza di fase.

L’importanza di questi processi anche all’interno della nostra trattazione sta nel fatto che essi dimostrano ancora una volta che le leggi della natura pur essendo definite e stabili possono tuttavia dare origine ad esiti diversi in funzione delle condizioni dell’ambiente in cui esse vengono applicate. Nel caso in questione è stato possibile ottenere un salto qualitativo (cioè la creazione di fotoni al alta energia) attraverso la concentrazione di un numero notevole di fotoni a bassa energia in una porzione limitata di materia.

Questi processi di Up Conversion possono essere definiti anche essi come effetti emergenti, anche se sono di natura diversa da quelli che abbiamo esaminato in precedenza, e rivestono un ruolo importante nella teoria evoluzionistica di Teilhard che partendo da una base molto ampia e di bassa qualità ( cioè la totalità degli organismi viventi) porta, attraverso stadi intermedi, alla comparsa dell’uomo che egli pone al vertice della piramide in termini qualitativi anche se limitato in termini quantitativi.

     d) La formazione della vita
Anche il passaggio dal livello atomico-molecolare al livello biologico-macromolecolare comporta, come abbiamo detto, una ridefinizione di variabili necessaria affinché la scienza possa accedere alla conoscenza dei fenomeni in termini reali e proficui.

Questo non significa che le leggi che operano a livello quantistico non siano valide al livello macroscopico ma solamente che il numero di particelle implicate in tali fenomeni è talmente elevato da risultare improponibile una trattazione quantistica rigorosa. Anche le trattazioni modellistiche più sofisticate utilizzano largamente in questo tipo di calcoli delle grandezze medie e delle distribuzioni statistiche trattate in termini classici e non quantomeccanici. Cioè siamo in presenza contemporaneamente di processi di tipo quantistico, come la formazione e la rottura di legami chimici e di processi mediati, quali la polarità, la solubilità, la miscibilità ecc. di aggregati molecolari e di soluzioni.

Proprio nel campo biomolecolare risulta maggiormente evidente quel processo di condensazione e di complessificazione che Teilhard ha posto alla base della sua teoria generale dell’evoluzione ed il processo individuato a livello atomico-molecolare continua ad essere valido seppure espresso in termini differenti.

Una caratteristica fondamentale della materia vivente, che noi chiameremo bio-organica è che essa è basata fondamentalmente sulla chimica del carbonio che costituisce l’elemento predominante in un essere vivente, insieme all’ossigeno, all’azoto, al fosforo ed a pochi altri. Con un numero relativamente limitato di elementi chimici è possibile quindi, tramite processi di aggregazione e di complessificazione, procedere alla formazione di macromolecole, proteine, zuccheri ecc. che sono in grado di generare e sostenere l’esistenza di un essere vivente le cui caratteristiche possono spaziare da quelle di una cellula procariota sino a quelle di un essere umano.

Questo processo è possibile perché ciascun componente di questo sistema vivente ha un elevato e crescente grado di individualizzazione che lo rende peculiare e nello stesso tempo diverso dagli altri componenti similari con cui interagisce per formare un unico individuo superiore.

La reattività e la grande varietà di configurazione che possono assumere le molecole biologiche è determinata proprio dalle loro dimensioni e dall’elevato numero di gradi di libertà di cui esse godono che permette loro di poter reagire a temperature controllate e relativamente basse , tali cioè da non compromettere la loro esistenza e la loro struttura interna. Processi semplici di associazione e dissociazione sono alla base di processi di tipo enzimatico che sono in grado di abbassare sostanzialmente le energie di attivazione che sarebbero necessarie per ottenere le stesse reazioni in ambienti non biologici.

Un ruolo fondamentale di questo meccanismo è determinato dalla polarità delle molecole determinata dalla presenza su di una catena alifatica, cioè costituita da atomi di carbonio e di idrogeno, di atomi più elettronegativi quali l’ossigeno o l’azoto questa presenza rende possibile individuare una zona di una molecola con un eccesso di carica elettrica e quindi di natura idrofila mentre il resto rimane non carico elettricamente ed è quindi di natura idrofoba. Un esempio classico di questo tipo di molecole sono gli acidi grassi che messi in una miscela di acqua ed olio si dispongono in modo da interagire con l’olio attraverso la parte idrofoba e con l’acqua attraverso la parte idrofila con legami di natura elettrostatica. Questo significa che questo tipo di molecole, come molte altre molecole organiche mostrano dei processi di aggregazione spontanei che possono dare origine a delle micelle, cioè a veri e propri corpuscoli con una cavità idrofoba immersi in una soluzione acquosa. Queste micelle possono essere il vero e proprio prototipo delle membrane cellulari che delimitano il corpo degli organismi procarioti cioè organismo monocellulari che si nutrono attraverso la fagocitazione di sostanze che aderiscono alla membrana cellulare per affinità simile a quella che abbiamo visto in precedenza.

Risulta quindi del tutto naturale affermare che la vita abbia avuto inizio in alcune nicchie ecologiche adatte a conservare le condizioni necessarie al suo sviluppo, al riparo cioè da fenomeni eclatanti e devastanti. Questo tipo di processo è di tipo autocatalitico, nel senso che il suo sviluppo rende possibile l’aggregazione di altre molecole e quindi di autoalimentarsi. La nascita della vita, così come l’apparizione di nuove specie è un processo di tipo a soglia, cioè è determinato dalla possibilità di raggiungere le condizioni necessarie a formare una nicchia ecologica, ma nello stesso tempo è un processo di tipo autocatalitico, capace quindi di autoalimentarsi e autoriprodursi: cioè qualcosa di simile a quanto avviene nell’effetto Laser od in una esplosione atomica che avviene solo se la concentrazione del materiale radioattivo raggiunge un valore critico oltre il quale ogni fissione provoca la fissione di altri atomi in un crescendo continuo ( ed in questo caso devastatore).

Non dobbiamo essere stupiti della frequente ricorrenza di questo meccanismo, cioè dell’apparizione di una variazione o di una formazione che si sviluppa in un ambito spazio temporale limitato per poi diffondersi gradualmente su larga scala perché questo processo di unione, complessificazione e specializzazione è un motivo ricorrente nella storia universale, che si ripresenta continuamente anche se con forme ed in contesti diversi. Basti considerare che la stoffa della vita è sempre fondamentalmente la stessa, cioè e costituita dallo stesso tipo di molecole, presenta la stessa struttura cellulare che si alimenta , si riproduce e muore con gli stessi meccanismi. Come pure basti pensare che ogni essere vivente ripercorre in un arco di tempo limitato l’intera storia dell’universo; nasce infatti come un essere unicellulare in ambiente riparato, cioè una nicchia isolata dall’esterno, si accresce tramite la suddivisione e la specializzazione delle cellule che si accrescono in numero fino a delineare l’essere completo che a questo momento esce dal suo ambiente protetto per proseguire la propria evoluzione a contatto diretto con gli altri esseri più o meno simili inserendosi in un contesto di tipo sociale e contribuendo egli stesso a creare e modificare l’ambiente in cui vive.

Questo motivo ricorrente è il fondamento stesso dell’evoluzione che si sviluppa come un grande composizione sinfonica di stampo beethoveniano in cui il tema principale si affaccia delicatamente all’orecchio dell’uditore ritmato da un singolo strumento quasi impercettibile, seguito dal contrappunto di altri strumenti che individualmente si uniscono diversificandosi gradualmente e continuamente per poi venire accolto da tutta l’orchestra che lo suona all’unisono. Come in tutte le sinfonie il tema di base riaffiora continuamente all’interno della composizione in tempi e frequenza sempre diverse in una fioritura perenne di accordi e variazioni che nella loro molteplicità rinnovano continuamente l’originalità e l’unicità della composizione.

La sin-fonia della composizione si traduce nella storia dell’universo nella sin-ergia delle componenti che determinano quella direzione preferenziale, cioè quella freccia dell’evoluzione mirabilmente intuita da TdC.

Negli esseri superiori i meccanismi sono molto più complicati, ma fortunatamente ad ogni processo vitale è associato un fenomeno che spesso viene trascurato o male interpretato, e cioè è associata la memoria: una memoria chimica che viene accumulata all’interno della cellula stessa nella catena del DNA e viene trasmessa alla generazioni successive insieme alla vita stessa. Questo fa sì che le esperienze acquisite da un organismo possano essere trasmesse agli individui generati successivamente instaurando una vera e propria sinergia non solo in senso orizzontale, cioè tra individui delle stessa specie (e spesso anche di specie diverse) che vivono nello stesso spazio e nello stesso tempo, ma anche tra individui che vivono in un tempo diverso e forse anche in spazi diversi.

Ciascuno di noi conserva nel suo DNA la memoria storica di questo evento eccezionale, con i suoi successi (il nostro patrimonio genetico) ed i suoi insuccessi (la gran parte del DNA che non codifica le proteine) e ciascun individuo, di una determinata specie, ha in comune con gli altri individui della stessa specie un stesso patrimonio genetico che costituisce la base del suo atteggiamento comportamentale che lo rende unico.