Dal 20 al 25 di  Novembre si è svolto a Singapore (meravigliosa città che evoca un futuro possibile di pace e concordia fra le culture) un convegno molto interessante sulla regolazione del genoma in cui la condizione attuale delle conoscenze in biologia molecolare e genetica è stata sottoposta ad una disamina chiara e sincera come raramente avviene nei congressi*.

Complice la presenza di scienziati veramente appassionati e la straordinarietà del luogo (in quante altre parti del mondo si osservano dei macachi saltellare da un ramo all’altro di immensi alberi nel giardino dell’ Università ?) il dibattito è stato incredibilmente fruttuoso.

Tutti quanti si era d’accordo sul fatto che le premesse del progetto genoma per cui la regolazione genica (quali geni si attivano e quali si deprimono per far fronte ad una certa situazione) poteva essere interpretata come un gioco deterministico di effettori (fattori di trascrizione) che vanno a legarsi in zone specifiche del DNA ‘accendendo’ determinati geni in risposta ad un certo stimolo era assolutamente inadeguata per spiegare le risultanze sperimentali accumulatesi negli ultimi venti anni.

rn

Di fatto lo stesso fattore di trascrizione può avere delle specificità differenti per diversi tessuti e lo splicing alternativo (vedi l’intervento ‘Ed ora qualcosa di completamente diverso’ su Bene Comune) inibisce ogni definizione univoca di ‘gene’. Non solo ma anche la supposta possibilità di individuare una tabella di corrispondenza fra geni ed attivatori sembra ormai tramontata. La presenza di vie alternative di regolazione come il controllo post-trascrizionale (decadimento differenziale dei prodotti genici) o la metilazione del DNA (una sorta di eredità epigenetica in cui le zone del genoma più disponibili alla trascrizioni sono marcate dal legame covalente con piccoli gruppi organici, i metili, appunto) rendono ancora più illusoria la definizione di reti di regolazione stabili e quindi, in ultima analisi, la considerazione dei sistemi biologici come strutture di retroazione cablate in maniera fissa. Insomma sembra proprio che un circuito, quantunque complesso, che renda ragione delle differenti regolazioni possibili e quindi permetta di costruire una sorta di ‘progetto’ statico di tutte le interazioni presenti in una cellula (la famigerata cellula virtuale) sia una strada poco produttiva.

rn

Il disaccordo tra i partecipanti era legato al come uscire dall’impasse causata dalla crisi della visione precedente, a questo proposito si sono delineate tre strade nettamente differenti:

1.      Finita una genomica, se ne ricominciano altre dieci. Questa prima via è la via del ‘le cose erano più difficili del previsto, ma questo non vuol dire che non bisogna continuare sulla stessa strada, solo bisogna prendere in considerazione altri aspetti’ . Questo porta alla moltiplicazione degli sforzi di catalogazione esauriente dei diversi aspetti della regolazione genica in maniera da coprire progressivamente tutti i buchi. Per cui si metteranno in cantiere mappe di splicing alternativo tessuto per tessuto, di siti di metilazione, di interazioni proteiche…rimandando il quadro d’insieme alla definitiva catalogazione di tutti i possibili dettagli della regolazione dei sistemi biologici.

2.      Chi se ne importa del quadro d’insieme, limitiamoci alle applicazioni. Questa è la strada di chi vede il futuro delle scienze biologiche di base essenzialmente in funzione delle ricadute applicative per la cura delle malattie e la loro diagnosi precoce. Per i seguaci di questa via, la ricerca dovrebbe assumere come obiettivo principale la messa a punto di tecniche di analisi (espressione differenziale di geni, profili metabolici, pattern di espressione proteica) che consentano uno screening accurato di materiali biologici con cui operare delle previsioni efficaci del decorso di malattie o dell’efficacia di trattamenti farmacologici.

3.      Il livello di dettaglio fine complica solo le cose, cerchiamo qualcosa di più rozzo e robusto. Questa via, la mia preferita e che ho propugnato al convegno, è quella di chi riconosce nella biologia il raggiungimento di un punto di svolta analogo a quello incontrato dalla fisica alla fine dell’Ottocento in cui gli scienziati si sono dovuti rassegnare all’impossibilità di definire in maniera ‘Newtoniana’ (e quindi riducendo i fenomeni alle loro interazioni fondamentali) una grande massa di eventi in cui erano coinvolti numeri molto grandi di particelle. Spingere sull’acceleratore del dettaglio sempre più spinto invece di aumentare riduce di molto le nostre possibilità di costruire un quadro armonico e credibile della regolazione cellulare, meglio allora allontanarsi un pochino dal soggetto di studio e cercare di riconoscere degli invarianti non al livello dei singoli geni ma nel movimento collettivo di migliaia di geni differenti, non nella singola cellula ma nell’organizzazione di popolazioni costituite da decine di migliaia di cellule. Una sorta di meccanica statistica della biologia insomma in cui l’attenzione si sposta alla correlazione di elementi differenti  piuttosto che alla disamina puntuale di ogni elemento singolo.

La prima strada ha l’indubbio fascino di essere stata la strada maestra delle scienze biomediche da Aristotele in poi: in assenza di quegli improvvisi tagli di scure chiamati leggi di natura che riportano la molteplicità apparente dei fenomeni a casi particolari di una unica regolarità (il modo di procedere delle scienze Galileiane), medici e biologi si sono sempre dedicati alla catalogazione paziente dei singoli casi (specie animali e vegetali, malattie) alla ricerca di una organizzazione progressiva dal basso della molteplicità del mondo e del suo apparente disordine. Questa strada ha avuto dei successi luminosi (si pensi all’efficacia delle classificazioni di Linneo del mondo vegetale ed animale o alle grandi sistemazioni dei patologi ottocenteschi) ma solo quando, in maniera più o meno consapevole, lo sforzo classificatorio sceglieva una prospettiva privilegiata, un’ipotesi forte di partenza (ad esempio la scelta dei pezzi fiorali come criterio diagnostico per la classificazione Linneana del regno vegetale)e quindi, anche se in maniera differente dalla fisica, una teoria o quantomeno una prospettiva unica da dove organizzare la varietà.

Questa prospettiva privilegiata, a mio parere, manca negli odierni sforzi catalogatori di molecole e geni che, ancora sotto la fascinazione perversa della scoperta del codice genetico (una tabella definitiva e deterministica che associava ad ogni ‘tripletta’ di basi del DNA l’aminoacido corrispondente valida per tutti gli organismi), si rivolgono al sogno della classificazione perfetta e onnicomprensiva da far emergere per forza bruta dal puro accumulo di basi di dati sempre più grandi. Chiaramente qualsiasi discorso basato sulla proposizione ‘ancora non abbiamo abbastanza dati per..’ non è falsificabile in maniera definitiva, ma sicuramente, se dovessimo imparare dall’esperienza, venti anni di fallimenti ed una crisi senza precedenti della capacità dell’industria farmaceutica di trovare nuovi medicamenti dovrebbero insegnare qualcosa. Se non altro poi la riduzione dello sforzo di legioni di ricercatori al mero lavoro di catalogazione è mortificante dal punto di vista culturale.

La seconda strada ha il fascino della praticità, insomma basta che funzioni, poi vedremo se riusciremo a cavarne un pò di conoscenza. Questi compromessi al ribasso però di solito funzionano bene quando hanno alle spalle una fase espansiva delle scienze di base, per cui acquisizioni all’inizio esclusivamente empiriche vengono poi riempite di ‘contenuto conoscitivo’ dal successivo avanzamento della teoria. In tempi di crisi di scienza di base, il pericolo di avere delle correlazioni puramente empiriche, è che non possiamo mai essere sicuri del loro dominio di validità. Sono vari decenni , ad esempio, che la chimica farmaceutica si basa sulle relazioni empiriche fra struttura chimica delle molecole e loro attività biologica producendo modelli anche molto accurati dal punto di vista statistico. Questi modelli però consentono solo piccolissimi aggiustamenti di una molecola di partenza dotata di attività biologica e di cui si vogliano migliorare alcune caratteristiche (assorbimento, effetti collaterali) ma sicuramente non permettono di estrapolare i risultati ad ambiti più vasti. Piccolo cabotaggio insomma e continua incertezza sull’efficacia dei metodi proposti al di fuori di situazioni iper controllate e quindi abbastanza irrealistiche.

La terza strada implica un atteggiamento per certi versi innaturale nelle scienze biologiche, allontanarsi dalle rive della catalogazione raffinata delle varietà per approdare alle terre incognite di metafore che ancora appaiono piuttosto fumose. Dire a dei biologi, che hanno fondato le loro carriere scientifiche sulla disamina accurata di tutte le implicazioni legate al funzionamento di un particolare gene, che i singoli geni sono intercambiabili (né più né meno che i singoli dipoli di un ferro magnete) e che quello che conta è la considerazione del campo generale in cui si orienta l’intero insieme dei geni di una coltura cellulare (visto che anche la singola cellula, luogo privilegiato delle spiegazioni molecolari degli ultimi cinquanta anni, è probabilmente abbastanza irrilevante rispetto al comportamento collettivo di popolazioni di centinaia di migliaia di cellule)è quasi offensivo. Fatto sta che almeno è una strada nuova e che ha dalla sua dati molto ripetibili anche se di ancora difficile interpretazione. Non è una strada dove ci aspettiamo di trovare a breve dei farmaci o delle applicazioni diagnostiche, ma per lo meno garantisce degli orizzonti aperti per una ripresa di grandi domande nelle scienze biologiche ed una prospettiva di forte integrazione fra le scienze.

Probabilmente le tre strade qui raccontate in maniera piuttosto parziale da chi ha partecipato al convegno con una scommessa forte sulla direzione da prendere, verranno perseguite contemporaneamente  da esploratori differenti anche se sicuramente la terza sembra poter sperare in  molti meno finanziamenti rispetto alle prime due (ma sicuramente ha anche meno esigenze). Quello che conta qui è dare ai nostri lettori, che spesso hanno l’idea della scienza come qualcosa di assolutamente pacificato, in cui il progresso si afferma con la pura forza dei fatti, un quadro più realistico di cosa è invece il dibattito scientifico. Il bello delle scienze naturali, che me le fa preferire ad altre attività umane, è che comunque si ha una base di discorso comune molto più ampia e condivisa rispetto ad altri campi del sapere, per cui le questioni, anche se accese, sono di solito molto più produttive degli scontri fortemente ideologizzati delle scienze cosiddette umane (a proposito, a quando l’abolizione di questa definizione ? Anche noi scienziati, anche se a volte sembriamo cattivi, rivendichiamo il nostro pezzetto di umanità..).

rnrnrnrnrn

*(Workshop on Computational Systems Biology Approaches to Analysis of Genome Complexity and Regulatory Gene Networks (20 – 25 Nov 2008, NUS , Institute of Mathematical Sciences and Biopolis,  Singapore).
rnrnrnrn

Ti è piaciuto questo articolo? Condividilo!

FACEBOOK

© 2008 - 2017 | Bene Comune - Logo | Powered by MEDIAERA

Log in with your credentials

Forgot your details?