Saper prendere decisioni intelligenti non richiede un cervello. Ne eravamo capaci prima ancora di averne uno. Dopo aver cominciato a vivere come singoli ovuli fecondati, ci siamo divisi e siamo diventati una massa di cellule geneticamente identiche, che si sono parlate fino a creare una struttura anatomica complessa: il nostro corpo. Ancora più sorprendente è che, se da embrioni ci fossimo divisi in due, ciascuna metà sarebbe stata in grado di sostituire le parti mancanti e saremmo diventati due gemelli identici (monozigoti). Allo stesso modo, se si appallottolano insieme due embrioni di topo, il prodotto è un unico topo normale. Come fanno questi embrioni a sapere cosa fare?

Una tecnologia così flessibile, in grado di riconoscere una deviazione dal normale corso degli eventi e rispondere in modo da ottenere lo stesso risultato, ancora non esiste.

Questa è intelligenza in azione: la capacità di raggiungere un obiettivo specifico o di risolvere un problema adattandosi al mutare delle circostanze. È evidente non solo nelle creature intelligenti come esseri umani, mammiferi, uccelli e cefalopodi, ma anche nelle cellule e nei tessuti, nei singoli neuroni e nelle reti di neuroni, in virus, ribosomi e frammenti di rna, fino alle proteine motorie e alle reti molecolari.

In tutte queste categorie gli esseri viventi risolvono problemi e raggiungono obiettivi, agendo in modo flessibile a diversi livelli: metabolico, fisiologico, genetico, cognitivo e comportamentale.

Ma com’è emersa l’intelligenza in biologia? Questa domanda tormenta gli scienziati dai tempi di Charles Darwin, ma è ancora senza risposta. I processi dell’intelligenza sono così intricati che non c’è da stupirsi se alcune persone sono tentate di credere che sia stata creata dall’alto. Ma sappiamo che l’evoluzione dev’essere stata in grado di produrre l’intelligenza da sola, dal basso.

Il miglior tentativo di Darwin di dare una spiegazione del fenomeno è stato che le mutazioni casuali modificavano e riorganizzavano i geni alterando la struttura e la funzione dei corpi, e in questo modo producevano adattamenti che permettevano a certi organismi di prosperare e riprodursi nel loro ambiente. Alla fine, in qualche modo, il risultato è stato l’intelligenza. Ma la natura e gli esperimenti in laboratorio forniscono molte prove del fatto che l’evoluzione non seleziona solo soluzioni progettate per un contesto specifico. Alcuni studi, per esempio, hanno dimostrato che cellule della pelle di rana perfettamente normali, una volta liberate dalle istruzioni impartite dal resto dell’embrione, possono riavviare la loro attività cooperativa per produrre un nuovo protorganismo, chiamato xenobot.

Gli embrioni non sono gli unici a potersi riparare in modo flessibile

L’evoluzione, a quanto pare, non fornisce risposte, ma genera agenti flessibili in grado di affrontare nuove sfide e capire le cose da soli.

L’urgenza di comprendere l’intelligenza in termini biologici è diventata maggiore con la rivoluzione “omica”, cioè con le scienze (come la genomica) che stanno accumulando enormi quantità di dati sui geni, le proteine e le connessioni all’interno di ogni cellula. Per ora, però, il diluvio di informazioni sulle cellule non sta fornendo una spiegazione migliore della flessibilità intelligente osservata nei sistemi viventi. Né fornisce sufficienti intuizioni pratiche, per esempio nel campo della medicina rigenerativa. Il vero problema, forse, non è questione di dati, ma di prospettiva. L’intelligenza non è apparsa alla fine dell’evoluzione, ma all’inizio, molto prima che i cervelli entrassero in scena.

Fin dai primi cicli metabolici che mantenevano i parametri chimici dei microbi entro gli intervalli giusti, la biologia è stata in grado di raggiungere obiettivi. Eppure, generazione dopo generazione, ai biologi è stato insegnato che non devono farsi domande sullo scopo ultimo delle cose. Devono concentrarsi sul “come”, non sul “perché”, altrimenti rischiano di cadere nella trappola della teologia. Gli studiosi devono ridurre gli eventi alle loro componenti e cause più semplici e analizzare i loro meccanismi uno alla volta. Quando si parla di “obiettivi”, ci si avvicina pericolosamente all’abbandono del naturalismo e il risultato è una sorta di “teleofobia”, la paura di cercare uno scopo, basata sull’idea che attribuire troppa intelligenza a un sistema è il peggior errore che si possa fare.

Ma il contrario è altrettanto sbagliato: non riconoscere l’intelligenza quand’è proprio sotto il nostro naso. Nei sistemi biologici, il “perché” non solo è sempre presente, ma è esattamente ciò che determina il “come”. Una volta che ci apriamo a quest’idea, ispirati all’informatica e alla cibernetica, possiamo individuare due potenti strumenti che hanno permesso all’evoluzione di farsi strada verso l’intelligenza dal basso, senza bisogno di un intervento dall’alto.

Gli embrioni non sono gli unici a potersi riparare in modo flessibile. Molte specie possono rigenerare o sostituire parti del corpo perse in età adulta. La salamandra messicana, nota anche come axolotl, può farsi ricrescere arti, occhi, mascelle e ovaie, nonché il midollo spinale e parti del cuore e del cervello. Il corpo riconosce come errori le deviazioni dalla sua corretta anatomia e le cellule lavorano rapidamente per tornare alla normalità. Allo stesso modo, quando la posizione dei loro occhi e di altri organi viene modificata a caso in laboratorio, i girini seguono nuovi percorsi, che comunque finiscono per creare facce di rana in gran parte normali.

Come fanno gli organi facciali del girino a sapere quando fermarsi? Come fa il tessuto della salamandra a giudicare che è stato prodotto un arto di dimensioni e forma giuste e che il rimodellamento va interrotto? È chiaro che i gruppi cellulari devono essere in grado di “agire fino a quando l’obiettivo non è stato raggiunto”, memorizzando il ricordo dell’obiettivo e correggendo la rotta se incontrano perturbazioni lungo il percorso.

Una spiegazione delle incredibili imprese degli embrioni ce la propone la teoria del controllo, secondo cui i sistemi dinamici (come un termostato) possono perseguire obiettivi senza alcuna magia, semplicemente usando il feedback (la reazione suscitata) per correggere gli errori. In biologia questa omeostasi (ricerca dell’equilibrio) mantiene parametri come il pH entro limiti specifici. Ma la stessa dinamica opera su scala molto più ampia quando le cellule sono fisiologicamente collegate tra loro, formando reti in grado di misurare le proprietà chimiche, elettriche e biomeccaniche dei tessuti e di prendere decisioni su cose che le singole cellule non possono valutare.

Le singole cellule possono elaborare informazioni localizzate sul proprio ambiente e sul proprio stato per perseguire piccoli obiettivi a livello cellulare (come restare puntate in una direzione specifica). Ma le reti di cellule possono integrare nel processo segnali provenienti da distanze diverse, immagazzinare modelli (pattern) di ricordi e valutare le risposte a domande di maggiore portata (come “Questo dito è della lunghezza giusta?” o “Questa faccia è giusta?”). Le reti cellulari elaborano calcoli che permettono di valutare quantità maggiori di informazioni (come la forma anatomica) e dirigere l’attività cellulare sottostante per avvicinare il sistema a uno specifico obiettivo (detto setpoint).

Come una grande azienda

Il raggiungimento di una calibrazione così intelligente è probabilmente dovuto alla modularità, il primo fattore che a nostro avviso può spiegare l’emergere di un comportamento intelligente. Come una grande azienda, che impiega dei team specializzati per realizzare e vendere un determinato prodotto, la modularità si basa su unità autosufficienti che possono cooperare o competere tra loro per ottenere risultati a livello locale, ma finiscono per agire collettivamente per raggiungere un obiettivo più ampio. Fondamentalmente, questa struttura evita la microgestione: un livello non ha bisogno di sapere come lavorano i livelli inferiori, ma può semplicemente incentivarli o disincentivarli (con cose come molecole di ricompensa e percorsi di stress) ad agire.

Quando gli organismi unicellulari si sono uniti per formare corpi multicellulari, ogni modulo ha conservato la propria competenza individuale. Le cellule hanno usato proteine specifiche per fondersi in reti sempre più complesse che consentivano di raggiungere obiettivi più ampi, possedere più memoria e guardare più lontano nel futuro. In poche parole, hanno cominciato a funzionare come una società, elaborando e perseguendo obiettivi definiti a livello di collettività (come la “dimensione dell’organo” e la “forma dell’organo”). Lo stress provocato da segnali d’allarme (come “attenzione, dito troppo corto”) innescava un cambiamento di rotta, che era stato condiviso tra i tessuti per favorire un’azione coordinata.

Un sistema con molte unità interagenti è più competente e complesso

Quest’architettura presenta molti vantaggi. Per l’evoluzione è facile spostare semplicemente i moduli e lasciare che il ciclo di riduzione degli errori si occupi del resto, impostando nuove condizioni come punti di riferimento o fonte di stress (per esempio, “lunghezza degli arti errata” o “errato ripiegamento delle proteine”). È come modificare la temperatura di un termostato senza doverlo riprogrammare o sapere come funziona. Cicli di feedback all’interno di cicli di feed­back e una gerarchia di moduli che possono essere rimescolati dall’evoluzione garantiscono un’immensa capacità di risoluzione dei problemi.

Un mondo ostile

Un’implicazione di questa gerarchia di moduli inseriti uno nell’altro e omeostaticamente stabili è che gli organismi sono diventati molto più flessibili pur mantenendo un “sé” coerente in un mondo ostile. L’evoluzione non ha dovuto modificare tutto per reagire a una nuova minaccia, perché le subunità biologiche erano preparate a trovare nuovi modi per compensare i cambiamenti e funzionare all’interno di sistemi alterati.

Per esempio, nelle planarie, un tipo di vermi che rigenerano ogni parte del loro corpo, l’uso di sostanze chimiche per modificare il modello di ricordi immagazzinato bioelettricamente si traduce in vermi a due teste. E, sorprendentemente, i frammenti di questi vermi continuano a rigenerare individui a due teste, senza modificare il genoma. Inoltre, le planarie possono essere indotte, mediante una breve rimodulazione del circuito bioelettrico, a far ricrescere teste con forme (e strutture cerebrali) appropriate ad altre specie conosciute di platelminti (a circa cento milioni di anni di distanza evolutiva), nonostante il loro genoma immutato.

La modularità implica che la posta in gioco per testare nuove mutazioni è ragionevolmente bassa: si può fare affidamento sul fatto che subunità competenti raggiungano i loro obiettivi in un’ampia gamma di condizioni, quindi l’evoluzione raramente ha bisogno di “temere” che una singola mutazione possa rovinare tutto. Per esempio, se una nuova mutazione fa sì che un occhio si trovi nel posto sbagliato, un organismo totalmente programmato troverebbe molto difficile sopravvivere. Ma i sistemi modulari possono compensare il cambiamento riportando l’occhio nel posto in cui dovrebbe essere (o consentendogli di funzionare nella sua nuova posizione), e così hanno l’opportunità di esplorare altri effetti della mutazione, possibilmente utili.

È stato dimostrato che gli occhi di girino fanno proprio questo: assicurano la visione anche se gli viene chiesto di formarsi sulla coda, trovando connessioni con il midollo spinale invece che con il cervello.

La modularità garantisce stabilità e robustezza ed è la prima parte della risposta alla domanda su com’è nata l’intelligenza. Quando si verificano cambiamenti in una parte del corpo, la sua storia evolutiva come insieme di cellule competenti e in grado di risolvere problemi comporta che le subunità possono intensificare e modificare la loro attività per mantenere in vita l’organismo.

Questa non è una capacità separata che si è evoluta da zero negli organismi complessi, ma una conseguenza inevitabile dell’antica capacità delle cellule di prendersi cura di se stesse e delle reti di cui fanno parte.

Ma come sono controllati questi moduli? Il secondo passo sulla strada per l’emergere dell’intelligenza sta nel sapere come manipolare i moduli. La codifica delle informazioni all’interno delle reti richiede la capacità di ottenere risultati complessi con segnali semplici. Questo meccanismo è noto come pattern completion, completamento del modello: la capacità di un particolare elemento nel modulo di attivare l’intero modulo. Quell’elemento speciale, che funge da trigger (innesco), avvia l’attività, spingendo gli altri elementi del modulo ad agire e completare il modello. In questo modo, invece di attivare l’intero modulo, l’evoluzione deve solo attivare quel trigger.

Il completamento del modello è un aspetto essenziale della modularità che stiamo cominciando a capire grazie alla biologia dello sviluppo e alle neuroscienze. Per esempio, un intero occhio può essere creato nell’intestino di un embrione di rana, alterando brevemente lo stato bioelettrico di alcune cellule. Queste sono attivate per completare il modello dell’occhio, e lo fanno reclutando cellule vicine non alterate. Risultati simili possono essere raggiunti da “regolatori principali” genetici o chimici, come i geni Hox, che specificano il piano corporeo della maggior parte degli animali a simmetria bilaterale.

In effetti, si potrebbero rietichettare questi geni regolatori come geni di completamento del modello, perché consentono l’espressione coordinata di una serie di altri geni a partire da un semplice segnale. Continuando a funzionare fino a quando non sono soddisfatte determinate condizioni, i moduli possono completare uno schema complesso a partire da una sua piccola parte. Così facendo, traducono un semplice comando – l’attivazione del trigger – e lo trasformano in un intero programma.

Una rana di vetro, chiamata così per la sua pelle trasparente (Pete Oxford, Minden pictures)

Il completamento del modello non richiede la definizione di tutte le informazioni necessarie per creare un organo. L’evoluzione non deve riscoprire come specificare tutti i tipi di cellule e organizzarli del modo corretto: non deve fare altro che attivare un trigger e l’organizzazione modulare dello sviluppo fa il resto. Il completamento del modello permette l’emergere della complessità e dell’intelligenza: semplici fattori che scatenano conseguenze complesse consentono a modifiche casuali del dna di generare corpi coerenti e funzionali.

La modularità del completamento del modello è stata comprovata anche in alcuni recenti esperimenti nel campo delle neuroscienze. In biologia, l’apice del comportamento intelligente è il cervello umano. I sistemi nervosi sono costituiti da un gran numero di neuroni, ognuno dei quali è connesso a un gran numero di altri neuroni. Nel corso del tempo evolutivo c’è stata una progressione costante verso cervelli più grandi e più connessi, raggiungendo numeri astronomici, come i quasi cento miliardi di neuroni e le centinaia di migliaia di connessioni per neurone degli esseri umani. Questo spostamento verso un numero maggiore di neuroni e connessioni non può essere una coincidenza: un sistema con molte unità interagenti è più competente e com­plesso.

Ma cosa fanno tutti questi grandi circuiti neurali? Mentre molti neuroscienziati concorderebbero nel dire che la funzione del sistema nervoso è percepire l’ambiente e generare comportamenti, è meno chiaro come questo avvenga.

La teoria tradizionale, nota come “dottrina dei neuroni”, proposta da Santiago Ramón y Cajal e Charles Scott Sherring­ton più di un secolo fa, è che ogni neurone ha una funzione specifica. Il cervello, quindi, sarebbe un po’ come un aeroplano, costruito con milioni di componenti progettati ognuno per un compito particolare.

All’interno di questo quadro, i neuroscienziati hanno scomposto il cervello e lo hanno studiato un neurone alla volta, collegando l’attività dei singoli neuroni al comportamento di un animale o allo stato mentale di una persona. Tuttavia, se il raggiungimento dei veri obiettivi dei sistemi biologici dipende dal modo in cui interagiscono le loro subunità o moduli, analizzare il cervello osservando un singolo neurone è utile quanto cercare di capire un film studiando un unico pixel. Che tipo di proprietà possono generare i circuiti neurali? Dato che i neuroni sono in grado di attivarsi a vicenda, i circuiti neurali possono generare stati interni indipendenti dal mondo esterno. Alcuni insiemi di neuroni collegati tra loro potrebbero eccitarsi a vicenda e restare attivi per un periodo di tempo, anche se all’esterno non succede niente. Così potremmo spiegare l’esistenza dei concetti e delle astrazioni che popolano la mente umana, come attività endogene di moduli costituiti da insiemi di neuroni.

Queste idee aprono nuove prospettive sull’apprendimento automatico

Relazioni tra oggetti

Usando quegli stati di attività intrinseca come simboli, l’evoluzione ha potuto costruire rappresentazioni formali della realtà e manipolarle, proprio come facciamo noi quando creiamo termini matematici per esplorare le relazioni tra gli oggetti. Da questo punto di vista l’evoluzione del sistema nervoso rappresenta la comparsa di un nuovo mondo formale, un mondo simbolico, che espande enormemente le possibilità del mondo fisico perché ci dà un modo per esplorarlo e manipolarlo mentalmente. I moduli neuronali potrebbero anche essere organizzati in una gerarchia in cui quelli di livello superiore codificano entità sempre più astratte. Per esempio, i gruppi di neuroni di livello inferiore del nostro midollo spinale potrebbero attivare le fibre muscolari ed essere sotto il controllo di insiemi di livello superiore della corteccia motoria, che potrebbero codificare il movimento desiderato in modo più astratto (“cambiare la posizione della gamba”). A loro volta, questi insiemi della corteccia motoria potrebbero essere controllati da neuroni di ordine superiore (“eseguire una piroetta”), i quali potrebbero essere controllati da gruppi di neuroni della corteccia prefrontale che determinano l’intenzione comportamentale (“esibirsi in un balletto”).

L’uso di moduli gerarchizzati inseriti uno nell’altro è una soluzione efficace a una difficile sfida progettuale: invece di specificare e controllare ogni elemento, la natura usa gli insiemi neuronali come elementi di calcolo per svolgere funzioni diverse a livelli diversi.

Questa progressione verso una crescente astrazione potrebbe in parte spiegare in che modo sono nate la cognizione e la coscienza, come proprietà funzionali emergenti, da un materiale neurale relativamente semplice. Questa potente idea è anche alla base delle reti neurali a strati dell’informatica, chiamate così perché s’ispirano ai circuiti neurali.

Ma torniamo al problema di Darwin: se l’evoluzione è cieca e agisce unicamente su singole unità, una mutazione alla volta, come può modificare l’architettura e la funzionalità complessive di un organismo per il bene comune? Oltre a generare moduli, le reti neurali hanno un’altra proprietà interessante di cui abbiamo già discusso: il completamento del modello.

In alcuni esperimenti recenti, sono state indotte nei topi percezioni artificiali o allucinazioni, attivando solo due neuroni della loro corteccia visiva. Com’è possibile, dato che il cervello del topo ha circa cento milioni di neuroni? La risposta è che quei neuroni possono attivare un insieme neuronale avviando il completamento del modello.

La connettività dei neuroni sembra amplificare l’attività, quindi un cambiamento in un neurone finisce per innescare a cascata l’intero modulo. Questo significa che si può attivare un intero modulo di neuroni agendo solo su uno dei suoi componenti.

Il completamento del modello potrebbe essere alla base del modo in cui il cervello funziona al suo interno: coinvolgendo modulo dopo modulo, a diversi livelli della gerarchia, a seconda del compito da svolgere. Ma perché il completamento del modello non finisce per far scattare nel cervello un attacco epilettico? Aggiungendo connessioni inibitorie a questi circuiti neurali – piccoli interruttori automatici – si possono limitare queste cascate a piccoli gruppi di neuroni, invece di attivare catastroficamente l’intero cervello. Sfruttando il completamento del modello insieme ai circuiti inibitori, il cervello ha la capacità di selezionare e manipolare moduli a diversi livelli in base alle sue necessità.

In questo modo il completamento del modello permette connessioni tra moduli allo stesso livello e a livelli diversi della gerarchia, collegandoli insieme come un unico sistema. Un neurone chiave in un modulo di livello inferiore può essere attivato da uno di livello superiore e viceversa. È come cambiare la direzione di marcia di un esercito, non è necessario convincere tutti i soldati a farlo, basta convincere il generale, che poi mette in riga gli altri. Coerentemente con i molti parallelismi tra neuroni e segnali non neurali, il completamento del modello dimostra che un singolo evento, per esempio una mutazione, può cambiare la direzione di un esercito o costruire un occhio.

Dalle cellule microbiche che risolvono i problemi dello spazio metabolico ai tessuti che risolvono quelli dello spazio anatomico, a gruppi di persone che si muovono nel mondo, la vita è arrivata a creare progetti intelligenti sfruttando la capacità dei moduli di portare a termine, a modo loro, certi compiti. I circuiti omeostatici offrono risposte flessibili in grado di raggiungere i valori di riferimento anche quando le condizioni cambiano. La modularità spiega perché l’evoluzione è in grado di capire immediatamente quella che collettivamente è considerata una condizione “corretta” e quali azioni intraprendere per arrivarci. Le gerarchie di moduli implicano che segnali semplici possono innescare azioni complesse che non hanno bisogno di essere riscoperte o microgestite, ma possono adattarsi anche quando sono attivate solo da una tessera del puzzle.

Cambiare rotta

Abbiamo abbozzato una serie di approcci alla biologia che si basano su concetti di cibernetica, informatica e ingegneria. Ma c’è ancora molto lavoro da fare per conciliare questi approcci tra loro. Nonostante i recenti progressi nella genetica molecolare, la nostra comprensione della mappatura del genoma da un lato e l’anatomia e fisiologia (mutabile) del corpo dall’altro sono ancora in una fase precoce. Proprio come l’informatica, che è passata dalla riconfigurazione dell’hardware degli anni quaranta agli algoritmi e ai software in grado di controllare il comportamento della macchina, le scienze biologiche devono cambiare rotta.

Immaginare l’intelligenza come un insieme di altri insiemi attivi su livelli diversi ha conseguenze che attraversano numerosi campi di ricerca: dalle domande fondamentali sulle nostre origini evolutive alle tappe per realizzare l’intelligenza artificiale, alla medicina rigenerativa e alla biorobotica. La comprensione dei sistemi di controllo usati nei tessuti viventi potrebbe portare a importanti progressi nella biomedicina. Se capiamo come controllare i valori di riferimento dei corpi, potremmo essere in grado di riparare difetti di nascita, indurre la rigenerazione degli organi e forse anche sconfiggere l’invecchiamento. Forse anche il cancro potrebbe essere affrontato come una malattia della modularità: i meccanismi attraverso i quali le cellule del corpo cooperano possono occasionalmente guastarsi, portando a un ritorno delle cellule al loro passato unicellulare, una modalità più egoistica in cui trattano il resto del corpo come un ambiente in cui riprodursi più che possono.

Nel campo dell’ingegneria i progettisti hanno costruito robot usando parti semplici ma affidabili. Al contrario, per prendersi cura di se stessa la biologia conta sull’inaffidabilità dei componenti, sfruttando al massimo la competenza di ogni livello (molecolare, cellulare, tissutale, degli organi, degli organismi e delle colonie). Questo garantisce un’incredibile capacità di adattamento. Se scoprissimo il codice neuronale in biologia, potremmo cominciare a programmare il comportamento dei sistemi nervosi sintetici e costruire robot flessibili e in grado di ripararsi da soli. Un recente studio ha dimostrato che cellule agenti con obiettivi circoscritti possono già essere guidate per creare biorobot completamente autonomi. Queste idee aprono anche nuove prospettive sull’apprendimento automatico e l’intelligenza artificiale, in direzione di architetture che invece di basarsi sul cervello si fondano su insiemi antichi, come quelli dei batteri e dei metazoi, capaci di risolvere problemi.

Questa nuova convergenza tra biologia dello sviluppo, neuroscienze, biofisica, informatica e scienze cognitive potrebbe avere applicazioni importanti e potenzialmente trasformative. Se riusciremo a riconoscere l’intelligenza nelle sue forme meno familiari, potremmo rivoluzionare la nostra comprensione del mondo naturale e della nostra stessa natura di esseri cognitivi. ◆ bt

Michael Levin insegna biologia alla Tufts university, in Massachusetts, negli Stati Uniti. Rafael Yuste è professore di biologia e neuroscienze alla Columbia university, a New York negli Stati Uniti.

Questo articolo è uscito sul numero 1463 di Internazionale, a pagina 60. Compra questo numero | Abbonati