Spazio dei lettori

"Questo sito utilizza cookie di Google per erogare i propri servizi e per analizzare il traffico. Il suo indirizzo IP e il suo agente utente sono condivisi con Google, unitamente alle metriche sulle prestazioni e sulla sicurezza, per garantire la qualità del servizio, generare statistiche di utilizzo e rilevare e contrastare eventuali abusi."

IA-Lab

IA-Lab

Come la scienza può sconvolgere il senso comune

Guido Tascini

Può il battito d'ali di una farfalla provocare un uragano dall'altra parte del mondo?

Ecco un esempio di controintuitività della scienza: la teoria del caos.

Una teoria nata nell’ambito della sistemica, può divenire uno strumento applicativo utile in molti settori, dalla Medicina all’arte.
Si tratta di una teoria che studia comportamenti apparentemente caotici e vi individua delle informazioni intuitivamente insospettabili….
La teoria del caos è un settore della teoria matematica dei sistemi dinamici
Un sistema dinamico si dice caotico se presenta le seguenti caratteristiche:
Sensibilità alle condizioni iniziali, per cui a variazioni infinitesime delle condizioni al contorno (degli ingressi) corrispondono variazioni finite in uscita.
esempio: il fumo di più fiammiferi accesi in condizioni macroscopicamente molto simili (pressione, temperatura, correnti d'aria) segue traiettorie di volta in volta molto differenti.
Imprevedibilità, per cui non si può prevedere l'andamento del sistema in anticipo.
Le orbite nello spazio delle fasi restano confinate, cioè il sistema non evolve verso l'infinito per nessuna variabile. La rappresentazione di questo comportamento dà luogo a particolari forme, dette Attrattori.
Una caratteristica tipica di un sistema caotico, che pure è deterministico e non probabilistico, è la impredicibilità apparente delle traiettorie del sistema. Le traiettorie non si possono prevedere per via della forte sensibilità alle condizioni iniziali: un piccolo errore nella conoscenza dello stato del sistema in un certo istante può provocare un errore anche grande nelle previsioni a medio e lungo termine.
Comportamenti caotici si incontrano in meteorologia, climatologia, fluidodinamica (turbolenza), teoria del laser, ecologia.
Numerose sono le discipline a cui si può applicare la teoria del caos; ad esempio: matematica, fisica, biologia, dinamica di popolazione, informatica, ingegneria, economia, finanza, filosofia, politica, psicologia, e robotica, studio medico dell'epilessia, economia.

Può il battito d'ali di una farfalla provocare un uragano dall'altra parte del mondo?
Il termine "Teoria del caos" ha colpito l'immaginario collettivo entrando a far parte della cultura pop, insieme all'"effetto farfalla". Nella grande maggioranza dei casi la teoria del caos nella cultura è rappresentata come negazione del determinismo e/o in relazione all'effetto farfalla. Questo (inteso come l'influenza di fatti minimi sul corso degli eventi) era già rappresentato in un racconto di Ray Bradbury, "Rumore di tuono", pubblicato nel 1952 e quindi antecedente alla teoria. Questo racconto viene da taluni ritenuto tra i "precursori". Un ulteriore rilevante riferimento letterario è poi il romanzo di Joyce Finnegans wake, per la creazione del neologismo caosmosi, concetto poi molto utilizzato nella filosofia contemporanea e estremamente interessante per la sua possibile funzionalizzazione teorica.
Effetto farfalla è una locuzione che racchiude in sé la nozione maggiormente tecnica di dipendenza sensibile alle condizioni iniziali, presente nella teoria del caos. L'idea è che piccole variazioni nelle condizioni iniziali producano grandi variazioni nel comportamento a lungo termine di un sistema.
L'espressione "Effetto farfalla" si ritiene in genere sia stata ispirata da uno dei più celebri racconti fantascientifici di Ray Bradbury: Rumore di tuono (A Sound of Thunder, in R is for Rocket) del 1952, in cui si immagina che nel futuro, grazie ad una macchina del tempo, vengano organizzati dei safari temporali per turisti. In una remota epoca preistorica un escursionista del futuro calpesta una farfalla e questo fatto provoca una catena di allucinanti conseguenze per la storia umana.
Alan Turing in un saggio del 1950, Macchine calcolatrici ed intelligenza, anticipò questo concetto: "Lo spostamento di un singolo elettrone per un miliardesimo di centimetro, a un momento dato, potrebbe significare la differenza tra due avvenimenti molto diversi, come l'uccisione di un uomo un anno dopo, a causa di una valanga, o la sua salvezza".
Esemplifichiamo con un ftto concreto: una persona, che deve prendere il treno, ritarda di appena due secondi e lo perde. Perdendolo, si verifica una serie di avvenimenti che la portano, facciamo l'ipotesi, a ritornare a casa delusa ed ad imbattersi casualmente nella donna della propria vita svoltando l'angolo. Se invece la persona fosse riuscita a prendere il treno, si sarebbe trovata da tutt'altra parte e non avrebbe conosciuto la propria anima gemella.
Una singola azione può determinare imprevedibilmente il futuro.
Nella metafora della farfalla si immagina che un semplice movimento di molecole d'aria generato dal battito d'ali di una farfalla possa causare una catena di movimenti di altre molecole fino all'uragano menzionato. Proprio come il ritardo di due secondi può incidere sulla vita personale di un individuo.
Edward Lorenz fu il primo ad analizzare l'effetto farfalla in uno scritto del 1963 preparato per la New York Academy of Sciences. Secondo tale documento, "Un meteorologo fece notare che se le teorie erano corrette, un battito delle ali di un gabbiano sarebbe stato sufficiente ad alterare il corso del clima per sempre." In discorsi e scritti successivi, Lorenz usò la più poetica farfalla, forse ispirato dal diagramma generato dagli attrattori di Lorenz, che somigliano proprio a tale insetto, o forse influenzato dai precedenti letterari ."Può il batter d'ali di una farfalla in Brasile provocare un tornado in Texas?" fu il titolo di una conferenza tenuta da Lorenz nel 1979.

Consideriamo come esempio i due attrattori di lorenz, disegnati in figura: il giallo differisce dal blu, nelle condizioni iniziali di solo 10-5 rispetto alla coordinata x.. Ebbene se andiamo a vedere le differenze tra le due traiettorie, notiamo che all’inizio sono coincidenti ma poi divergono e molto.
Se riportiamo le differenze in un’altra figura, vediamo che all’istante 23 si ha una brusca divergenza e le differenze poi aumentano notevolmente: tutto come conseguenza di quel piccolissimo scostamento di 10-5….!
Dal punto di vista matematico molti sistemi possono essere modellizzati con equazioni differenziali alle derivate parziali. Le soluzione di queste equazioni spesso utilizzano funzioni esponenziali e quindi anche una modesta variazione dei dati in ingresso si ripercuote sulla soluzione con un andamento esponenziale potendo quindi alterare in modo determinante l'andamento del modello in funzione del tempo.
La conseguenza pratica dell'effetto farfalla è che i sistemi complessi, come il clima o il mercato azionario, sono difficili da prevedere su una scala di tempo utile. Questo perché ogni modello finito che tenti di simulare un sistema, deve necessariamente eliminare alcune informazioni sulle condizioni iniziali — ad esempio, quando si simula il tempo atmosferico, non è possibile includere anche lo spostamento d'aria causato da ogni singola farfalla. In un sistema caotico, questi errori di approssimazione tendono ad aumentare via via che la simulazione procede nel tempo e, al limite, l'errore residuo nella simulazione supera il risultato stesso. In questi casi, in sostanza, le previsioni di una simulazione non sono più attendibili se spinte oltre una certa soglia di tempo.
Per renderci conto di quanto la teoria del caos abbia influenzato la cultura attuale basta guardare alle opere ispirate da questa:
film, come ad esempio Jurassic Park del 1993, Π - Il teorema del delirio, 1998 , The Butterfly Effect, 2004, Match Point, 2005 , Chaos, 2007, The Oxford Murders - Teorema di un delitto, 2008.
Opere di narrativa, come Finnegans wak (romanzo) di James Joyce , Jurassic Park e Il mondo perduto (The Lost World) di Michael Crichton, Uomini vuoti di Dan Simmons, o la Sindrome di Wolverton di Alan D. Altieri.
La teoria del caos ha ispirato anche opere teatrali e fumetti.

Come esempio significativo descriviamo il film The Butterfly Effect, lEffetto Farfalla. E’ un film di fantascienza diretto da Eric Bresson e J. Mackye e J. Mackye Gruber.
Narra delle vicende di Evan alle prese con un potere particolare che gli permette di modificare eventi chiave accadutigli nel tempo, modificando quindi il presente del momento in cui decide di cambiare il passato. Il titolo del film e il tema principale si riferiscono direttamente all'Effetto farfalla, per cui, ad esempio, il semplice battito d'ali di una farfalla riuscirebbe a modificare il clima fin dall'altra parte del globo terrestre.
Trama
Evan è un ragazzo di periferia che ha avuto particolari problemi durante l'infanzia e che ha ereditato da suo padre un disturbo della psiche che gli provoca dei vuoti di memoria che neanche con la psicanalisi riesce a risolvere. Il dottore allora gli chiede di tenere dei diari in cui annotare tutto quello che accade durante la giornata, nel tentativo di sviluppare la sua memoria.
Crescendo Evan scopre però che grazie alla lettura di questi diari riesce a tornare indietro nel tempo momentaneamente: in questo modo rivive ciò che ha dimenticato e può intervenire per modificare gli eventi futuri. Ma qualsiasi cosa faccia provoca sempre delle conseguenze inaspettate.
Così facendo Evan si ritrova a balzare fra vite diverse, accumulando così decenni di ricordi che producono continue emorragie e ipertrofia delle zone cerebrali deputate alla memoria. Fino al momento in cui, in una di queste vite, rimarrà privo dei diari che gli consentono di tornare al passato.



Arte e Complessita’. Influenza della Scienza sull’Arte

Esistono sistemi complessi che hanno solleticato il mondo dell’arte. Ad esempio i Frattali di Mandelbroth: leggi semplici possono generare complessità inimmaginabili. Ne è un esempio il Fiore di Mandelbroth ottenuto con una semplice legge.

Un altro esempio è la composizione Violin Dance in cui un sistema caotico viene descritto con la densità dell’attrattore (probabilità che il sistema passi per una data zona dello spazio di stato). Con un sistema semplice si sono ottenute forme complesse che ricordano le forme dei cubisti.

Esistono aree della scienza contemporanea che sconvolgono il modo comune di guardare alla realtà di tutti i giorni?
Sono molti gli aspetti della cultura scientifica che influenzano in modo forte il giudizio su aspetti della vita attuali.

Basti pensare all’ Evoluzionismo, alle origini della vita e a quelle dell’universo. Ai robot, oppure all’uomo bionico, alla coscienza artificiale.
Ma su tale influenza gioca un ruolo importante la cultura di base degli uomini e le loro culture specifiche. Una buona lettura epistemologica della scienza, richiede una certa dimestichezza con la cultura scientifica.
E non sempre il senso comune è in grado di afferrare nella sua essenza ciò che bolle nella pentola della scienza.
Ma qui vogliamo soffermarci sulla penetrazione nell’immaginario collettivo di concetti originati nell’ambito della Cibernetica e dell’Intelligenza Artificiale.
Sono due le domandi importanti che la cultura comune si pone, derivate dalle aree scientifiche appena menzionate.

La prima è: la macchina intelligente, il robot, sarà mai in grado di acquistare coscienza di sé?

La seconda è: la vita come la conosciamo oggi è figlia del caso ed è escluso qualunque intervento superiore che possa averne guidato l’evoluzione?

Il termine cibernetica deriva dal greco Κυβερνήτης (kybernetes, ossia nocchiero) e rappresenta un ampio campo di studi.

Fondata da Norbert Wiener come “lo studio del controllo e della comunicazione negli animali e nelle macchine”, ha fatto fin qui molta strada. Tant’è vero che Louis Kauffman, Presidente dell’ American Society for Cybernetics, la definisce “ lo studio di sistemi e processi che interagiscono con se stessi e producono se stessi da se stessi”.
La cibernetica interviene nello studio di svariate discipline, quali:
Intelligenza Artificiale, Robotica, Computer Vision, Sistemi di Controllo, Emergenza, Cibernetica del secondo ordine e altro ancora.

In Biologia la Cibernetica studia i sistemi cibernetici presenti negli organismi biologici, ad esempio le modalità di adattamento degli animali al loro ambiente e come l’informazione viene passata da una generazione all’altra attraverso i “geni” dei cromosomi.
E’ questo il contesto in cui trovano spazio anche i cosiddetti Cyborgs: organismi cibernetici, cioè organismi che sono in parte sistemi naturali e in parte sistemi artificiali.

Nel libro di D. S. Halacy, del 1965: Cyborg: Evolution of the Superman la prefazione di Clynes (che coniò il termine cyborg) parlava di “ ponte…tra mente e materia”. In sostanza si tracciava la strada verso il superman cibernetico!
A questo punto cerchiamo di rispondere alla prima domanda, che formulamo così:

Riuscirà la Cibernetica a costruire una coscienza artificiale?

E’ in una visione di superuomo che trova la sua collocazione la Cibernetica, o in un ruolo subordinato alle necessità dell’uomo, in cui le applicazioni cibernetiche sopperiscono a molti handicap dell’uomo, o meglio ancora forniscono all’uomo abilità altrimenti inimmaginabili?

La visione del superuomo ha avuto un rinforzo nelle posizioni di alcuni scienziati, che recentemente hanno affacciato l’ipotesi che la macchina possa giungere all’autocoscienza e, in tal modo, avviarsi verso il “libero arbitrio”, che da sempre costituisce qualità precipuamente umana.
Due anni dopo la pubblicazione del testo di Cibernetica di Norbert Wiener Isaac Asimov pubblicò il suo romanzo di fantascienza: Io Robot.
In esso Asimov trattava la tematica della coscienza, della consapevolezza di sè, attraverso il confronto tra la coscienza di un essere umano, la psicologa Susan Calvin, ed esseri artificiali coscienti (non biologici). Molti ricercatori e visionari hanno vissuto, in passato, nella malcelata speranza di dare una coscienza a un ammasso di valvole termoioniche e successivamente di dispositivi al silicio. Proprio come i robot di Asimov erano “consapevoli” di esistere in una «spugna di platino iridio, che gli stessi costruttori non sapevano bene come funzionasse».
Allo stato attuale esistono degli scienziati che pensano di studiare sperimentalmente il problema della coscienza.
Alcuni scienziati sostengono che giungere a progettare una “coscienza artificiale” è solo questione di tempo…
Come ad esempio Roger Penrose, Gerard Edelmann e Francis Crick.
L’esperienza empirica ci mostra che la capacità del cervello di produrre la coscienza è legato alla sua capacità di determinare un soggetto unitario, in grado di fare esperienza di se stesso e del mondo circostante; deve dare significato in modo intenzionale, cioè finalizzato, agli eventi esterni, passati e futuri; deve essere in grado di produrre motivazioni e fini, valori soggettivi e sensazioni.
Ma coscienza vuol dire intenzionalità, capacità cioè di dirigersi verso un fine, come è stato indicato da numerosi autori, pur con accezioni diversissime e talora anche contrastanti
(Agazzi, 1981; Brentano, 1874; Dennett, 1969, 1987; Fodor, 1987; Searle, 1983, 1992).
E’ questo il modello di coscienza che ha indotto i ricercatori di coscienza artificiale alla realizzazione di un agente intenzionale, in grado di finalizzare autonomamente i propri comportamenti.
Le prime realizzazioni di Gerard Edelman (Edelman, 1987; Edelman &
Mountcastle, 1978), vanno in questa direzione, anche se successivamente sono confluite direttamente nello studio della coscienza tout court (Edelman & Tononi, 2000).
I robot intenzionali di Edelmann, i Nomad e i Darwin, si scontravano contro il modello oggettivista della realtà sostenuto da generazioni di studiosi: mancava una teoria della coscienza e quindi dell’intenzionalità accettata da tutti.
Rimane però aperta, come una spada di Damocle, la domanda non secondaria:
quali sono le correlazioni tra sistema di neuroni e coscienza: sia nel campo biologico che in quello artificiale?.

Termini, quali soggetto, intenzionalità, rappresentazione, in migliaia di anni di storia del pensiero umano, si sono caricati di significati così diversi e articolati che non sono ammesse scorciatoie o superficiali tentativi di semplificazione: tutti se ne accorgerebbero!
Comunque un fatto è incontestabile: la scienza, allo stadio attuale, non ha la minima idea di come sia possibile che un sistema fisico (un cervello, un sistema nervoso, un insieme di neuroni) possa produrre quell’insieme tutto da chiarire di fenomeni che corrispondono alla nostra esperienza cosciente.
E in questo modo abbiamo tentato di rispondere alla prima domanda. Per il momento non c’è una evidenza scientifica che si possa chiamare coscienza artificiale. Questa la risposta senza concessioni o sbavature attaccabili sul piano del ‘metodo scientifico’, come lo abbiamo illustrato in precedenza.
Se poi vogliamo fare delle considerazioni di tipo culturale in senso lato possiamo anche dire il nostro punto di vista che, a questo livello delle conoscenze, ha lo stesso diritto di asilo di tanti altri.
L’esperienza cosciente della persona umana, oltre che usare il sistema fisico (cervello, sistema nervoso, neuroni vari) possiede probabilmente un componente, che non ha trovato la sua rappresentazione scientifica, e che per il momento è difficilmente connettibile ad un insieme di neuroni: ciò che i filosofi chiamano ‘Spirito’.

Vediamo ora di rispondere alla seconda domanda, che formuliamo così:

la vita come la conosciamo oggi è figlia del caso ed è escluso qualunque intervento esterno, o superiore, che possa averne guidato l’evoluzione?

Ci chiediamo in sostanza se noi tutti siamo davvero figli del caso.
Secondo Monod la vita su questa terra sarebbe proprio figlia del caso.
Ma qualcosa comincia a essere rivisto in questa teoria da alcuni scienziati: in pratica è sotto osservazione il nodo della teoria: la selezione naturale, che secondo i Darwinisti puri è puramente casuale.
Monod pubblicò nel 1970 il libro: “Il Caso e la Necessità”. In esso rivisita la teoria originale dell’evoluzione di Darwin secondo una visione rigorosamente meccanicistica. Secondo Monod, gli organismi viventi, e le singole cellule, sono macchine che contengono tutte le informazioni necessarie al proprio funzionamento. Essi non sono guidati da un fine esterno, ma da proprietà teleonomiche che li rendono nettamente differenti dalla materia inanimata. L'organizzazione di ogni forma vivente è determinata dal DNA che, attraverso le proteine, trasforma le informazioni in strutture e funzioni biologiche ben definite. L'organismo vivente quindi è una macchina chiusa, incapace di ricevere istruzioni dal mondo esterno. Essa possiede un codice genetico che rappresenta il programma che guida la formazione degli organismi e che è trasmesso alle generazioni successive. Ogni modifica al codice genetico, non può derivare da un'interazione dell'organismo con l'ambiente. Essa deve provenire da eventi del tutto casuali; per esempio da errori di trascrizione del codice genetico dovuti prevalentemente a perturbazioni di natura quantistica. La modifica nella struttura del DNA, così verificatasi, verrà inevitabilmente e fedelmente riprodotta in moltissimi esemplari dal sistema di replicazione dell'organismo, che opera con necessità inderogabile. Di qui il titolo: il caso e la necessità.

La critica si appunta su questa casualità pura della selezione naturale: questo è in contraddizione con il comportamento degli esseri viventi: tutti gli organismi viventi si formano per una funzione e non per caso. Quindi ogni organismo è selezionato per un fine e non casualmente. Questa contraddizione ha iniziato un processo di rilettura del Darwinismo puro, appena agli inizi.
Quindi, se questa è una critica ragionevole, che rispetta il metodo scientifico, allora una ipotesi di selezione-per anziché puramente casuale, potrebbe essere formulata e troverebbe ospitalità come quella della casualità pura.
Un modo per costruire una tale ipotesi, secondo il sottoscritto potrebbe essere ricorrere alla vita artificiale.La Vita Artificiale è un mondo artificiale in cui è possibile simulare i processi vitali.
In questo contesto è possibile simulare l’evoluzione della vita e dimostrare plausibile una vita non figlia del caso, ma che si evolva seguendo un trend, una intenzionalità.
La Vita Artificiale può essere simulata su supporti non organici, ad esempio elaboratori.
Simula i fenomeni naturali, quali nascita, morte, crescita, sviluppo, selezione naturale, evoluzione percezione, manipolazione, cammino, adattamento, apprendimento, intelligenza.
Eè affascinante seguire l’evoluzione storica di questo campo di ricerca. Questa ha visto la nascita degli Avatar, che posseggono un comportamento autonomo e una personalità autonoma, che dipendono dall’interazione con l’ambiente: pioniere di questi fu Frederic Parke 1970.
Vite artificiali storiche sono i sistemi particellari e i flocks (stormi) che evidenziano un comportamento collettivo.
I primi costituiti da una grande quantità di particelle sono rappresentabili con un insieme “fuzzy”. Il comportamento di ciascuna particella è molto semplice ed interagisce solo con l’ambiente.
I flocks sono meno numerosi, ma hanno un comportamento fisico più complesso ed una limitata quantità di intelligenza.
Da queste semplici leggi emerge un comportamento unitario: avete mai visto gli assetti complessi degli stormi di uccelli in cielo? Ebbene quei disegni, sembra impossibile, ma derivano da leggi di interazione molto semplici: come, ad esempio, mantenere una distanza tra individui inferiore ad un certo valore.
Altre vite artificiali semplici, oggetto di ricerca, sono i Sistemi Particellari e gli Automi Cellulari, applicati, ad esempio, nella Computer Graphics e nella progettazione di Calcolatori Paralleli.
Infine esempi di flocks sono le Colonie di Formiche Artificiali di Langton e le popolazioni di bestie che si evolvono.
Infine lo studio evolutivo basato sulla definizione di opportuni cromosomi costituisce la base di una serie di applicazioni, che riguardano ad esempio l’ottimizzazione di problemi ingegneristici. Ma qui ci interessa la simulazione della vita naturale, che come si è detto può essere effettuata ipotizzando una selezione finalizzata anziché casuale pura: basta far interagire in modo esplicito, anche se casualmente l’ambiente esterno con la selezione.
Quindi anche qui la risposta alla seconda domanda non è sì. Rimangono ombre e incertezze, che la scienza sta tentando di chiarire. La scienza ha le sue strade, come si è detto, e non è legittimo lasciarsi influenzare dalle credenze. Vale solo il metodo scientifico.
Ma non me ne vogliano certi ‘chierici’ della scienza che difendono le loro ipotesi scientifiche costruendo, attorno ad esse, vallati di disprezzo per chi osi metterle in dubbio, dimenticando che è il processo di falsificazione quello che dà sicurezza alle ipotesi. Ora se diverse ipotesi, purchè plausibili si dovessero affacciare all’orizzonte è il metodo scientifico che richiede di vagliarle e, comunque dare loro diritto di asilo al pari delle ipotesi tradizionali. Chissà forse riusciremo a sfangarla a non avere coma Padre Creatore il Caso cieco….Chi vivrà vedrà.

Nessun commento:

Meta genetic behaviour emergence in evolutionary simulation


Guido Tascini
[Università Politecnica delle Marche]


ABSTRACT

How to study phenomena that involve great time scale, like the living being evolution? Computer Science gives us the opportunity of simulating by computer processes and arranging virtual experiments: these imitate natural evolution, and allow investigating processes that, in nature, take place over millions of years. In this case clearly defining the basic laws of transformations and/or evolutions of phenomena to study, appears fundamental. A well-established theory that gathers today the near total biologists is the current dominant explanation of Darwinism, the S.T.E. (Synthetic Theory of the Evolution). This theory is actually the base of research on genetic transformation of human beings, but it is also the reference for some studies on psyche sphere and on social evolution. There are two fundamental elements of the theory: 1) random genetic mutations, 2) sorting, by the natural selection, among those which are favourable to gene or the species (Dawkins 1990). The natural selection and adaptation involves the phenotype, that is the inventory of inherited tracts, and is an adaptation to demand of ecological situation. In practice adaptation stands for process in which the environmental variables select, among individuals in a population, those whose inheritable properties are the best-suited for survival and reproduction.
This theory, that uses a random selection, constitutes the Hard Darwinism, and has received critiques [Beerling 2007, Fodor 2007, Kirshener 2005, Margulis 2002, Mayr 1997, etc.], the most centred on its substantial finalism. The genes, the individuals or the species most suited for survival, depend on the favourable variations in natural selection. But even if it is a random genetic variation result, the mechanism may be considered a utilitarian and finalist design. Modifications are proposed, but the situation is still evolving. Therefore we are wondering if the scientific community is going toward a Week Evolution Theory. The Darwinism was recently integrated by several contributions: molecular biology (Monod 1970); molecular genetics; population genetics (Provine 1971); punctuated balances (Elredge, Gould 1972); neutral theory (Kimura 1990); genetic drifts; etc..The criticisms addressed to the theory may be summarized in the following observation: if it can account for the microevolution, either by phyletic gradualism, or by punctuated balances, it does not explain the macro one and the mega evolution. In practice the independence, outlined by the theory, between the genome and the cytoplasm are not guaranteed. In fact the cellular core permanently interacts with the cytoplasm. In the cell they are permanent exchanges of matter, energy and information, like it is shown by the Molecular (Genevès 1988) and cellular biology (Fain-Maurel 1991); in these exchanges take part all the cellular organoids, nuclear and cytoplasmatic: chromatin, mitochondries, nucleoles, Golgi apparatus, etc.. Moreover the fundamental concept of strictly random mutations is negated by several molecular genetics experiment and observations. For instance the colon bacilli may have an abnormally high mutations able to metabolize lactose in a stock unable to be nourished (Cairns, Overbaugh, Miller 1988); similar experiment is realised on the bacteria Escherichia coli with respect to salicin (Barry Hall, Rochester); mitochondrial D.N.A. and mitochondrial mutations existence was observed, for which it is hypothesized interactions between D.N.A. mitochondrial and nuclear D.N.A. at the mitosis final stage (telophase) (Allorge-Boiteau 1991); the transcriptase opposite transforms the R.N.A. of certain viruses in D.N.A.; etc.. There are some suggestion to introduce probability in the interaction [Borensztejn 2005, Rhodes 2005, Sanguinetti 2006, etc.] between the environmental evolution and the evolution of the organisms. The environment parameters may be various: chemical stimuli, like C, N, H, P, S, etc.; physical stimuli, like electromagnetic waves, sound and vibrations, temperatures, pheromones, etc.; ecological stimuli; pray-pray relations in the beasts; etc... The organism’s reaction to the environmental factors influence is complex, being the biosphere very complex, and they are located at the genome level, as well as at levels of molecular biology, embryogenesis and anatomical structures. The relation between environment parameters and organisms is of probabilistic type and integrates collective phenomena affecting simultaneously distant classes and phyla (Invertebrates and Vertebrates).
From this analysis the basic theory that we hypothesise for our simulation model is a Week Evolution Theory, in which an organism interacts with the environment in a complex way , and reacts to many stimuli of various nature: actually known and still to analyse or to discover. Now it is clear that the environment and its interaction with organisms is the key of the theory. The interaction may be probabilistic and the selection is not more blind, but depends on environment conditioning; and the environment conditioning and finalization is still largely to investigate.
A set of individuals may be viewed as complex system and then we can take care of emergences. Many individuals that evolve may give rise to unpredictable behaviours, that we call emergent. And it is clear that the emergence postulates an observer that sees the emergent behaviour visible at a higher level. In our case we have to hypothesize a level higher then genetic one were the mutations happen. Then if we hypothesize a stratification of the formal theory levels we can localize this emergence observation at a meta-genetic level.
In a context so outlined our model will need fitness function that drive the adaptation to the environment and that take care of interactions previous defined. In our experiments we will also hypothesize that the fitness function will take care of an environment feed-back on the list of individual to select for the survival.
Simulation of evolutionary process
A computer simulation may speed up the evolution process if the goals change continuously [ Kashtan 2007] Computer simulations that mimic natural evolution, allow to investigate processes that, in nature, take place over millions of years. We can simulate a population of digital genomes that evolves over time towards a given goal: to maximize fitness under certain conditions. Like living organisms, genomes that are better adapted to their environment may survive to the next generation or reproduce more prolifically. The work of Nadav Kashtan, Elad Noor, and Uri Alon suggests that varying environments might significantly contribute to the speed of natural and/or artificial evolution. Although the computer simulation is useful for studying theoretical questions of evolution, it may have some practical implications in engineering fields for systems design, and in computer science, for accelerating the optimization algorithms.
The computational model adopted in our experiment is inspired to Holland Model, including a feed-back of the environment on the individual choice. The simulation plans N strings that are random generated. Each string (genotype) is the binary code of a candidate solution (phenotype). At each genotype gi of initial population Pop(t=0 at time t=0, is associated a value of the fitness function ƒ i= ƒ (gi), that represents the ability of the individual to adapt itself to the environment. For detecting the adaptation value the fitness function receives in input a genotype, decodes it in the corresponding phenotype and checks it on the environment. After completion of the evaluation phase of individuals of the population Pop (t), at the time t, a new population Pop (t+1), at the time t+1, of N new candidate solutions is generated; this standard algorithm evolves neural network and structural model of RNA. The population of N individuals is initialized to random binary genomes of length B bits (random nucleotide sequences of length bases). They are several generations: in each generation, the S individuals with highest fitness (the elite) remain unchanged for the next generation. The individuals with least fit are replaced by a new copy of the elite individuals. As the non-elite individuals, pairs of genomes are recombined (with crossover probability Pc), and each genome is randomly mutated (with probability Pm per genome). A simulation runs until max. of fitness function ƒ i is achived for the goal.
Fair-unselfish modelIn general, systems that replicate need resources (energy, space,) for building copies of them. Resources are normally limited and, since each replicator tries to produce a maximum of copies, it will attempt to use resources to the limit. Then when several replicators are using the same resources, there will be competition or conflict. The more efficient replicator will gradually succeed in using more and more of the resources, and the less efficient one will succumb. In the long term, nothing will be leaved for the less fit one, and only the fittest will survive. The concept of ‘altruism’ is present in literature [ Heylighen 1992], and means that a system performs actions for increasing the fitness of another system using the same resources. On the other side selfishness characterizes a system performing actions that increase its own fitness. There is the opinion that, in natural selection, a system not only is selfish, since it try to optimize its own fitness, but it also tends to avoid altruism. Anyway by using the interaction with the environment a schema that brings the system to the solidarity may be the following one. Let a generic system constituted by individuals that may enter a series of resources Ri. Each individual can take the number of resources he wants, necessary for the survival. Being each resource organized in more sections (t), the individual may acquire, for each resource, a number of section m ≤ t to his liking. Since the environment interacts through the fitness function, this may penalize the individuals: this happens if, in section acquisition, they surpass a given number q
The individual selection could be realised, by following the previous policy, with the following formula:
ƒ = max { ∑i ( Ri[q]-Ri[x- q] ) }
Where Ri[j] represents the score for j sections of the Ri resource.
The environment policy, other then punish the not-fair acquisitions, rewards the solidarity: it adds a score for each group of Y sections leaved at other’s disposal, and this for each resource. If Di [y] is this reward for each resource Ri, the selection take place according to the following formula:
ƒ = max { ∑i ( Ri [q]-Ri [x- q] + Di [y] ) }.
This formula is iterated as many times as they are individuals to select for the survival on a group.

Figure 1 shows the results of our simulation. This operates on the interaction of two robots whose behaviour emerge from a simulation of various epochs, and many generations, on many (100) individuals, several (20) parents, and some (5) offspring; using as selection method ‘Elite’, and 1000 simulation steps for each trajectory. The simulation involves a neural structure that is the control of the robot, and runs as just described, including the fair-unselfish policy. The goal of the evolution is the adaptation to the environment: each robot attempts to explore the space, in search of resources for its nutrition, and so, after various epochs of simulation, converging toward a stationary path. The competition is realised with the presence in the same environment of two robots: the application of the fair-unselfish policy allow both the robots to converge toward a cooperative stationary paths.
Anyway the memory of individuals to select remains an important aspect to discover . This may contain inside logics like those just analysed. This fact leaves open a question: from where the stored information comes? But this constitutes object of further investigation. On the other side the analysis of the environment remains a serious aspect, and the questions open are: what the environment is? Can we consider the extension of the environment to the psyche? And other fundamental related questions. Finally the typologies of interaction between environment and genetic individuals have to be clarified.


ARTICOLI