Blogia
Vanity Fea

Ciencia y tecnología

Training the Train of Ideas


Es curioso que el famoso pasaje de John Locke sobre la asociación de ideas (Essay Concerning Human Understanding, II, xxxiii) viene a modo de excurso, casi. Por supuesto, la idea de que las ideas se asocian por su asociación en la experiencia pasada es algo no incidental, sino completamente central a la psicología de Locke y a todos los presupuestos del empirismo. Pero en este capítulo, Locke no trata de la asociación de ideas sino como preámbulo o explicación a por qué la gente asocia ideas de manera distinta, conduciéndoles a errores de juicio, a doctrinas equivocadas, a manías, y dificultando así la comprensión y la claridad de pensamiento. No aparece la asociación por experiencia de ideas como algo positivo—hay que pensar que las asociaciones básicas y correctas de ideas para Locke son las que se dan por la propia naturaleza de las ideas, no por los azares de su superposición en la experiencia.

Y sin embargo, en este pasaje veo yo el precedente lejano de las actuales teorías de la mente que estudian la creación de redes neurales. Aparte de las que se crean también "por naturaleza", es decir, por codificación genética. Desde Ramón y Cajal, ya se especuló con el desarrollo de conexiones entre neuronas a consecuencia de su activación conjunta. Así, observa Ramón y Cajal que el crecimiento de las expansiones neuronales se produce gradualmente con el desarrollo del cerebro adulto, y que es "verosímil que semejante desarrollo se perfeccione en ciertos centros á impulsos del ejercicio, y, al contrario, se suspenda y aminore en las esferas cerebrales no cultivadas" (
Textura del sistema nervioso del hombre y de los vertebrados, II.2, xlviii, 1151). 

Este tren de ideas terminaría dando en el principio según el cual "neurons that fire together wire together", o Ley de Hebb: que las neuronas que se activan conjuntamente desarrollan algún tipo de conexión que aumenta la eficacia de sus subsiguientes estímulos. Es un poquito más de lo que dijo Locke, o Cajal.  Según Donald O. Hebb, cito de la Wikipedia,

"When an axon of cell A is near enough to excite cell B and repeatedly or persistently takes part in firing it, some growth process or metabolic change takes place in one or both cells such that A's efficiency, as one of the cells firing B, is increased.
 
 
This is often paraphrased as "Neurons that fire together wire together." It is commonly referred to as Hebb's Law.
 
The combination of neurons which could be grouped together as one processing unit, Hebb referred to as 'cell-assemblies'. And their combination of connections made up the ever-changing algorithm which dictated the brain's response to stimuli."


Antes de las conexiones entre las neuronas, estaban las conexiones recurrentes entre las ideas. (Y de ahí se desarrolló, quizá, como una dendrita que se estira, la conexión entre las neuronas...). Estos son los pasajes del Essay Concerning Human Understanding donde se centra más Locke en la experiencia y la fisiología de la asociación de ideas:

"5. Some of our ideas have a natural correspondence and connexion one with another; it is the office and excellency of our reason to trace these, and hold them together in that union and correspondence which is founded in their peculiar beings. Besides this, there is another connexion of ideas wholly owing to chance or custom: ideas, that in themselves are not at all of kin, come to be so united in some men's minds that it is very hard to separate them, they always keep company, and the one no sooner at any time comes into the understanding but its associate appears with it; and if they are more than two which are thus united, the whole gang, always inseparable, show themselves together." (336)sincronizadas


—Apunto aquí brevemente la falacia o defecto de este magnífico razonamiento, a saber, la ausencia de grises o transiciones. No parece Locke caer en la cuenta aquí que las ideas, siendo objetos mentales, no tienen otra asociación que en la mente, y que por tanto las asociaciones entre ellas han de venir totalmente de la experiencia. (¡De lo contrario las nuevas ideas de Locke serían Ideas platónicas, y algo de hecho parecen tener de aquéllas!).  La pretendida asociación natural de las ideas no es otra que la de estar constantemente asociadas en las mentes, por la naturaleza de las mentes—y de los cuerpos en los cuales se asientan.  Otra manera de decirlo es que se comete aquí la falacia denunciada por los desconstructivistas, la del binarismo abyecto: un elemento del par binario es declarado marginal, secundario, accidental, etc.—pero el análisis podría mostrar cómo the difference between is the difference within, y las ideas asociadas "por su naturaleza" están asociadas por la naturaleza de su asociación, o por causa de las similitud entre la naturaleza y experiencia de los diversos seres humanos. En efecto, sigue Locke:

"6. This strong combination of ideas, not allied by nature, the mind makes in itself either voluntarily or by chance, and hence it comes in different men to be very different, according to their different inclinations, educations, interests, etc. Custom settles habits of thinking in the understanding, as well as of determining in the will, and of motions in the body: all which seem to be but trains of motion in the animal spirits, which, once set a-going, continue in the same steps thay have been used to; which, by often treading, are worn into a smooth path, and the motion in it becomes easy and, as it were, natural. As far as we can comprehend thinking, thus ideas seem to be produced in our minds; or, if they are not, this may serve to explain their following one another in an habitual train, when once they are put into that track,

(—tengo que hacer un inciso para recalcar que las metáforas ferroviarias de Locke no son tales, claro; está pensando más bien en caminos de mulas alisados por el constante uso. Pero tan adecuada es la metáfora que podría darle ideas adicionales a algún ingeniero, o a algún neurólogo).

as well as it does to explain such motions of the body. A musician used to any tune will find that, let it but once begin in his head, the ideas of the several notes of it will follow one another orderly in his understanding, without any care or attention, as regularly as his fingers move orderly over the keys of the organ to play out the tune he has begun, though his unattentive thoughts be elsewhere a-wandering. Whether the natural cause of these ideas, as well as of that regular dancing of his fingers, be the motion of his animal spirits, I will not determine, how probable soever, by this instance, it appears to be so; but this may help us a little to conceive of intellectual habits and of the tying together of ideas."


Y de aquí pasa Locke a tratar conexiones no necesarias de ideas, que por su firmeza parecen ser naturales, sin serlo. Me recuerda algo que decía su contemporánea Bathsua Makin, que "la costumbre tiene tal fuerza que se convierte en una segunda naturaleza". Y pasa Locke a advertir a los pensadores contra esta confusión entre las conexiones naturales e innatas de ideas (¿quién dijo que Locke no era también un innatista?) y las accidentales o no necesarias, que pueden llevar al juicio a error, como si de ídolos de los encarrilamientos mentales se tratara. Último párrafo que pongo de Locke:

"7. That there are such associations of them made by custom in the minds of most men, I think nobody will question who has well considered himself or others; and to this, perhaps, might be justly attributed most of the sympathies and antipathies observable in men, which work as strongly and produce as regular effects as if they were natural; and are therefore called so, though they at first had no other original but the accidental connexion of two ideas, which either the strength of the first impressions or future indulgence so united that they always afterwards kept company together in that man's mind, as if they were but one idea. I say most of the antipathies, I do not say all: for some of them are truly natural, depend upon our original constitution, and are born with us; but a great part of those which are counted natural would have been known to be from unheeded, though perhaps early, impressions or wanton fancies at first, which would have been acknowledged the original of them, if they had been warily observed. A grown person surfeiting with honey no sooner hears the name of it, but his fancy immediately carries sickness and qualms to his stomack, and he cannot bear the very idea of it; other ideas of dislike and sickness and vomiting presently accompany it, and he is disturbed, but he knows from whence to date this weakness and can tell how he got this indisposition: had this happened to him by an overdose of honey when a child, all the same effects would have followed, but the cause would have been mistaken, and the antipathy counted natural." (337)


Esta diferencia en el grado de consciencia de las sensaciones me trae a la cabeza un interesante pasaje de Santiago Ramón y Cajal sobre la atención y el desarrollo de automatismos nerviosos—es decir, sobre el reverso de la moneda del "efecto de consciencia", podríamos decir, y sobre las bases neurales del propio efecto de consciencia. Entre Locke y Hebb estuvo, en efecto, Cajal, introduciendo sus propias conexiones de ideas y su propia teoría de la conexión neural— por ejemplo, el desarrollo de conexiones favorecidas por desarrollo diferenciado temporalmente de las vías centrales neurales y de las vías periféricas.

"No es nuestro ánimo exponer aquí las diversas teorías propuestas para explicar ese fenómeno de transformación de un acto consciente en inconsciente; seános lícito, sin embargo, indicar la conjetura que juzgamos más racional y armónica con los datos de la evolución ontogénica.
    Comencemos por afirmar, de acuerdo con muchos fisiólogos, que para que una excitación pueda llegar al campo de la consciencia, es condición indispensable que alcance cierta intensidad y además que en la corteza cerebral, teatro del fenómeno consciente, concurran ciertas condiciones físico-químicas todavía desconocidas que se traducen en lo dinámico por el despertar de la atención. Esto sentado, puede admitirse que, durante la época juvenil, es decir, antes del modelamiento definitivo de las arborizaciones nerviosas, las ramas colaterales sensitivo-motrices poseen un desarrollo relativamente limitado, marchando las corrientes de preferencia por los tallos ascendente y descendente, y alcanzando fácilmente el bulbo (ganglios de Goll y de Burdach) y la corteza cerebral á la que llegan con energía bastante para causar una reacción consciente. Mas, ulteriormente, y a consecuencia del ejercicio, las colaterales se hipertrofian á expensas de las terminales que permanecerán, en cuanto á grosor, más ó menos estacionarias; de donde se sigue que la excitación sensible, por su tendencia natural a propagarse en el sentido de la menor resistencia, fluirá ahora de preferencia por las colaterales. Por consiguiente, bajo un estímulo periférico moderado, al cerebro llegará solamente una corriente débil incapaz de provocar la sensación á menos que por los mecanismos puestos en juego por la atención, es decir, congestionando y aumentando la excitabilidad de la corteza gris no surja el hecho de consciencia y las consiguientes reacciones motrices intencionales. En otros términos: no es que la onda sensitiva ascendente sea en el adulto incapaz de provocar reacciones conscientes, sino que para determinarlas necesita, ó alcanzar intensidad mayor que en la edad juvenil, ó hallar la corteza cerebral convenientemente preparada para ello.
    Las preferencias de ruta á que aludimos, podrían todavía exagerarse merced á un superior desarrollo (por ramificación y estiramiento) de las arborizaciones protoplásmico-nerviosas, es decir, por un creciente aumento de la superficie de contacto de las neuronas constitutivas del arco excito-motor. (Textura del sistema nervioso del hombre y de los vertebrados, I, xix, 456).


De aquí a Hebb hay un paso. También recalca Ramón y Cajal, en la línea de Haeckel, las similitudes entre la ontogénesis y la filogenia del desarrollo cerebral (hoy esto haría de Ramón y Cajal un evo-devo, es de suponer, o al menos lo llevaría a interesarse por este planteamiento—ver Textura II.2, xlvii, 1119). También hace una interesante observación sobre el desarrollo de redes neurales no sólo por multiplicación de conexiones, sino por muerte selectiva de las conexiones establecidas y no usadas. Especialmente interesante para el tema que nos ocupa, el del desarrollo de activaciones conjuntas entre neuronas. Asi, dice Ramón y Cajal,

"Nadie ignora que la obra de un pianista, de un orador, de un matemático, de un pensador, etc., resulta absolutamente inabordable para el hombre ineducado, cuya adaptación al nuevo trabajo (caso de que concurran en el sujeto circunstancias orgánicas favorables) es obra de muchos años de gimnasia mental y muscular. Para comprender este importante fenómeno se hace necesario admitir, además del refuerzo de las vías orgánicas preestablecidas, el establecimiento de otras nuevas, mediante la ramificación y crecimiento progresivo de las ramificaciones dendríticas y nerviosas terminales. En tal suposición, el talento adquirido (dejando a un lado lo relativo á la capacidad cerebral ó memoria orgánica, cuantía de neuronas y otras condiciones que deben influir también en el resultado), tendría por principal condición la presencia de centros conmemorativos primarios y secundarios provistos de enlaces múltiples y complicados entre órdenes ó pléyades neuronales poco ó nada relacionadas en los cerebros incultos. Por virtud de esta superior asociación, una excitación sensorial ligera, la contemplación de una idea, un estímulo, en fin, cualquiera incapaz de provocar en un cerebro ineducado sino asociaciones vulgares ó ilógicas, suscitaría en las cabezas fuertemente cultivadas é impresionables, combinaciones ideales inesperadas, que traducen esquemática, pero fielmente, relaciones positivas de la realidad exterior, y se condensan y expresan en fórmulas generales y fecundas.
      La citada hipótesis explicaría también: la memoria lógica, es decir, ese encadenamiento y subordinación ordenada de las adquisiciones, que no se logra sino tras largo esfuerzo de atención y reflexión, y mediante una nueva organización de los centros conmemorativos; así como la creación de sistemas arquitectónicos de ideas ó construcciones lógicas complicadas (sistemas ó credos filosóficos, religiosos y políticos).
      Las observaciones y argumentos que sirven de apoyo á esta hipótesis son:
      1º  Durante el desarrollo embrionario, las dendritas y ramificaciones nerviosas se extienden y ramifican progresivamente, poniéndose en contacto con un número cada vez mayor de neuronas (véase Histogénesis de la médula espinal, capítulo XXI, tomo I).
      2º  Es un hecho también que el ajuste definitivo de estas relaciones no se verifica sino después de algunos tanteos, advirtiéndose que antes de que las expansiones lleguen á su destino y creen articulaciones estables, desaparecen numerosas ramas accesorias, especie de asociaciones de ensayo cuya existencia prueba la gran movilidad inicial de las arborizaciones celulares." (Textura del sistema nervioso del hombre y de los vertebrados, II.2, xlviii, 1150-51).


En línea con estas reflexiones, hubiera sido interesante para Ramón y Cajal, sin duda, conocer la teoría de la encefalización por neotenia, y lo que pueda aportar a la interpretación de la mayor conectividad del cerebro humano. ¿Estará la conectividad del cerebro humano comparativamente 'infantilizada', en el sentido de tener una flexibilidad o capacidad de ramificación neural que correspondería a una fase 'juvenilizada' de la anatomía neural de los primates?

Pero entre Locke y Cajal me he saltado otro—bueno, muchos me habré saltado, pero tengo uno en especial en mente. Se trata de Herbert Spencer, y su aplicación de principios físicos básicos para explicar el desarrollo de vías de información neural—vías fisiológicas, como también aplica el mismo principio al establecimiento de todo tipo de vías.


Este razonamiento de Herbert Spencer al respecto de las redes neurales sigue la ley del mínimo esfuerzo. No es una crítica que le hago: es el principio básico mediante el que Spencer concibe la actuación de la Fuerza que genera la realidad, y la generación de complejidades locales y circulación ordenada de energía en cuerpos (tanto vivos como no vivos). Esto viene de First Principles, del capítulo donde Spencer explica la dirección del movimiento y su ordenación: a nivel de física básica, de cosmología y astronomía, de geología, de biología y de economía y comunicaciones. Por supuesto que Spencer no inventó ni descubrió la ley del mínimo esfuerzo, pero la aplicó con un talento sin precedentes. Aquí la aplica a la génesis de un sistema nervioso, por hábito, costumbre, o asociación recurrente (como digo, está entre Locke y Ramón y Cajal):

"A stimulation implies a force added to, or evolved in, that part of the organism which is its seat; while a mechanical movement implies an expenditure or loss of force in that part of the organism which is its seat: implying some tension of molecular state between the two localities. Hence if, in the life of a minute animal, there are circumstances involving that a stimulation in one particular place is habitually followed by a contraction in another particular place—if there is thus a repeated motion through some line of least resistance between those places; what must be the result as respects the line? If this line—this channel—is affected by the discharge–if the obstructive action of the tissues traversed, involves any reaction upon them, deducting from their obstructive power; then a subsequent motion between these two points will meet with less resistance along this channel than the previous motion met with, and will consequently take this channel still more decidedly. Every repetition will further diminish the resistance offered; and thus will gradually be formed a permanent line of communication, differing greatly from the surrounding tissue in respect of the ease with which force traverses it. Hence in small creatures may result rudimentary nervous connexions." (First Principles 211-212)


Y pasa Spencer a detallar los "aspectos positivos" de estos hábitos, en la creación de complejidad, aspectos que se intuían en el razonamiento de Locke, aunque éste se centraba más bien en los obstáculos al razonamiento impuestos por estas asociaciones de ideas. La tradición empirista en la que se asienta Spencer queda, ciertamente, clarísima:

"Only an adumbration of nervous processes thus hinted as conforming to the general law, is here possible. But the effects of associations between impressions and motions as seen in habits, all yield illustrations. In knitting, in reading aloud, in the performance of the skilled pianist who talks while he plays, we have examples of the way in which channels of nervous communication are eventually made so permeable by perpetual discharges along them as to bring about a state almost automatic or reflex: illustrating at once the fact that molecular motion follows lines of least resistance, and the fact that motion along such lines, by diminishing the resistance, further facilitates the motion." (212)


Más adelante formula Spencer unos principios asociativos que tienden un puente entre Locke y Ramón y Cajal. En su capítulo de First Principles sobre la equilibración de las fuerzas y la génesis de sistemas, intenta formular una teoría "energética" de los sistemas morales y modalidades de comportamiento:

"Al igual que el repetir la asociación entre dos ideas facilita la excitación de una por parte de la otra, del mismo modo cada descarga de sentimientos en forma de acciones vuelve más fácil una descarga subsiguiente de tales sentimientos en tales acciones" (456).


Y habla Spencer, como Locke, de la asociación entre estados de ánimo, psicosomaticidades, etc. Todo basado en el principio de que no solo ideas that fire together wire together, sino también que matter that fires together wires together. La conexión neuronal, materia que crea idea, es sólo un paso intermedio en este razonamiento que va del empirismo de Locke a la neurología moderna.

Aún iría yo un poco más allá, siguendo con Spencer hacia la génesis de las cosas, o vendría un poco más acá—al establecimiento de redes neurales en la World Wide Web, y más en concreto en noosferas, blogosferas y redes sociales. Pero es tarde, y el cerebro pide sueño, también.

the stupid it burns



De dónde surgen las ideas

 

El Gran Diseño y Hacedor de Estrellas (5): La Teoría de Todo

El Gran Diseño y Hacedor de Estrellas (5): La Teoría de Todo


El Gran Diseño y Hacedor de Estrellas (1) 
 
(2) La ley de la ley
(3) ¿Qué es la realidad?
(4) Historias alternativas


En el capítulo 5 de
The Grand Design, Hawking y Mlodinow exponen cómo la ciencia ha desarrollado leyes físicas y las ha integrado gradualmente en modelos que las conectan entre sí, en teorías cada vez más ambiciosas y explicativas.Burj Khalifa

Así, Faraday relacionó la electricidad y el magnetismo, e introdujo la noción de campos de fuerza. Que habría de prosperar en el futuro
—puesto que en la física moderna las fuerzas se transmiten por campos. James Clerk Maxwell desarrollo las nociones de Faraday construyendo un modelo físico que explicaba la relación entre electricidad, magnetismo, y luz, con una serie de ecuaciones que describían a las fuerzas eléctricas y a las magnéticas como manifestaciones de la misma entidad física, el electromagnetismo—y descubrió que la luz también es una onda electromagnética. También describen las ecuaciones de Maxwell las microondas, las ondas de radio, los infrarrojos, los rayos X.... como fenómenos con distinta longitud de onda. Y definió la velocidad de la luz como una constante de unos 300.000 km/seg... en relación al "éter". Claro que cuando dejó de existir el éter como una sustancia de base del universo, la luz pasó a ser una constante sin más, en la teoría de Einstein. Esto tras el experimento de Michelson y Morley, que siguiendo una idea del propio Maxwell, intentaron medir la velocidad de la luz respecto al éter y no encontraron constancia experimental de la existencia de éste.  En 1905, el artículo de Einstein "Zur Elektrodynamik beweger Körper" hizo una sugerencia "sencilla": que las leyes de la física, y la velocidad de la luz, apareciesen iguales a todos los observadores que se hallen en movimiento constante.  Y de ahí se siguió el cálculo relativista del desfase del tiempo para observadores que se muevan uno con respecto al otro—la implicación de espacio y tiempo en un nuevo concepto más integrador, el espacio-tiempo.

(Sobre estas nociones relativistas, y algunas de sus consecuencias epistemológicas, puede leerse la exposición de George Herbert Mead en La filosofía del presente).

Seguidamente, Einstein buscó la manera de hacer que este nuevo modelo fuese compatible con la teoría de la gravitación, para permitir un cálculo que no utilizase el concepto newtoniano de tiempo absoluto:

"En los siguientes once años, Einstein desarrolló una nueva teoría de la gravedad, a la que llamó relatividad general. El concepto de gravedad en la relatividad general no es en absoluto semejante al de Newton. En su lugar, se basa en la propuesta revolucionaria de que el espacio-tiempo no es plano, como se había supuesto anteriormente, sino que está curvado y distorsionado por la masa y energía que contiene" (100)


La teoría de Einstein produce resultados aproximados a la de Newton en entornos de baja gravedad, pero hay unos pequeños desfases que son cruciales en según que tipo de entornos—o para el cálculo de distancias con GPS, sin más, cosa que sería imposible de hacer sin tener en cuenta las distorsiones que sí tiene en cuenta la relatividad general. Pero para Hawking & Mlodinow, las nuevas físicas de Maxwell y Einstein, a pesar de sus innovaciones, siguen siendo, como la de Newton, "teorías clásicas. Es decir, son modelo en los que el universo tiene una única historia" (103). Para cálculos de física subatómica, necesitamos otro tipo de teoría más integradora todavía, "una versión cuántica de la teoría de la teoría del electromagnetismo de Maxwell; y si queremos entender el universo temprano, cuando toda la materia y energía del universo estaban comprimidas en un pequeño volumen, debemos tener una versión cuántica de la teoría de la relatividad general" (103). Las cuatro fuerzas conocidas de la naturaleza son la gravedad, el electromagnetismo, la fuerza nuclear débil y la fuerza nuclear fuerte:

"La primera fuerza para la cual se creó una versión cuántica fue el electromagnetismo. La teoría cuántica del campo electromagnético, llamada electrodinámica cuántica, abreviado QED, la desarrollaron en los años 40 Richard Feynman y otros, y se ha convertido en un modelo para todas las teorías de campo cuántico." (104)


Las QED son teorías que requieren complejos cálculos matemáticos, pero que se ajustan con precisión a los resultados experimentales. A nivel cuántico, deben incluirse en cada intercambio de partículas todas las historias por las cuales podría ocurrir dicha interacción, y eso complica las matemáticas. Feynman simplificó la cuestión introduciendo una manera de visualizar la suma de historias—los diagramas de Feynman, una de las herramientas más importantes de la física moderna. Que en principio pueden representarse y calcularse, y permiten visualizar los distintos tipos de interacción—pero que son infinitos en número. Y esto lleva a resultados absurdos o imposibles de calcular. Los procedimientos matemáticos para tratar con estos absurdos (las "renormalizaciones") son dudosos, quizá puedan considerarse trucos de matemáticos trampeando sus propios cálculos para obtener el resultado deseado.... (Y esta situación no parece considerarla Hawking como un problema realmente serio para la teoría, sino como una molesta cuestión de principio que sin embargo con un leve parcheo de arbitrariedad no impide a la teoría el realizar predicciones válidas). El éxito (si así puede llamársele....) de la "renormalización" llevó a los cientifícos a intentar desarrollar teorías de campo cuántico que explicasen las demás fuerzas: la tesis es que las cuatro fuerzas deben ser en última instancia la misma, formulable a través de una teoría de todo, una vez se disipe nuestro conocimiento imperfecto de las relaciones entre ellas—

"una teoría de todo que unifique las cuatro clases en una única ley que sea compatible con la teoría cuántica. Esta sería el santo grial de la física" (109).


En 1967 Abdus Salam y Steven Weinberg desarrollaron cada cual por su lado una teoría unificada del electromagnetismo y de la fuerza débil, capaz de predecir la existencia y comportamiento de partículas llamadas W+, W- y Zº. La fuerza nuclear fuerte se renormalizó en una teoría llamada QCD, o cromodinámica cuántica—que atribuye "colores" por así decirlo a los quarks que componen las anteriormente consideradas partículas elementales (protones, neutrones). Los quarks y antiquarks se combinan para formar bariones, que son esas partículas estables, y sus antipartículas, así como otras partículas inestables llamadas mesones. Los quarks no son observables, "pero aceptamos el modelo por lo bien que funciona al explicar el comportamiento de los protones, neutrones y otras partículas de materia" (110). Se intentó demostrar que los protones tienen una vida media de 1032 años, así que se podría detectar su desintegración, pero unos experimentos de 2009 resultaron negativos, malas noticias para las GUTs o Grandes Teorías Unificadas. Así que los físicos optaron por una teoría más "chapucera", el modelo estándar compuesto por la teoría unificada de las fuerzas electromagnéticas y débiles, más la QCD.

"El modelo estándar tiene mucho éxito y concuerda con todas las pruebas de observación actuales, pero es en última instancia insatisfactorio porque, aparte de no unificar las fuerzas electromagnéticas y fuertes, no incluye a la gravedad" (112).


El chiste que incluye el libro es revelador: un científico mira una pizarra con unas complejas ecuaciones rodeadas por un cuadrado, y una colega le dice: "Ponerle una caja alrededor, me temo, no lo convierte en una teoría unificada".

El principio de incertidumbre de Heisenberg no permite realizar una teoría cuántica de la gravedad. Según ese principio, el espacio nunca puede considerarse vacío totalmente, pues aunque puede tener un estado de mínima energía que llamamos el vacío, pueden darse en él unos tembleques cuánticos, o fluctuaciones cuánticas, por las que aparecen y desaparecen brevemente de la existencia partículas y campos. Las concibe Hawking como pares de partículas que se separan y se vuelven a juntar anulándose unas a otras. Y vuelven a producir problemas de imposibilidad al no poderse calcular su potencialmente infinita energía. La renormalización no puede aplicarse en este caso. En 1976 se proporcionó la solución de la supergravedad—basada en la noción de supersimetría, según la cual fuerza y materia serían dos caras de lo mismo, e irían en pares de partículas asociadas. Se espera que la existencia de esas partículas asociadas a las partículas observables pueda demostrarse con el LHC de Ginebra. La supersimetría se gestó en el seno de las Teorías de Cuerdas, según la cual el espacio-tiempo tiene diez dimensiones, algunas de ellas operativas a una escala que se nos escapa.

"En la teoría de cuerdas las dimensiones adicionales están enrolladas en lo que se llama el espacio interno, en oposición al espacio tridimensional que experimentamos en la vida cotidiana" (116)—pero tendrían importantes consecuencias físicas. "Y luego, en 1994, la gente empezó a descubrir dualidades—que las diferentes teorías de cuerdas, y las diferentes maneras de enrollar las dimensiones adicionales, son sencillamente maneras diferentes de describir los mismos fenómenos en cuatro dimensiones" (116).  Las teorías de cuerdas y la supergravedad se consideran hoy versiones aptas para distintos contextos de lo que sería la Teoría M (teoría maestra, quizá, o misteriosa, o milagrosa).

"Podría ser que para describir el universo, tengamos que emplear diferentes teorías en diferentes situaciones. Cada teoría puede tener su propia versión de la realidad, pero según el realismo dependiente de modelos, eso es aceptable mientras las teorías concuerden en sus predicciones cada vez que se solappan, es decir, cuando las dos pueden ser de apliación" (117).


(Me parece que estas cuestiones que a Hawking le parecen portentosas a nivel matemático y subatómico son simplemente una manera de enfrentarse a las propiedades emergentes de los fenómenos— y que algo parecido sucede con fenómenos a nivel cultural, cuando encontramos que no es posible unificar perfectamente, o "reducir", una teoría del comportamiento humano a cuestiones formuladas en el lenguaje de la sociobiología, pero vemos que es descriptible con el lenguaje de otras disciplinas.  Sobre la cuestión de la reducción unificadora de las ciencias, y el problema de la emergencia, ver "Gell-Mann: Consciencia, reducción y emergencia". Por tanto hay que tomar cum grano salis las afirmaciones con las que Hawking & Mlodinow concluyen este capítulo, y que llevarían a una multiplicidad de universos. Me temo que la manera más sencilla de explicarlo es que son universos teóricos, productos del lenguaje matemático—y que en el "lenguaje" que utilizamos para movernos por nuestro universo cotidiano, seguiremos huérfanos con un único universo donde, eso sí, hay matemáticos generando activamente muchos universos matemáticos distintos para explicar ciertos fenómenos que escapan a la experiencia ordinaria. Hay otros espacios internos... pero estan en éste).

"
La Teoría M tiene soluciones que permiten muchos espacios internos, quizá hasta 10500, lo cual significa que prevé hasta
10500 universos distintos, cada cual con sus propias leyes (...)" La cuestion es, entonces, "cómo acabamos estando precisamente en éste, y con las leyes que en él se manifiestan?" (119) —(Y la respuesta quizá sea que no acabamos, sino que empezamos en éste...).

"¿Y qué sucede con esos otros mundos posibles? (119).

Por resolver la cuestión o mejor dicho por dar una posible respuesta a la pregunta, con una analogía literaria, creo que estos mundos posibles de Hawking son comparables con los mundos virtuales imaginados por Olaf Stapledon en 
Star Maker. Allí, el creador de universos, el Hacedor de Estrellas, experimenta con un mundo tras otro, creaciones torpes unas, elegantes otras, simétricas algunas, absurdas otras...  ante la mirada atónita del narrador de la novela, que ha llegado a un nivel de percepción cósmica tal que le ha permitido ver al Hacedor de Estrellas. Es una ficción sugestiva. Pero, descendiendo a la tierra en una perspectiva a la que no podemos renunciar, el Hacedor de Estrellas no es otro que un personaje de una novela de Olaf Stapledon, creado un un universo emergente dentro de nuestra experiencia humana—el universo literario de una novela concreta, que además debe su imaginario creativo particular a relatos míticos y filosóficos preexistentes. De modo similar, una importante característica de los multiversos de Hawking, una que no se formula nunca con claridad, es la medida en que son fenómenos emergentes dentro de una disciplina del conocimiento llamada la física matemática. A fin de cuentas, busquemos como busquemos, vivimos en un mundo humano lleno de rincones creados y diseñados por los humanos, cada cual con sus propias normas y reglas de aplicación local que no valen un poco más allá. No habrá una superteoría, sino una colección de teorías dispersas, parcialmente traducibles, para tratar con fenómenos que sólo en circunstancias muy específica tienen sentido o existencia siquiera. Igual que sólo en un sentido muy general, o en contextos muy concretos, hay una Historia de Todo, por mucho que las cosas sean concebibles en el seno de esa historia. La Historia de Todo no puede prescindir de otras modalidades de historia más locales y específicas, que sólo parcialmente se ubican respecto de ella, o se plantean en los términos de una historia de todo.


Perspectiva narrativa sobre Historia del Tiempo, de Stephen Hawking


Trilobites enrollados

Trilobites enrollados


Visto que el otro día me tocó en un sorteo (primera vez que me toca nada en un sorteo) un trilobites, me he ido auna conferencia sobre trilobites, convenientemente anunciada en este tráiler de la Universidad: 

Jorge Esteve y  Samuel Zamora, científicos del grupo de investigación Murero, liderado por Eladio Liñán, catedrático de la Universidad de Zaragoza y financiado por el MEC, impartirán hoy a las 19.30 horas la conferencia "Tesoros fósiles de Aragón: La vida primitiva del Parque Natural del Moncayo" en el Salón de Actos de Geológicas.

Los investigadores expondrán que los trilobites, un grupo extinto de artrópodos que proliferó en los mares del Paleozoico, ya se enrollaban eficientemente para defenderse ante las amenazas externas hace 500 millones de años,  según han podido hallar en su último estudio sobre los fósiles trilobites del Parque natural del Moncayo. Precisamente este hallazgo acaba de ser publicado por la revista norteamericana Geology, la más prestigiosa de geología y realizado por Jorge Esteve (Universidad Zaragoza), Nigel Hughes (Universidad de California) y Samuel Zamora (Museo Historia Natural, Londres).
Trilobites 

Los fósiles han sido recogidos, preparados y estudiados a lo largo de los últimos cuatro años en la localidad zaragozana de Purujosa incluida en el Parque Natural del Moncayo. Lo singular de este yacimiento es la concentración y conservación, más de 500 ejemplares, de trilobites perfectamente conservados, muchos de los cuales aparecen en una postura defensiva de enrollamiento, similar a la que muestran las cochinillas de la humedad actuales cuando se les molesta.

Los fósiles pertenecen al periodo Cámbrico y tienen más de 500 millones de años lo que ha permitido indagar cómo los primeros trilobites se enrollaban y se defendían ante las amenazas externas. Este yacimiento es el más rico en trilobites del Cámbrico enrollados a nivel mundial y así lo demuestra la comparación con casi 90 localidades con fósiles parecidos de todo el mundo.

La tendencia de los trilobites es hacia un enrollamiento más eficiente a lo largo de su evolución, aunque esta tendencia ya estaba muy definida en el Cámbrico. Esta asociación de trilobites muestra como diferentes grupos podían enrollarse, aun teniendo cuerpos de formas diferentes. A partir de este estudio se concluye que el enrollamiento en los trilobites es clarísimamente una adaptación defensiva que nos proporciona uno de los más claros casos de tendencias desarrolladas independientemente en diferentes linajes hacia una solución común, enrollarse para defenderse.

Todavía se están barajando las causas de tal concentración de fósiles pero todo apunta a que una avalancha de lodo enterró de forma súbita a estos animales. Este yacimiento representa casi intacto los últimos instantes en la vida en una comunidad de animales marinos de más de 500 millones de años. 
 
Yo como siempre tras una conferencia, pregunto y hasta me enrollo si hace falta. Me acuerdo que me llamaba la atención de crío cómo unas especies de cochinillas (crustáceos que parecen insectos) se enrollaban, y otras no. Y también leí en un artículo de Stephen Jay Gould sobre la gradual carcinización del cangrejo, o sea, cómo un tipo de crustáceo con tendencia a enrollarse acaba enrollado permanentemente, y con lo que en un cangrejo de río sería la parte trasera, vuelta permanentemente hacia adelante y adherida al tórax en lo que es un cangrejo de mar. Aún se les distingue lo que fue el abdomen, ahí fosilizado. Bien, pues parece que los trilobites no eran lo suficientemente enrollados y no se ha encontrado el mismo proceso en ellos, no hay carcinización del trilobites en el registro fósil. De todas maneras, siendo unos animales que dieron lugar a tantos géneros y que vivieron tanto tiempo, no me extrañaría que un día apareciese una variante de trilobites con enrollamiento permanente. Yo les animaría a seguir buscando a los trilobitólogos: es una forma que no me sorprendería que apareciese en un futuro, si lo extinguido puede aparecer en un futuro. También he preguntado, aparte del enrollamiento, por la extinción. Se puede tener un éxito notable y extinguirse, aunque en el caso de los trilobites no fue tan súbita la cosa como entre los dinosaurios. Diría extinguirse sin dejar huella, pero lo cierto es que huellas han quedado muchas, hasta yo tengo mi trilobites, muy bien conservado, aunque no para paella.

A photo on Flickr
Huesos de dinosaurio en la Luna
 

El universo según Bolzmann, Feynman, y Carroll

El multiverso según Bolzmann, Feynman, y Carroll






Aquí una versión "expandida" de esta charla, sobre la flecha del tiempo y la entropía, multiverso, especulaciones matemáticas sobre universos bebé, multiversos, eternos retornos, un universo antes del universo.... en la Universidad de Sydney. Parte 1 y Parte 2. Un conferenciante fantástico, aparte de todo.


_____


Aquí un vídeo interesante relacionado con estas cuestiones, sobre lo que podríamos llamar el paso del paradigma cuántico al paradigma informacional de la estructura del universo. Decoding Reality, entrevista en Redes con Vlatko Vedral.


Sobre mundos paralelos 
 


Sobre mundos paralelos

Sobre mundos paralelos


NATURE PODCAST: PARALLEL WORLDS


Habla Brian Greene de su libro Hidden Reality,
donde expone la tesis del multiverso basada en la teoría de cuerdas. Vuelve entre otras cosas la teoría del Eterno Retorno, cansinamente... pero ello no es prueba suficiente del Eterno Retorno.
siudmak
La clave del asunto es, dice Greene, si los universos pueden influir de alguna manera unos con otros, de manera experimentalmente comprobable: si no, se trataría de una pura construcción matemática, un problema en la cabeza de alguien, o un pseudo-problema desde el punto de vista científico. La prueba que propone es la existencia de interferencias en la radiación de fondo, y también la investigación de variaciones en la energía procedente de la colisión de partículas—si desaparece energía, sería que ha pasado a esa "otra dimensión" de un universo paralelo. En los últimos diez años, dice, se han hecho no sólo progresos instrumentales haciéndose con aparatos de medición (el Gran Colisionador de Hadrones) sino también grandes avances teóricos en el desarrollo matemático de la teoría de cuerdas. Así que seguiremos escuchando la radiación de fondo...

Pero evidentemente la discusión matemática está aquí a un nivel que no va a producir claridad ni acuerdo ni entre los propios matemáticos, sino más bien una proliferación de teorías y escuelas sobre lo que es aceptable o no aceptable como modelo, cuánto menos a la hora de buscarle un correlato físico. Y las indicaciones experimentables que propone Greene son tan remotas e indirectas que podrían ser prueba de la teoría,
o de un deseo desmesurado de que se verifique... o quizá de un enchufe defectuoso en algún sitio.

George Ellis reseña este libro en Nature y concluye que es más teoría y especulación que hechos probados. De momento, seguiremos encerrados en nuestro universo único, que de hecho nos viene grande, y los demás, en la medida en que se nos alcanzan, estarán contenidos en éste—en teorías y en novelas de ciencia-ficción y de ficción-ciencia.

Recuerda esta discusión sobre el multiverso a la que se producía en el siglo XVII, cuando comenzaba a calar en las mentes ilustradas la idea de la enormidad del universo y la existencia de "otros mundos"—pienso en obras como las Conversaciones sobre la Pluralidad de los Mundos (1686) de Fontenelle. Siglos después, hemos aprendido bastante sobre la realidad de esos mundos—pero quizá la realidad más importante nos resistimos a admitirla: que son inhabitables para la humanidad y siempre lo serán, al margen de incursiones simbólicas o imaginarias.

Por cierto que habría que diferenciar la teoría de los mundos paralelos de Greene, o de Hawking, de otras especulaciones parecidas pero no tanto, o diferentes pero no tanto—otras teorías que parecen el alter ego de esta teoría del multiverso, clonadas en otra realidad alternativa. Abundar, abundan, los mundos paralelos y si no paralelos, al menos divergentes. Ahora estamos leyendo con los niños Luces del Norte (Northern Lights, 1995) el primer volumen de la saga de Philip Pullman His Dark Materials—el que se filmó en la película La Brújula Dorada.  El padre de la heroína Lyra, Lord Asriel, explica así su propósito de tender un puente entre las diversas realidades:

–¿Qué es ese otro universo?—le preguntó ella.
—Uno más de los innumerables billones de mundos paralelos. Hace siglos que las brujas tienen noticias de ellos, pero los primeros teólogos que demostraron su existencia de forma matemática fueron excomulgados hace cincuenta años o más. Pese a todo, es verdad; no hay forma posible de negarlo.
    "Pero nadie había considerado jamás la posibilidad de transitar de un universo a otro. Nos figurábamos que era una violación de las leyes fundamentales. Pues bien, estábamos equivocados; aprendimos a ver el mundo de arriba. Si la luz puede atravesarlo, ¿por qué no hemos de poder hacerlo nosotros? Pero tuvimos que aprenderlo, Lyra, de la misma manera que también tú has aprendido a usar el aletiómetro [la "brújula dorada"].
    "Ahora bien, este mundo, como otro universo cualquiera, es resultado de la posibilidad. Tomemos el ejemplo de una moneda: la arrojamos al vuelo y el resultado puede ser cara o cruz. Antes de que toque el suelo ignoramos de qué lado caerá. Si el lado es cara, significa que la posibilidad de que fuera cruz ha quedado eliminada. Pero hasta ese momento las posibilidades eran las mismas.
    "Sin embargo, en otro mundo podría ser cruz. Cuando ocurre tal cosa, los dos mundos se separan. Utilizo el ejemplo de arrojar una moneda para que resulte más claro. En realidad, estos fallos de lo posible ocurren al nivel de las partículas elementales, pero se producen de la misma manera: en un momento determinado son posibles varias cosas, un momento después ocurre una sola y las restantes dejan de ser posibles... salvo que hayan surgido otros mundos donde podrían serlo." (389)
 


Y de ahí pasa Lord Asriel a grandiosos planes de pasar de un mundo a otro y (es más) acabar con la Muerte y la Destrucción del Mundo. Está más claro quizá en este ejemplo que los deseos de materializar otros mundos u otras alternativas realizadas es (antes que una estructura posible de la realidad) ante todo un sueño característicamente humano, de corregir la vida como es— ligado a la frustración por la mortalidad y del paso irremediable del tiempo, y por las elecciones y opciones que quedan atrás, sin realizarse en ningún mundo que no sea un mundo inventado. Mundos alternativos hay muchos en la ficción, no sólo en Ada  de Nabokov—y de hecho es en ese sentido en el que nuestra realidad es inmediatamente un multiverso; hay muchas ficciones, pero están en ésta. Aparte, cada cual vive en su mundo particular, imperfectamente coincidente con el de otras personas. Y los mundos generados por los matemáticos son especialmente inhabitables para los demás.


El Gran Diseño y Hacedor de Estrellas (3): Historias alternativas


El Gran Diseño y Hacedor de Estrellas (4): Historias alternativas

sábado 15 de enero de 2011

El Gran Diseño y Hacedor de Estrellas (4): Historias alternativas


El Gran Diseño y Hacedor de Estrellas (1) 
 
(2) La ley de la ley
(3) ¿Qué es la realidad? 


En el capítulo 4 de
The Grand Design, Hawking y Mlodinow equiparan el comportamiento del universo al de un sistema subatómico regido por leyes cuánticas.

La física cuántica nos presenta un panorama extraño sobre el comportamiento de la naturaleza a escala atómica y subatómica. Por ejemplo, el famoso experimento de las dos ranuras lelvado a cabo por Davisson y Germer, del que parece deducirse que cada partícula puede interferir consigo misma, y pasar por las dos ranuras a la vez... O el principio de incertidumbre de Heisenberg, que formula la imposibilidad de medir simultáneamente la posición y la velocidad de una partícula.

"La física cuántica parecería socavar la idea de que la naturaleza está gobernada por leyes, pero no es así. En vez de eso, nos lleva a aceptar un nuevo tipo de determinismo: Dado el estado de un sistema en algún momento dado, las leyes de la naturaleza determinan las probabilidadesw de varios futuros y pasados, en lugar de determinar el futuro y el pasado con certidumbre". (72).

Estas probabilidades cuánticas revelan la estructura aleatoria de la realidad—por mucho que nuestra "realidad aparente" sea menos aleatoria. Lo subyacente pocos lo entendemos—nadie entiende la mecánica cuántica, dijo Feynman, supongo que incluyéndose a sí mismo.  Feynman sin embargo explicó cómo un mundo de apariencia newtoniana (o sea, "de andar por casa") puede surgir a partir de un universo regido por leyes cuánticas.

En el caso de la partícula que pasa por las dos ranuras, decía Feynman, lo que sucede es que las partículas siguen todos los trayectos, y los siguen simultáneamente:

"Suena a ciencia ficción, pero no lo es. Feynman formuló una expresión matemática (la suma de historias de Feynman) que refleja esta idea y que reproduce todas las leyes de la física cuántica. En la teoría de Feynman las matemáticas y la representación física son diferentes de la formulación original de la física cuántica, pero las predicciones son las mismas" (75).

En sustancia, aunque las partículas individuales tienen este comportamiento pongamos impredecible, "para los objetos grandes, las trayectorias muy similares a la trayectoria predicha por Newton tendrán fases similares y se sumarán para dar un resultado cuya contribución a la suma es la mayor con gran diferencia, así el único destino que tiene una probabilidad efectivamente mayor que cero es el destino predicho por la teoría newtoniana, y ese destino tiene una probabilidad que es casi de uno. De ahí que los objetos grandes se muevan igual que predice que lo van a hacer la teoría de Newton." (79).

Esto parece una manera razonable de reducir la mecánica newtoniana a mecánica cuántica. Lo que parece más dudoso (y contradictorio) es la suposición continuada de que cualquier sistema es en principio igualmente azaroso, sea subatómico o no. Por ejemplo cuando se dice que

"Feynman mostró que, para un sistema general, la probabilidad de cualquier observación se construye de todas las historias posibles que podrían haber llevado a esa observación. Por eso su método se llama la formulación de 'suma de historias' o de 'historias alternativas' de la física cuántica" (80).scalestri

Insistamos sólo en que la observación de objetos grandes no es lo mismo que la de partículas subatómicas, y que por tanto la relevancia de esas historias alternativas es proporcionalmente menos relevante en un ámbito que en otro. Más confusión puede surgir si la noción de "pasado" definido en términos físicos, de física cuántica, se extiende indebidamente a la construcción del pasado en otros ámbitos o disciplinas—además de otras escalas. Por tanto, cuando Hawking/Mlodinow reescriben el pasado newtoniano, habría que ser muy prudentes y no extenderlo indebidamente del modo que decimos:

"Esta idea [las historias alternativas de Feynman] tiene importantes implicaciones para nuestro concepto del 'pasado' En teoría newtoniana, se presupone que el pasado existe como una serie definida de acontecimientos. (...) La física cuántica nos dice que por muy exhaustiva que sea nuestra observación del presente, el pasado (no observado), como el futuro, es indefinido, y existe sólo como un espectro de posibilidades. El universo, según la física cuántica, no tiene un único pasado, o una única historia" (82)

"En este capítulo hemos ilustrado la física cuántica empleando el experimento de la doble ranura. En lo que sigue aplicaremos la formulación de Feynman de la mecánica cuántica al universo en su conjunto. Veremos que, como una partícula, el universo no tiene una única historia, sino todas las historias posibles, cada una con su propia probabilidad; y nuestras observaciones de su estado actual afectan a su pasado y determinan las diferentes historias del universo, igual que las observaciones de las partículas en el experimento de la doble ranura afectan al pasado de las partículas. Ese análisis mostrará cómo las leyes de la naturaleza surgieron del Big Bang". (83)

Cada una con su propia probabilidad: la desigualdad de probabilidades es aquí crucial, y sus implicaciones podrían pasar desapercibidas en la formulación de Hawking/M, que peca un tanto de matematizar la cuestión en exceso (cosa no sorprendente, claro). El Universo no es un entorno subatómico, y no lo conocemos del mismo modo que a las partículas. Aquí el peligro sería pasar alegremente a presuponer que todos los universos imaginables—como en Star Maker de Stapledon—existen al mismo título, y al mismo tiempo, sólo que estamos en uno de ellos nada más—una biblioteca de Babel de tiempos diferentes e historias entrecruzadas. Mientras que la conclusión más correcta quizá sea la opuesta: que el pasado no existe (en el sentido el que existe el presente). La indeterminabilidad del nivel subatómico no implica, ni mucho menos, la existencia cierta de muchas líneas de pasado y futuro en la evolución del universo macroscópico—más bien muy al contrario. Para más detalles sobre la no existencia del pasado, y del futuro, encuentro conveniente remitir a la Filosofía del Presente de George Herbert Mead.  Puesto que el pasado no existe, habrá que construirlo, constantemente—pero ese pasado construido existe en tanto que operación cognitiva en unos agregados macroscópicos llamados cuerpos, seres vivos, humanos, etc.  Por supuesto reconstrucciones de ésas habrá muchas—incluso hechas por científicos, cuando se topan con la imposibilidad de determinar el nivel subatómico. Como se ve, es compleja la cuestión de a qué nivel y en qué medida existe el pasado, y en qué muchos sentidos puede decirse que es un espectro de posibilidades según a qué nivel de abstracción hagamos el corte. Y en una teoría física, cuántica o no, no cabe una epistemología, ni una hermenéutica. La cuestión del pasado no quedará otra solución que tratarla al nivel macroscópico o microscópico adecuado para cada circunstancia y necesidad.  O, lo que es lo mismo, con los instrumentos cognitivos apropiados para cada uno de los fenómenos emergentes que se dan a los distintos niveles de escala física.

A photo on Flickr

Nuestro espacio-tiempo, y el otro

El Gran Diseño y Hacedor de Estrellas (2): La ley de la ley

martes 14 de diciembre de 2010


El Gran Diseño y Hacedor de Estrellas (2): La ley de la ley


El Gran Diseño y Hacedor de Estrellas (1)
 


Notas y divagaciones sobre el capítulo 2 de Hawking y Mlodinow, The Grand Design. El progreso del conocimiento en la humanidad lo ligan Hawking y Mlodinow al descubrimiento de leyes y regularidades en la naturaleza—haciéndola predecible, y no sometida al capricho de entidades sobrenaturales. Según Aristóteles, fue hacia el siglo VI a.C

"cuando Tales de Mileto formuló por primera vez la idea de que el mundo se puede entender, de que los acontecimientos complejos que nos rodean podrían reducirse a principios más simples y explicarse sin recurrir a explicaciones míticas o teológicas" (18)
 


Es lo que algunos han llamado el sueño de Tales. Su desarrollo en la ciencia moderna daría lugar a los conceptos de reducción y de consilienciala reducción de todos los fenómenos al cálculo físico-matemático, y la consiliencia o convergencia de todas las disciplinas del saber, que habrían de resultar ser congruentes entre sí al predicar verdades compatibles entre sí y con la realidad del mundo.

Por los mismos años, Pitágoras o los pitagóricos formularon al parecer la primera ley física matematizada: la relación entre la armonía de los sonidos y la longitud de las cuerdas de los instrumentos musicales—"si fue así, se podría considerar esa simple fórmula matemática el primer caso de lo que ahora conocemos como la física teórica" (19). Y a Anaximandro, vecino de Tales, se debe la primera noción de la teoría de la evolución:

"razonó que ya que los bebés humanos no pueden valerse por sí mismos al nacer, si el primer humano hubiese aparecido en la tierra siendo un bebé no habría sobrevivido. En lo que puede haber sido el primer atisbo de la evolución, razonó Anaximandro que las personas deben haber evolucionado a partir de otros animales cuyos cachorros son más resistentes" (20)
 


A Demócrito debemos la primera teoría atómica. Por su parte, Aristarco hizo cálculos matemáticos sobre el tamaño relativo del Sol y la Tierra...  También descentró a la humanidad al aventurar que era la Tierra la que giraba alrededor del sol, y no al revés, y que las estrellas deben ser soles más lejanos. La idea de que el Universo no está centrado en la tierra y en el hombre no germinaría sin embargo hasta ser retomada muchos siglos más tarde, a partir de Galileo, con el desarrollo gradual de la nueva ciencia.

La física se desarrolló al desligarse los movimientos de los cuerpos de la noción de intención—y de las preconcepciones aristotélicas sobre el movimiento de los cuerpos—y cuando pasó a observarse y describirse el comportamiento de la naturaleza, sin más —el cómo, no el por qué. Durante toda la Edad Media, el cristianismo fue hostil a la idea de un universo gobernado por leyes inflexibles. En 1277 el obispo de París publicó una lista de 219 errores o herejías, y una de ellas era la idea de que la Naturaleza sigue leyes, pues eso entraría en conflicto con la omnipotencia de Dios.
beatific vision La concepción moderna de leyes de la naturaleza la formuló Descartes—para quien las leyes son inalterables porque son un reflejo de la propia naturaleza de Dios.  (A esta concepción parece remontarse Hawking directamente en su libro anterior, Historia del Tiempo, cuando le daba fin diciendo que "conociendo las leyes de la naturaleza, conoceremos la mente de Dios). Sigue una interesante observación de Descartes sobre el concepto central de la nueva teoría de Hawking—descartando, por así decirlo, por anticipado, la teoría del multiverso:

"uno podría pensar que Dios todavía tendría la elección de crear diversos mundos diferentes, correspondiéndose cada uno de ellos con un conjunto diferente de condiciones iniciales, pero Descartes también negó esto. Fuese cual fuese la disposición de la materia al principio del universo, sostenía, con el paso del tiempo se desarrollaría un mundo idéntico al nuestro. Además, tenía la impresión Descartes que una vez Dios ponía el mundo en marcha, lo dejaba funcionar solo por completo" (27)
 


Vemos en Descartes un planteamiento verdaderamente favorable a una conjunción razonable de ciencia y religión—y de hecho, habría que argüir que la autonomía de las leyes del mundo ya estaba muy avanzada en el razonamiento escolástico, en la noción de las causas secundarias. De hecho, cada vez se va dejando menos sitio a Dios, en el sentido de una voluntad que pueda actuar al margen de las leyes naturales. Igual que callaron los oráculos clásicos al llegar el Cristianismo, fueron callando los milagros con el desarrollo del humanismo y de la ciencia—y la acción de Dios vino a identificarse, para Descartes o para Hawking, con las leyes de la Naturaleza, o con el diseño (por usar este término al cual ninguno de los dos le hace ascos) que las ajusta y las hace ser lo que son.

Muy distinto es el Hacedor de Estrellas concebido por Olaf Stapledon—pues éste sí se dedica a hacer un mundo tras otro, unos más perfectos, otros más simples, más complejos.... según diferentes leyes. Volveremos a este Hacedor más adelante. Hay que señalar que en la concepción dominante del mundo a lo largo del pensamiento occidental, tanto mítica como cristiana como científica, el mundo es uno y tiene una sola historia. Es lo que llamábamos la concepción lineal del mundo, que podría contraponerse a las concepciones ergódicas o multilineales que descarta René, y que proponen Stapledon, Feynman y Hawking-Mlodinow.

Dada la idea de un mundo gobernado por leyes, surgen tres preguntas (29): 1) ¿Cuál es el origen de las leyes?  2) ¿Hay excepciones (milagros)?  3) ¿Hay un único conjunto de leyes posibles?

Kepler, Galileo, Descartes y Newton identificaban a Dios como la encarnación de las leyes de la naturaleza, cosa que haría redundante la idea de un Dios reducido a ellas, o nos hace entrar en una regresión infinita (qué Dios detrás de Dios la trama empieza, etc.). Laplace fue el primero en declarar que Dios era una hipótesis inútil—eliminando los milagros y sentando el principio del determinismo absoluto de cuanto ocurre en el Universo. (Un determinismo hipotético o axiomático, claro, no aplicable al cálculo en detalle de fenómenos complejos, y por tanto un tanto metafísico). Hawking también se proclama determinista, pero también le pondré un pero:

"Este libro se enraíza en la noción de determinismo científico, que implica que la respuesta a la pregunta (2) es que no hay milagros ni excepciones a las leyes de la naturaleza. Sin embargo, volveremos a tratar en profundidad las preguntas uno y tres, las preguntas de cómo surgieron las leyes y si son las únicas leyes posibles." (34)
 


Pero un determinismo con múltiples mundos a su disposición deja en cierto sentido de serlo, pues la realidad ya no es inflexible sino que se desparrama en multitud de realidades alternativas.  Y, asimismo, habría que preguntarse cómo podría dejar de ser metafísica, también, la noción propuesta ahora por Hawking y Mlodinow y tantos otros, sobre estos múltiples universos. ¿Podría haber alguna prueba física para avalarla, o se trataría de un mero razonamiento matemático? ¿Son universos incomunicados excepto a través de la razón? Porque la existencia de otros mundos matemáticos vendría a ser una versión magnificada del Flatland de Abbott—una especulación consistente en sí, pero con menos puntos de contacto con nuestro mundo de los que allí tendría una esfera flotante. El "ajuste fino" de las leyes del universo para permitir la existencia de objetos, etc., es un problema intelectual al que es razonable buscar una explicación: pero resolverlo postulando infinitos mundos existentes.... en alguna realidad trascendental, a la que sólo se accede a través de la mente de un matemático, no parece ser la solución que pueda dejar a mucha gente satisfecha. Aparte de que solucionar el problema del ajuste fino de las leyes a base de añadir muchos mundos viene a ser como matar moscas a cañonazos. ¿Será que, al menos en este mundo, no hay otra manera de acabar con según qué moscas?

El orden natural y la complejidad: Paley, Lamarck, Vico, y el Génesis
 


Más sobre retroalimentación cerebral

martes 10 de agosto de 2010

Más sobre retroalimentación cerebral


En mayo nos pasaron por Psyart este post; comentaba Norman Holland que la idea de la retroalimentación cerebral está desarrollada (con vistas a sus consecuencias para la teoría literaria) en su libro Literature and the Brain.

 
feedback
Does the Brain Use the Scientific Method?


Our senses—sight, hearing, taste, touch, and smell—are bombarded with input from the ever-changing world around us. For centuries, philosophers and scientists have tried to make sense of just how our brains make sense of our environments. A neuroimaging study in the Feb. 24 issue of the Journal of Neuroscience by researchers at the Max Planck Institute in Germany suggests that our brain does so by a process similar to the scientific method.


The predictive brain


The idea of a 'little scientist' inside in our heads making and testing predictions is not a new one. It is at the crux of the mind/body problem—or the nature of the relationship between our mental and emotional processes and our brains—and has been hotly debated since Plato was on the lecture circuit.


"I've been studying how brains give rise to minds for over 50 years," says Stephen Grossberg, director of Boston University's Center for Adaptive Systems. "And part of examining the mind/body problem is understanding it in terms of the real-time adaptation of an individual's behavior to a changing world filled with unexpected events."


How are human beings able to suss out the environment around them so quickly and efficiently? One idea is that our brains are forming predictions from the top down. That is, we use data from our past experiences to help cull all the extraneous sensory data that is flowing in from the environment. Neuroanatomy seems to support this idea.


"Everywhere you look in the brain, almost every connection you see has one going in the other direction, too," says Moshe Bar, a neuroscientist at Harvard Medical School. "The more we thought about this anatomical set-up, the more it seemed like there must be some kind of feedback happening."

Arjen Alink, a researcher at the Max Planck Institute, thinks this feedback has everything to do with the brain actively making predictions about the environment—and then testing them against sensory input. "We believe that the brain actually constantly has some kind of expectation about what will happen next," says Alink. "Sensory input provides information about whether those predictions are correct."


Less activation for predictable stimuli


Alink and his colleagues decided to test this hypothesis by measuring brain activity in Area V1, the area of the occipital cortex linked to early pattern recognition.


"There was a previous finding that the brain has less activation when perceiving coherent motion, or lots of objects moving in a similar pattern, than when seeing random motion," says Alink. "This and other studies provided a context that if a stimulus is predictable the brain doesn't have to make as much as an effort to process it."

To see if this finding held at V1, the first stage of visual processing in the cortex, the researchers scanned study participants using fMRI while showing them visual images that moved in predictable and unpredictable manners. "If anticipation or prediction is a fundamental principle, then we should see reduced activation in V1 for a more predictable stimulus even at this early stage of processing."

And that is what the group found—suggesting that V1 processing is more efficient when the stimulus is predictable. But going further, the group also found a direct correlation between predictability and brain activation.
"

As the stimulus becomes less predictable, we'd expect the signal in the brain to increase. And as it becomes more and more predictable, the activation should systematically reduce," says Alink. "That's what we found. With the least predictable stimuli, we saw the highest response in V1. In the most predictable, the lowest. And in between the two, an intermediate level of activation. It seems that our brain works hard to hypothesize and then test what's going to happen next."


Prediction and mood


Bar says the finding is consistent with other work going on in the field. "More and more, you see the top-down facilitation of perception and action everywhere. Evolution has shaped our brains to be proactive and anticipate what is happening around us and what could happen later."

But he also argues that motivation is required to do this—and the brain's reward for making these continuous hypotheses about the outside world is a better mood. In a review published in the November 2009 issue of Trends in Cognitive Sciences, Bar suggests that the healthy brain is always generating predictions to help us minimize uncertainty, prepare future actions, and make the right decisions. An unhealthy brain, on the other hand, is unable to make these predictions, leading to more uncertainty and, ultimately, depressed mood.

"Imagine a population that can't generate predictions often enough. They live in a constant state of uncertainty and anxiety," says Bar. "Prolonged anxiety leads to mood-related mental disorders and depression."


He argues that depression leads to a chemical imbalance in the brain that prunes synaptic connections in the hippocampus, making it more difficult for the brain to generate predictions. Bar does acknowledge the hypothesis has a bit of a chicken/egg problem—does the brain stop predicting leading to the lack of those connections and then a lack of neurotransmitter release? Or does a lack of neurotransmitter lead to fewer connections and less predictions? But it is an area, he contends, that requires further study.


"The idea is that there are links between serotonin and associations that help the brain make predictions," he says. "And there may be promising treatments for depression that come out of this line of research."


Next steps


Alink cautions that his work is preliminary but promising. In future work, he hopes to look at predictions making use of other senses and investigate the role memory plays. Bar plans to focus his efforts on the relationships between predictions and mood disorders. Both agree there is plenty still to learn. But Grossberg is excited about all the possibilities'and future studies that may offer new insights to the age-old mind/body problem.


"This is where the revolution is. It's not about predicting in a stationary world where things don't change. That's classical, that's known. And it's not just about prediction," says Grossberg. "It's about how our brains can learn to make predictions about a world that's changing in unexpected ways. It's understanding how new fast learning and information processing can occur in response to a non-stationary world without destabilizing our current memories and knowledge."

_______________

Y en septiembre, también via PsyArt:

Speaker-listener neural coupling underlies successful communication.

Stephens GJ, Silbert LJ, Hasson U.

Joseph Henry Laboratories of Physics, Princeton University, Princeton, NJ 08544, USA.

Proc Natl Acad Sci U S A. 2010 Aug 10;107(32):14425-30. Epub 2010 Jul 26.
 
Abstract

Verbal communication is a joint activity; however, speech production and comprehension have primarily been analyzed as independent processes within the boundaries of individual brains. Here, we applied fMRI to record brain activity from both speakers and listeners during natural verbal communication. We used the speaker's spatiotemporal brain activity to model listeners' brain activity and found that the speaker's activity is spatially and temporally coupled with the listener's activity. This coupling vanishes when participants fail to communicate. Moreover, though on average the listener's brain activity mirrors the speaker's activity with a delay, we also find areas that exhibit predictive anticipatory responses. We connected the extent of neural coupling to a quantitative measure of story comprehension and find that the greater the anticipatory speaker-listener coupling, the greater the understanding. We argue that the observed alignment of production- and comprehension-based processes serves as a mechanism by which brains convey information.

PMID: 20660768 [PubMed - indexed for MEDLINE]

La neurolingüística parece así encontrar una manifestación neurológica de fenómenos bien conocidos y estudiados desde el punto de vista de otras disciplinas lingüísticas, como análisis del discurso o la hermenéutica. A este respecto, quizá venga bien recordar que los procesos interactivos de anticipación, retrospección y estructuración del sentido que Teun A. van Dijk y Walter Kintsch llaman top-down y bottom-up processing, en su libro Strategies of Discourse Comprehension, tienen unos análogos o precedentes muy interesantes, y normalmente ignorados por los discursivistas, en la lingüística hermenéutica de Schleiermacher. La teoría del círculo hermenéutico se abre, con estos últimos experimentos, a un desarrollo e interpretación neurolingüísticos.



 

Más consciencia