10. La información y el cerebro


10. La información y el cerebro

Cada bit de información que accede al cerebro en forma por ejemplo de sensación, recuerdo o pensamiento, se puede representar como una esfera central de la cual irradian muchos enlaces. Cada eslabón representa una asociación, con su infinita red de vínculos y conexiones, donde el número de asociaciones usadas se puede considerar de alguna forma como la base de datos personal.


Cerebro, mente y conciencia en AMAZON

La información y el cerebro

 “No hay nada permanente excepto el cambio”
Heráclito de Efeso 

    Cada vez que el cerebro percibe el sonido de una sinfonía, está con un ser querido, contempla un apuesta de sol, o evoca un recuerdo, está manejando información. Cada bit de información que accede al cerebro en forma por ejemplo de sensación, recuerdo o pensamiento, se puede representar como una esfera central de la cual irradian muchos enlaces. Cada eslabón representa una asociación, con su infinita red de vínculos y conexiones, donde el número de asociaciones usadas se puede considerar de alguna forma como la base de datos o biblioteca personal.

El manejo de la información por el cerebro es un tema de tal vastedad, debido a la complejidad de las interacciones inherentes al proceso total de la comunicación. La teoría de la información fué desarrollada por Claude Elwood Shannon datando de 1948, año en que publicó “La teoría matemática de la comunicación“.
Claude Elwood Shannon
1916 – 2001
Esta teoría concierne a la ciencia de los mensajes, cuyo objetivo es la formulación numérica de las leyes que rigen la generación, transmisión y recepción de información en general, y busca determinar la relación entre la capacidad de canal de un sistema de comunicación y la transmisión confiable de mensajes a través del canal.
En la teoría de Shannon la información se refiere a la probabilidad o la incertidumbre de un símbolo o de un conjunto de símbolos y no a su significado 1; una de sus ideas clave es que el contenido informativo de un mensaje aumenta a medida que su probabilidad decrece. Una serie de mensajes tiene un máximo contenido de información cuando su nivel de novedad y sorpresa es máximo 2.
    El concepto de información proporciona una medida puramente cuantitativa de las transacciones de comunicación, haciendo abstracción completa de los intereses y significados de los agentes involucrados. En la teoría de la información no es relevante si el remitente y el receptor usan un lenguaje con significado semántico. La información puede ser semántica o no semántica, pudiendo referirse a las frases de un lenguaje natural.
    La información y la comunicación designan el estado de un mensaje y son un campo de investigación multidisciplinario para las disciplinas de matemáticas aplicadas, física, neurobiología, ciencia computacional, teoría de la información y sistemas de control paralelo.
    Las redes neurales pueden usarse para propósitos de clasificación con base en entradas/salidas pudiendo usar ítems de clasificación basados en comparación. Adicionalmente, en las redes neurales los algoritmos permiten la comprensión de funciones mentales tales como el lenguaje, reconocimiento de imágenes, redes de procesamiento de información, y los algoritmos rápidos comprenden el llamado “gradiente conjugado” y el llamado “algoritmo quasinewtoniano”.
La interpretación de la información tiene sus concomitantes en el lenguaje ordinario, pues al oír una frase repetitivamente, así sea significativa, no elimina incertidumbre y deja de transmitir información, su probabilidad de transmisión de información está cerca de 1, es decir, del máximo.
    De acuerdo a Frederic Crosson y Kenneth Sayre del Instituto Filosófico para la Inteligencia Artificial de la Universidad Notre-Dame, en Indiana, sobre cuyos conceptos se basan las siguientes líneas, es posible cuantificar la información en término de la incertidumbre que eliminan los mensajes, para lo cual es necesaria una unidad de medida en la forma de una formulación matemática, la cual es el logaritmo de base 2 (log2 N) de elecciones de N mensajes o estados posibles.

Bits y cerebro

    La unidad de información es la cantidad transmitida por un mensaje que es solo uno entre dos mensajes igualmente posibles, que se pueden contestar 1 o 0, si o no. Esta unidad de información si/no-1/0 equivale a un dígito binario o bit. Siempre que un número de elecciones de mensaje se disminuya a la mitad, se produce un bit de información. Si se expresa la incertidumbre I de un símbolo como I(s), al haber por ejemplo dos elecciones (si o no), la probabilidad de cada uno es de ½. Si se acepta que p es la probabilidad de algún símbolo o mensaje, entonces la información del símbolo proporciona: 

1. I(s) = log21/p(s)  dígitos binarios de información, que desarrollando la ecuación suministran:

        2. I(s) = -log p(s).  de información sobre el símbolo s.
Lo anterior significa que sí existe una probabilidad que una máquina o un sistema dados se modifiquen a cierto estado, cuando lo hacen comunican -logp(s) o -logpbits o dígitos binarios de información.
    Si la probabilidad fuera de ½, la transición solamente comunicaría un bit de información. En el caso de que la probabilidad fuera de ½n, entonces comunicaría nbits. Una de 1/1.000 proporciona unos 10 bits de información.
La información media que comunica una transición se calcula multiplicando la información que se comunica en una transición a cada uno de los posibles estados siguientes por la probabilidad de pasar después a ese estado, y después hacer la suma de todas las posibilidades que existen, como se muestra en la ecuación 3.

                                                                         N

3. Información por transición = å – pi log pi bits

                                                                       i=1
Donde N es el número de estados posibles, y pi  es la probabilidad de que el siguiente estado sea el i-ésimo. Obsérvese que “bits” ha reemplazado al símbolo (s), pero son intercambiables.
    El valor calculado de una transición dada puede ser distinto para distintos observadores, ya que cada uno asignará diferentes probabilidades a los resultados. La información sobre un conjunto de bits o un símbolo (s) dado alcanza un valor de log2N para un observador totalmente ignorante (lo cual significa que la información es novedosa para él), mientras que para un observador informado pi = 0, con lo cual la información nueva que el recibe es igual a cero.
    Dicho de otra manera, los cálculos de una máquina o un sistema solo resultan útiles cuando no se conocen todas las respuestas de antemano 3.

La llamada potencia de proceso de información total de un sistema se mide dividiendo la transición de la información por el tiempo medio que requiere una transición, que viene definido en la siguiente fórmula :

4. Potencia = å – pi log pi / å pti 4 
Las unidades de potencia de capacidad de información son bits por segundo. 

La ocurrencia de un acontecimiento y proporciona una cantidad de información sobre un acontecimiento x, de acuerdo a la ecuación:

5. (x;y) = -log2 (x/y) / (x). 
Donde (x/y) es la probabilidad de ocurrencia de “x” después de haber visto la ocurrencia de “y”. Se considera que “x” es una certeza cuando (x/y) = 1.

La cantidad promedio de información proporcionada por un acontecimiento y sobre un acontecimiento x viene dado por la fórmula 5 :

                              n

6. I(x;y) = å   p (xi /y) I(xi;y)

                            i=1 
En esta fórmula, x es un acontecimiento que tiene una distribución (xi), independientemente de los acontecimientos seleccionados. La probabilidad de que se reciba cualquier cantidad de información en término de un conjunto de símbolos (s) que resuelven la incertidumbre I (si) se expresa como:

        7. (si) I (si). 
La cantidad promedio de información del conjunto de símbolos es la sumatoria de cada probabilidad particular. Esta cantidad es el núcleo de la teoría de la información y recibe también el nombre de “cantidad promedio de información por símbolo”, simbolizado por “H” (o entropía) 6, que equivale a:

8. H(S) = å p (si) 

I(si) = å P(si) log2 1/p (Si) bits

                   
Si el símbolo (S) es probable, H(S) será la probabilidad de cualquiera de ellos. Si no son probables, H(S) -la incertidumbre de S– equivale a la cantidad estadísticamente promedio de información de un suceso nuevo. En el cerebro, la acentuación de la novedad y la diversidad de categorías de determinación, hacen avanzar el pensamiento más allá de los marcos del determinismo clásico.
De modo que cuando el cerebro maneja información nueva y maneja una cantidad promedio de información por símbolos mayor que cero, tiene un manejo probabilístico o estocástico de la información, que de paso lleva implícito el hecho de que la realidad es compleja, que los procesos reales son dependientes entre sí 7.
La entropía es la incertidumbre promedio para cada símbolo de mensaje de un conjunto indefinidamente grande de mensajes. Si la incertidumbre/entropía es cero, esto equivale por ejemplo a saber cual será la próxima palabra de un interlocutor y que éste no produce información para su oyente.
    Suele suceder que existen sistemas en las cuales las probabilidades de los símbolos producidos no son fijas e independientes (como por ejemplo, en el lanzamiento de una moneda, donde para cada lanzamiento puede ocurrir cara o cruz con probabilidad de 0.5), sino que son más bien función de los símbolos previamente emitidos, con lo cual surge una probabilidad condicional, proceso conocido como cadenas Markoff, en donde la probabilidad condicional se expresa:
9.  P (s/sj1 , sj2 sj3 sj4, ….. sjm ) 
donde los símbolos sj1 , sj2 son llamados “estado de sistema”.
En la medida que un símbolo influya sobre los sucesivos, equivale a que disminuye la cantidad promedio de información por símbolo. En términos de comunicación, el receptor preverá sj y se sorprenderá menos por su ocurrencia, siendo menos informado por sj.
Al retomar la ecuación 6, se ha demostrado que I (incertidumbre) (x;y) ³ 0, esta desigualdad es compatible con la existencia de cierta capacidad de información que se conserva en cada acontecimiento, teniendo en cuenta que existe una relación inversa entre información y significado, en la que de acuerdo a MR Cohen, citado por Crosson y Sayre, “el significado está asociado con algo, o indica algo, o se refiere a algo más allá de sí mismo de tal modo que su naturaleza entera señale a esta asociación y se revele en ella”.

En relación a la distinción de niveles en el mensaje y el contexto, el antropólogo Gregory Bateson -citado por Bebchuk- refiere que:
“en toda cultura los participantes no solamente se comunican los contenidos, sino también las instrucciones acerca de la forma de interpretar el mensaje… todo mensaje en tránsito posee dos tipos de significados. Por un lado el mensaje es un enunciado o un informe sobre hechos de un momento anterior; por otro lado, es una orden -una causa o estímulo para los sucesos de movimientos posteriores”8.
Por lo cual al primer significado se le conoce como nivel de contenido, y al segundo como nivel de instrucción. El nivel de contenido se refiere a todo aquello que puede ser comunicado independientemente del tipo de mensaje que sea; por su parte, el nivel de instrucción define la forma en que debe entenderse el mensaje: “esto debe entenderse como broma, rivalidad, decepción, etc”.
    La estructura de niveles en los mensajes hace posibles las ambigüedades, confusiones y paradojas; y por supuesto, el humor, cuando los mensajes se intercambian, se crea un contexto y es dentro de este mismo contexto que los mensajes o símbolos adquieren significado. Un mensaje puede significar A o no A, dependiendo del contexto en que circule.
    Autores como el neurobiólogo y filósofo Frederick HC Crick plantean que la teoría de la comunicación es conjeturalmente uno de los instrumentos teóricos apropiados para abordar el complejo tema de como el cerebro maneja la información, engendrada en las diez mil a cien mil millones de neuronas y su astronómica cifra de conexiones que comprende cifras de 1027 ceros. Esta cifra es sobrecogedora, permite una capacidad de combinaciones correspondientes al factorial de 1027, equivalente a algo así como un uno seguido de 10.5 millones de ceros.
    Por estos cálculos, el profesor Petr Kouzmich Anojin de la universidad de Moscú afirmó en 1973 -citado por Buzan & Buzan- que “no existe el ser humano que sea capaz de utilizar todo el potencial de su cerebro. Por eso no aceptamos ninguna estimación pesimista de los límites del cerebro humano. ¡Este es ilimitado!” 9.

Referencias

 
  1. Crosson F, Sayre K: Filosofía y cibernética. 1ª Reimpresión. Fondo de Cultura Económica, México DF, 1982 pp. 37
  2. Moravec H : El hombre mecánico. El futuro de la robótica y la inteligencia humana. Salvat Editores. Barcelona, 1993. pp. 73
  3. Moravec H : El hombre mecánico. El futuro de la robótica y la inteligencia humana. Salvat Editores. Barcelona, 1993. pp. 202
  4. En esta ecuación la potencia de la información por transición equivale a la sumatoria de la multiplicación de la información que se comunica en una transición a cada uno de los estados siguientes por la probabilidad de pasar a ese estado, dividida por la sumatoria de las probabilidades de los estados de transición  i-ésimos multiplicada por los tiempos de transicióni-ésimos.
  5. Crosson F, Sayre K: Filosofía y cibernética. 1ª Reimpresión. Fondo de Cultura Económica, México DF, 1982 pp. 41
  6. Este símbolo H denota también entropía. La “cantidad promedio de la información por símbolo” equivale a la denominada “entropía de la fuente”, y su formulación es semejante a la de la entropía en termodinámica. Crosson F, Sayre K: Filosofía y cibernética. 1ª Reimpresión. Fondo de Cultura Económica, México DF, 1982 pp. 80
  7. Rojas C: El problema de la causalidad en la epistemología de Mario Bunge. Tesis doctoral – Pontificia Universidad Javeriana, Facultad de Filosofía y Letras. Bogotá, Junio 1980. pp. 62, 62, 103
  8. Bebchuk J: La conversación terapéutica. Emociones y significados. Editorial Planeta. Buenos Aires, 1994 pp. 87
  9. Buzan T, Buzan B: El libro de los mapas mentales. Urano. Versión española. Barcelona, 1996. pp. 39

Comments

Comments are moderated, and will not be visible until one of the authors of this knol approves.

Edit this knol
Write a knol
Set display language:Spanish – español

Alejandro Melo-Florián

Writer, Internal Medicine specialist. Bogotá D.C -Colombia
Colombia
Your rating:

Loved it
All Rights Reserved.
Version: 16

Versions

Last edited: Oct 8, 2011 8:48 PM.

Activity for this knol

This week:

13pageviews

Totals:

1743pageviews

Flag inappropriate content

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

A %d blogueros les gusta esto: