Cerebro, mente y conciencia en AMAZON
«Estas cosas matemáticas poseen una asombrosa neutralidad y comparten algo de las cosas sobrenaturales, inmortales, intelectuales, simples e indivisibles y de las cosas naturales, mortales, apreciables, compuestas y divisibles”.
John Dee
Introducción
Las necesidades prácticas suelen determinar el desarrollo de la tecnología. El censo nacional de EE. UU. de 1890 realizó una convocatoria para elegir el mejor sistema de manejo de los datos, que fué ganada por un joven ingeniero llamado Herman Hollerith, quien inventó una máquina que leía agujeros en unas tarjetas perforadas y en los cincuenta años siguientes logró transformarse en una serie de máquinas tabuladoras, que permitirían que la futura empresa de Hollerith se transformara en la International Business Machine (IBM), que representa en la actualidad un gran porcentaje de la industria informática.
 |
Máquina tabuladora de Herman Hollerith 1860 – 1929
|
Sin entrar en detalles adicionales sobre la interesante historia del desarrollo de la inteligencia artificial, sobre la cual Hans Moravec refiere al lector interesado a la obra de Brian Randell “The origins of digital computers: selected papers”, del mismo modo que Douglas Hofstadter quien hace pormenorizados comentarios de las principales fuentes en las referencias de su obra “Un eterno y grácil bucle”, nos referiremos como en la década de 1940 hasta bien entrados los cincuentas, en la fundación Josiah Macy se solían celebrar reuniones de intercambio científico a las que estaban invitados toda clase de profesionales, como ingenieros, fisiólogos, matemáticos, psicólogos y filósofos.
 |
El matemático Norbert Wiener
Crédito de imagen:
|
En muchas de estas renuniones el tema de discusión consistió sobre codificación digital y analógica, retroalimentación (feedback) positiva y negativa, teoría de los juegos, teoría de los tipos lógicos entre otros muchos temas.
Norbert Wiener, quien posteriormente fuera conocido como el padre de la cibernética, acuñó la expresión de “modelo cibernético” y algunos lo consideraron un mentor en cuanto a computadoras, teoría de la comunicación y lógica formal.
 |
Kenneth M Sayre
|
Kenneth M. Sayre (1971), de la universidad de Notre Dame en Indiana, refiere que el motivo que tuvo Wiener para acuñar el término de “cibernética” 1 fué proporcionar un término común que tratara con aplicaciones particulares de principios generales en la teoría de la comunicación y el control aplicado en áreas como ingeniería eléctrica, en neurología con los problemas de excitación e inhibición, en técnica de las computadoras, así como en los problemas de discriminación y aprendizaje en psicología.
Una de las recientes invenciones del hombre ha partido de un mayor descubrimiento de su funcionamiento mental. Tal invento es el ordenador, relativamente reciente compañero que puede imitar o ensombrecer algunas de nuestras actividades mentales o nuestra conducta, sin embargo, son innegables sus aportes a la ciencia neural cognoscitiva. Para comprender las analogías entre el cerebro y el ordenador es necesario modificar un poco nuestra forma de pensar, asumiendo que el compromiso del sistema nervioso como un sistema, porque el enfoque en las partes individuales no ofrece información sobre la totalidad.
Ordenadores y funcionamiento neural
¿Qué es un ordenador ? Un ordenador es un conjunto de circuitos de control, con capacidad de memoria, sujeto a determinadas leyes aritméticas que desempeña una función particular, que es construído desde un medio externo, y depende para su creación de un diseñador humano que en general es competente para mantener la forma general de la idea del ordenador pese al cambio de todas sus partes.
En todo este tiempo, las operaciones fundamentales del ordenador han sido las mismas, los principios de diseño y software creado para cierto hardware se pueden transformar con toda facilidad. Los sistemas de circuitos integrados permitieron posteriormente que un ordenador completo estuviera contenido en el tamaño de un chip.
¿Hasta que punto deberá avanzar la evolución de los ordenadores para que su función pueda aproximarse a la del intelecto humano ? Hans Moravec (1993) de la universidad Carnegie-Mellon, refiere que un ordenador que realice diez billones de operaciones por segundo es lo suficientemente potente para albergar una “mente” parecida a la humana, quedando la cuestión de cuanta memoria debe tener, en términos de capacidad de dígitos binarios (bits).
Por ejemplo, el ordenador Cray-2 llegó a realizar en 1985 un total de mil millones de instrucciones por segundo, almacenando hasta mil millones de palabras de memoria, capacidad compartida con otros ordenadores de una palabra de memoria por instrucción por segundo, con lo cual el ordenador “humano” (las comillas son de Moravec) necesitaría unos diez billones de palabras de memoria equivalentes a 1015bits. Y esta cifra es compatible con el funcionamiento del sistema nervioso, afirmación que Moravec sustenta de acuerdo a los estudios de Eric Kandell en el molusco Aplysia, en el que el aprendizaje se manifiesta en forma de cambios sinápticos de larga duración, cuando atribuye a cada sinapsis un valor de diez bits.
Si el método de almacenamiento es homologable con sistemas nerviosos grandes como el humano, entonces si se puede hablar de un ordenador “humano” con 1015dígitos binarios, al multiplicar por 10 las 1014 sinapsis aproximadas en el cerebro humano 2.
La importancia de las redes neurales
Los profesores de filosofía Paul Churchland y Patricia Smith de la universidad de San Diego en California, refieren al tratar sobre el pensamiento de las máquinas, que los modelos de la red neural permiten comprender que una arquitectura en paralelo proporciona un marcado aumento de velocidad de procesamiento de los vectores de entrada o pautas de excitación, cuando se compara frente al ordenador convencional.
La mayor velocidad depende de la multitud de sinapsis de cada nivel que simultáneamente ejecutan muchos pequeños cómputos en lugar de hacerlo en forma sucesiva. Y esta velocidad de procesamiento es independiente no solamente del número de unidades neurales que intervienen en cada estrato sino de la complejidad de la función que se ejecuta, con lo cual el tiempo de cómputo sería exactamente el mismo para una suma que para una ecuación diferencial, por citar un ejemplo.
Al proseguir con las comparaciones entre sistemas analógicos de procesamiento en paralelo frente a los digitales en procesamiento en serie, al comparar la tolerancia a fallos, los sistemas de redes son funcionalmente persistentes, lo cual significa que la pérdida de unas cuantas conexiones carece de efectos considerables sobre la transformación global de los vectores de entrada que realiza la porción funcional de red.
Y por último, los sistemas en paralelo pueden almacenar grandes cantidades de información codificada en las diferentes intensidades o “pesos” de las conexiones sinápticas que han sido modeladas por aprendizaje y entrenamiento previo de la red, que se distribuye de un modo tal que cualquiera de sus partes es accesible en un período de milisegundos.
La información relevante de la red se va liberando conforme el vector de entrada o pauta de excitación va pasando a través de esa configuración de conexiones. Sin embargo, el procesamiento en paralelo no resulta atractvo para todos los tipos de computación, el cerebro tiene mal rendimiento en tareas donde han de efectuarse cómputos recurrentemente de una forma rápida e iterada donde las máquinas de manipulación simbólica tienen un excelente desempeño. Pero este mal rendimiento cerebral en la computación aritmética, responsable de una proverbial frase en los humanos “es que no sirvo para las matemáticas”, tiene su contraparte en su plena funcionalidad en cómputos para los que la corteza cerebral es con mucho superior, siendo tales los complejos cómputos que han de afrontar los seres vivos: reconocer a un depredador, huír de este, distinguir el alimento de lo que no lo es, reconocer una pareja con la cual aparearse, navegar a través de los complejos entramados sociales, hasta llegar a las más complejas manifestaciones humanas como el humor, el conocimiento sobre la muerte, entre otros 3.
La lógica en función de los símbolos
No es mucho lo que se sabe del funcionamiento global humano, ni tampoco sobre el funcionamiento de un ordenador inteligente. Churchland & Smith (1994) refieren que si bien es efectivamente cierto que el cerebro computa funciones de gran complejidad, no lo hace a la manera de la inteligencia artificial clásica; cuando se intentan establecer paralelismos entre el cerebro y el ordenador y se afirma que “el cerebro es un ordenador” no se intenta contextualizar al cerebro como una máquina digital de procesamiento en serie con su concomitante de manipulación de símbolos obedeciendo a ciertas reglas.
A pesar de que con los ordenadores comenzaron los intentos de producir máquinas de “pensar”, lo cual permitió paralelamente un esclarecimiento sobre los mecanismos biológicos encargados de la manipulación de los pensamientos, mecanismos sobre los que el matemático Kurt Gödel reveló una distancia profundamente significativa entre el razonamiento humano y el razonamiento mecánico. Hofstadter refiere que el pensamiento,
“depende de la representación de la realidad en el hardware del cerebro (…) la significación (…) surge como resultado de un isomorfismo que hace corresponder a los símbolos tipográficos con números, operaciones y relaciones y las cadenas de símbolos tipográficos, con enunciados” 4.
y propone que en el cerebro no hay símbolos tipográficos, pero las neuronas como elementos activos, logran entremezclar las reglas con los propios símbolos, frente a su diferencia en el papel, donde los símbolos son entidades estáticas a merced de reglas activas en la mente.
Algunos conceptos
La existencia de subsistemas o complejos cerebrales activos de muy alto nivel (los símbolos) permite plantear un posible isomorfismo de tipo simbólico, al menos parcial entre dos cerebros, en cuanto una correspondencia que no solamente vincule los símbolos en cada uno de los cerebros, sino también los respectivos patrones de desencadenamiento. Ahora bien, ¿en qué consiste el isomorfismo? El isomorfismo consiste en la propiedad que tiene un símbolo de representar un concepto, con el cual está relacionado por medio de la interpretación 5. En el isomorfismo se dá una transformación que mantiene la información. La significación en los sistemas formales es producida por la mediación de isomorfismos, donde los símbolos representan isomórficamente los conceptos con los que están relacionados mediante la interpretación. Cuando se modifican las reglas que gobiernan el sistema formal, se altera el isomorfismo.
Se ha dicho que el isomorfismo consiste en la propiedad que tiene un símbolo de representar un concepto; ahora bien, los símbolos recogen un significado pasivo en el interior de los teoremas donde aparecen. Los teoremas no son las usuales proposiciones que afirman verdades demostrables sino que en un contexto de sistemas formales son solamente cadenas de símbolos susceptibles de tener muchas interpretaciones significativas que en lugar de ser demostrados, solo son producidos, y corresponde al observador la tarea de buscar dichas interpretaciones.
Lo cual significa que un teorema es entonces una cadena producible dentro de algún sistema formal y tal será la acepción es este capítulo, para no causar confusión al lector con la definición usual de teorema, arriba anotada.
Por su parte, el sistema formal es un concepto que fué creado por el lógico Emil Post que cuenta con un sistema de reglas para derivación de símbolos, que son denominadas reglas de producción o reglas de inferencia. En la medida que surgen cadenas de símbolos en el sistema formal, las interpretaciones sobre dicho sistema determinan si existe o no coherencia. ¿Qué es la coherencia? La coherencia depende de las interpretaciones que se asignen a dicho sistema formal. En un sistema formal, la coherencia vinculada a una interpretación, significa que todo teorema o cadena de símbolos al tener interpretación se convierte en una proposición verdadera. Y la incoherencia tiene lugar cuando aparece una proposición falsa entre los teoremas interpretados. Se presume que un sistema será internamente incoherente si contiene dos o más teoremas cuyas interpretaciones son incompatibles entre sí.
Miremos un ejemplo de teorema con “Jan Ken Pon”, las palabras japonesas para el juego “Piedra Tijera Papel” -siguiendo las ideas de Hofstadter- donde “x siempre le gana a y”:
- Piedra siempre le gana a tijera.
- Tijera siempre le gana a papel.
- Papel siempre le gana a piedra.
No son proposiciones incompatibles, aunque describen un círculo más bien extraño. A la luz del sistema formal, estas tres cadenas de teoremas tienen coherencia interna. La coherencia interna no requiere que todos los teoremas sean verdaderos, sino que tengan solamente compatibilidad entre sí.
Si se requiere una una interpretación del tipo “x fué originada por y”,
- Piedra fué originada por tijera.
- Tijera fué originada por papel.
- Papel fué originado por piedra.
A primera vista, las tres no pueden ser verdaderas al tiempo, porque al interpretarlas, el sistema se vuelve internamente incoherente, con lo cual la incoherencia interna depende de la relación o contexto entre piedra, tijera y papel. Cuando ya han sido asignadas interpretaciones a un número suficientemente amplio de símbolos, puede hacerse claro que no hay forma de interpretar al resto de forma que todos los teoremas resulten verdaderos, pero esto no se trata de una cuestión de verdad, sino de posibilidad. Los tres teoremas resultarían falsos si en el último ejemplo, piedra, tijera y papel fueran cambiados por nombres de personas.
Por su parte, Churchland y Smith (1994) refieren que aún es desconocida la forma en la cual el cerebro maneja los significados. El desarrollo de una teoría del significado implica un mayor conocimiento sobre como las neuronas codifican y transmiten las señales neurales, como existe y se procesa la base neuronal de la memoria, el aprendizaje y la emoción 6.
Analogías entre ordenador y cerebro: ¿nos ayudan a comprender mejor?
A pesar de las analogías existentes entre ordenador y cerebro sobre la perspectiva de las operaciones computables lo que conocemos como verdad no es en general una propiedad de esta índole de cosas. La tesis de Church, propuesta por el lógico español Alonzo Church, enuncia que toda función efectivamente computable, es computable por recurrencia. Con la primera parte de “efectivamente computable”, Church propone la existencia de un procedimiento de rutina -definido intuitivamente, no formalmente- que determina en un tiempo finito el egreso o salida de una función correspondiente a una determinada entrada o ingreso.
En cuanto a la computabilidad por recurrencia, Church específicamente quiere significar que existe un conjunto finito de operaciones aplicables a una entrada dada que al ser aplicadas una y otra vez a los sucesivos egresos que producen, generan la salida final en un tiempo finito. Trabajando complementariamente con el concepto de Church, Alan M. Turing logró demostrar que cualquier función computable por recurrencia puede ser computada en un tiempo finito por una máquina manipuladora de símbolos.
La denominada máquina universal de Turing, se halla guiada por un sistema de reglas recursivamente aplicables, sensibles a la identidad, orden y disposición de los símbolos elementales que ella encuentra con carácter de entradas 7.
El trabajo de Church y Turing
La tesis de Church y Turing es una hipótesis de trabajo en la que un ordenador típico provisto de un programa adecuado, de memoria suficiente y del tiempo necesario puede computar cualquier función gobernada por reglas, donde a una “entrada” le asocia una “salida” y puede ser aplicable a los procesos que emplea el cerebro humano8, cuando abarca los aspectos más accesibles y cuantificables del mundo en la que los seres humanos podemos ser entrenados para responder a la presencia o ausencia de diferentes propiedades cuantificables, aunque estos aspectos no correspondan a la verdad como una propiedad general en la misma forma en que por ejemplo propiedades numéricas como el ser un número primo, o racional, sí lo son. Algunos conjuntos de propiedades son tan solo enumerables, para describirlas se puede construír un procedimiento capaz de enumerar todas las cantidades que poseen la propiedad requerida (aunque se tendría que esperar un tiempo infinito); la mayoría de los sistemas lógicos son enumerables (por ejemplo, la serie de los números primos, siguiendo con el ejemplo), pero no la de ser computables; las restricciones impuestas por Church y Turing a través de sus teoremas delimitan las limitaciones y alcances de los sistemas lógicos; de tal modo que sin sus restricciones a la computabilidad, todas las propiedades del mundo serían computables.
Pero no toda característica del mundo es computable: por ejemplo, Barrow refiere que la propiedad de “ser una significación verdadera en un sistema matemático particular no es enumerable ni computable; se puede hacer aproximaciones a la verdad con grados de precisión cada vez mayores introduciendo cada vez más reglas de razonamiento, añadiendo suposiciones axiomáticas adicionales y generando series secuenciales de pasos lógicos, pero no podrán aproximarse a los atributos, que carecen de las propiedades de computabilidad y enumerabilidad 9. El mundo como lo conocemos no es computable, porque las características prospectivas del mundo, como belleza, simplicidad -por citar algunas- no pueden ser abarcadas por ninguna colección finita de reglas o leyes.
A diferencia del ordenador, las neuronas poseen un mecanismo único, relacionado con su propio crecimiento y construcción desde el interior del organismo, de acuerdo a unas leyes que han tomado duraciones geológicas para lograr la más adecuada adaptación del organismo a su ambiente externo e interno. Además poseen un mecanismo de intercambio básico, a saber la emisión de productos químicos que actúan como neurotransmisores, con los que afectan las membranas de otras neuronas, que impone una limitación al proceso de diseño del sistema nervioso. Es decir, no son posibles los cambios fundamentales básicos a menos que se modificaran muchas estructuras a la vez.
Es probable que las leyes de la organización y la estructura que se aplican a todas las criaturas celulares sean similarmente aplicables a la organización multicelular del cerebro humano. Es muy probable que estas leyes generales se apliquen por igual a una serie de células individuales conectadas, sean tales células neuronas del cerebro, o de un computador o una sociedad. Una totalidad lo es por cortesía de un concierto orquestado de una serie de partes. Y a su vez, forma parte de otra totalidad en otro sistema. De aquí surge el concepto de holón: una totalidad que forma parte de otra totalidad. Cuando empezamos a comprender tal organización -holoarquía- nos aproximamos a una comparación útil entre un cerebro y un ordenador, sin perder la óptica que contrariamente al cerebro humano, la máquina que trata con información es susceptible de ser regenerada, puede aprender en principio, a aprovecharse de sus errores.
Las leyes del razonamiento lógico
El cerebro funciona en muchos aspectos de la misma forma que un ordenador. Mientras el cerebro piensa y el ordenador calcula, ambas estructuras funcionan de acuerdo a las leyes del razonamiento lógico. Normalmente el computador/ordenador funciona de acuerdo a un código binario, cuyas respuestas corresponden a 0 o 1, del tipo «si» o «no», «verdadero» o «falso». Si bien el cerebro también funciona de un modo binario los cambios “si/no” son más complejos.
La aritmética y las matemáticas en general pueden ser reducidas a estos fundamentos y es posible que una buena parte de lo que se conoce como pensamiento pueda ser explicado en tales términos. El código binario es el principio subyacente a las clasificaciones, que son uno de los pasos preliminares en el conocimiento científico. Este particular modo de funcionamiento binario es la base del lenguaje; en el lenguaje se establecen comparaciones y se sacan deducciones, estableciendo un orden y una forma de ver el mundo de tipo binario/dualista. Y se comienza a advertir que el lenguaje perpetúa el estado de esta concepción de la concepción del mundo al explicar algo que no se puede asimilar.
Los pasos lógicos básicos que sustentan tanto a las matemáticas como al razonamiento son simples: se pueden considerar del tipo «Y» y «O». El paso «Y» codifica un razonamiento que dice «si a es verdadero y b es verdadero, entonces c es verdadero» El paso «O» codifica el razonamiento que dice «si a es verdadero o b es verdadero, entonces c es verdadero». Estas formas de razonamiento matemático pueden ser convertidas en circuitos eléctricos por medio de dispositivos llamados «compuertas». En el cerebro las compuertas son neuronas, en el ordenador las compuertas son diodos o transistores. Una compuerta está diseñada para dejar pasar electricidad cuando se cumplen determinadas condiciones. Cuando una compuerta es «Y», funciona de tal modo que si fluyen señales eléctricas simultáneamente por los cables de entrada a y b, habrá una respuesta eléctrica por la compuerta de salida c. Si la compuerta es de tipo «O», la llegada de un estímulo por el cable a o por el cable bcausará una respuesta eléctrica por la compuerta de salida c 10.
El pensamiento de tipo analógico funciona reuniendo premisas posibles sobre un objeto de estudio, crea listas de todas las relaciones constantes entre los múltiples aspectos de ese objeto y procura asimilarse en la máxima proporción posible a ese objeto para descubrir la gama de sus posibilidades futuras.
Influencia de la experiencia
La presencia de miles o millones de compuertas permiten, al ser conectadas, la realización del pensamiento y los razonamientos de la vida cotidiana. El tipo de instrucciones para conectar las compuertas de modo que respondan específicamente a cada problema en particular se hallan en la «banco de memoria» del ordenador, constituyendo el «programa». Un ordenador con una memoria muy amplia puede llegar a almacenar un conjunto tal de instrucciones que le permitan aprender por experiencia. Cuando se amplica la memoria del ordenador, aumenta la potencia medida en bits por segundo de información transmitida por transición. De acuerdo a la ecuación ya anotada de potencia de proceso de información equivalente a å – pi log 2 pi / å pi ti 11, cuando se aumenta la memoria del ordenador aumenta ligeramente su potencia porque la memoria supone tante sorpresa (o incertidumbre) como la operación que se va a realizar. Doblar la memoria equivale a que la potencia aumente en un bit por tiempo de instrucción 12.
El aprendizaje por experiencia requiere de una gran capacidad de memoria y sigue una secuencia que consta de los siguientes pasos:
- enfoque preliminar
- comparación de resultado obtenido con el deseado
- si se consiguió el objetivo, envío de instrucción a la memoria para que utilice el mismo enfoque la próxima vez.
- si no se consiguió el objetivo, búsqueda de razones o elaboración de cálculos para descubrir el origen del error.
- ajuste de los componentes erróneos en el programa para llevar el proceso a la forma de ejecución deseada.
En la medida que se modifiquen los razonamientos en el ordenador o en el cerebro, el desempeño mejorará gradualmente por la adquisición de experiencia, entendida como que un error cometido no se repetirá más. El principio de inteligencia común al cerebro y al ordenador requiere de una buena capacidad de memoria y una disposición que permita que las compuertas puedan ser cambiadas por la experiencia adquirida. Una de las diferencias entre el cerebro y el ordenador consiste en el número de cables de entrada, ya que cada compuerta puede tener hasta 100.000 cables de entrada. Durante el proceso de pensar innumerables compuertas se abren y cierran, haciendo que cada decisión sea el resultado de una compleja evaluación que implica el análisis de las entradas de datos de miles de compuertas. Esta una diferencia.
Otra diferencia sustancial es que las compuertas en los cerebros no funcionan de acuerdo al mecanismo «todo o nada». Qué complicado sería para el cerebro que en una compuerta de tipo «Y», que transmite señal cuando todas sus entradas le transmiten, tuviera un fallo en una sola de las entradas, y que esta entrada codificara una decisión de supervivencia. El cerebro se vería paralizado y obviamente, tal portador perecería. Afortunadamente la naturaleza diseñó los cerebros para que las compuertas trabajen con el principio de «CASI» en lugar de los pasos «Y» y «O». Las compuertas «CASI» hacen impreciso al pensamiento humano, pero le confieren rapidez. Si una compuerta de tipo «Y» hipotéticamente contuviera 50.000 entradas, las 50.000 deben ser verdaderas y transmitir impulso eléctrico antes de que la compuerta transmita un mensaje. Un cerebro con tan alto margen de seguridad sería muy lento y sus procesos de decisión se harían con demora. El principio «CASI» en una compuerta «Y» de 50.000 entradas le permitiría tomar una decisión por ejemplo, con la base de 5.000 o 10.000 premisas. La rapidez de las conexiones para tomar la decisión aumenta la probabilidad de error, pero es útil en la lucha por la supervivencia. El hecho de que nuestras mentes no sean muy exigentes respecto a su capacidad de reunir y procesar información significa que el cerebro realizará una compresión algorítmicasobre el mundo externo con independencia de lo que este sea, de una forma intrínsecamente comprensible.
Por otra parte, a un ordenador (o cualquier otro tipo de máquina en general) le es posible actuar sin advertirlo, cosa imposible para el ser humano. si bien pueden existir excepciones y habrá entonces algunas máquinas capaces de observaciones refinadas, puede conseguirse en general que las máquinas sean absolutamente no observadoras. Como ejemplo, basta citar que un automóvil no capta la noción que no es necesario estrellarse con otros vehículos o atropellar a los peatones cuando circule, por muy bien que dicho auto haya sido conducido, nunca aprenderá tal cosa 13.
Redes asociativas y la experiencia
Un esquema especial de conexiones, relacionado con el desarrollo de la teoría neural cognoscitiva, es el que tiene que ver con las redes asociativas. Las redes son undiagrama de conexión abstracto en el cual hay un conjunto de canales de entrada y un conjunto de canales de salida; cada canal de entrada está conectado con un canal de salida, pero la fuerza de las conexiones varía, y se ajusta de acuerdo a ciertas reglas bien definidas, de modo que las vías que se activen con frecuencia resulten reforzadas de alguna manera 14. Estas redes pueden servir para afinar un sistema que parcialmente ha sido conectado con precisión, o para ayudar a obtener una salida compleja cuando existe una entrada con algo frecuentemente asociado. Un ejemplo de esto ocurre cuando se ve el rostro de una persona, con lo cual también se recuerda el nombre.
Desde el punto de vista de circuitería, el sistema nervioso ofrece analogías con los ordenadores o computadores en que posee redes asociativas y entramados de precisión (Cf. Una teoría general del cerebro), en el que un canal de entrada no conecta directamente con los otros canales de entrada, lo cual evita repetición de funciones, entonces cuando se produce la representación de señales, estas no se relacionan entre sí, pero a medida que van pasando las señales de un mapa a otro, la representación original se va haciendo más difusa y más abstracta, de suerte que la señal es analizada en modos sucesivamente más complejos en asociación con las señales procedentes de otras entradas.
Tal situación ocurre por ejemplo, cuando un conjunto de señales procedentes del ojo y otras del oído no se relacionan entre sí inicialmente. Toda la circuitería del cerebro no está unida entre sí, porque si una neurona estuviera relacionada con todas y cada una de las demás neuronas, este sistema ocuparía mucho espacio, originando unadiseconomía de escala (Cf. teoría de la comunicación), con un enorme consumo energético. La homeóstasis de la red asociativa radica en que los diversos retículos permiten reflejar la estructura del mundo exterior e interior y nuestra relación con él: por ejemplo, el hipotálamo o cerebro visceral controla la homeostasis de los órganos internos, mientras que las cortezas de asociación se encargan de manejar información pertinente al mundo externo, elaborando información sensorial, como en las zonas de lenguaje. Cada red local está hecha para hacer en su entrada las operaciones particulares necesarias para extraer la información significativa, con lo cual las numerosas áreas funcionales del cerebro, las miles de conexiones de cada neurona empiezan a cobrar mayor sentido 15.
Con el paso del tiempo y la consolidación de la experiencia y el conocimiento como características que permiten la supervivencia, la velocidad de estas conexiones permite el paso del conocimiento a la sabiduría. Si bien en términos de velocidad los computadores operan en términos de nanosegundos y aún de picosegundos, cuando se afirma que el cerebro no opera tan rápidamente, tal punto es argumentable porque a nivel ultraestructural en las rejillas sinápticas ocurren fenómenos a nivel de resolución molecular que hacen aplicable la mecánica cuántica al entramado neuronal, como lo sugiere Eccles. (Cf. La interacción cerebro mente basada en la mecánica cuántica).
Conclusiones
En el proceso del pensamiento, las neuronas interactúan siguiendo múltiples rutas. Cada ruta tiene millones de posibles ramificaciones y mientras se hacen millones de asociaciones, se cancelan otras asociaciones en igual escala. Cuando se observan los registros de las ondas de actividad eléctrica de corteza cerebral en un EEG, se observa la sumatoria de ritmos individuales o de circuitos que interrogan a diferentes células, circulando y verificando que “todo está bien” 16. En ocasiones todas estas operaciones ocurrirán en pequeñas fracciones de tiempo; cuando este mecanismo se dispara por azar en la mente, entonces lo llamamos «iluminación» o intuición.
La calculadora electrónica ante una maqueta de un objeto funciona analógicamente, procurando analizar la totalidad de las características de ese objeto. Este tipo de funcionamiento de tipo analógico, en el cual la velocidad de comparación, de clasificación, de deducción que permite pre-decir la evolución de un fenómeno en el tiempo, es compatible con el funcionamiento de una estructura disipativa: el orden previo cambia debido a una complejización de las conexiones del sistema y se obtiene un resultado diferente al de la sumatoria de las partes participantes. De una forma semejante, el producto nuevo que en el cerebro equivale a un acto intuitivo, ocurre por el desequilibrio del sistema y la producción de un nuevo orden resultante. La velocidad de las conexiones permitió el acortamiento del tiempo, y se ha pasado del mero conocimiento a la sabiduría. Este modo de pensamiento analógico implica un nuevo modo de expresión, que suelen ser las matemáticas, en las cuales tienen cabida dimensiones no accesibles a la percepción sensorial ordinaria, y no dejan de tener el caracter del conocimiento científico, de racionalidad, experiencialidad y universalidad. Así, el lenguaje matemático es la prueba de un universo que escapa a la percepción sensorial y al lenguaje ordinarios. La conciencia ha llegado a una expectativa mayor en cuanto a sus interpretaciones sobre el espacio exterior.
El ritmo de procesamiento de la información en el cerebro es relativamente lento cuando se le compara con una computadora, pero a diferencia de esta, la información se puede tratar en millones de canales paralelos; para que un robot se aproxime a la capacidad informativa de un humano, debe tener una potencia de ordenador de aproximadamente 1014 bits por segundo. En la complejidad de sus circuitos neuronales, en la red modular, el cerebro ajusta el número y la eficiencia de sus sinapsis para adaptar su operación a la experiencia. La superficie del cerebro presenta en promedio 15 millones de neuronas por cm2.
En las últimas generaciones de ordenadores, la densidad de componentes microelectrónicos se aproxima a la del córtex cerebral. Las máquinas que están altamente en paralelo, especialmente aquellas que cuentan con un flujo relativamente simple de instrucciones para controlar numerosas unidades de proceso, generan la incertidumbre o novedad en la información a partir de los datos en paralelo, no de las intrucciones 17, con lo cual la disposición de circuitería en paralelo es responsable de que la entropía o cantidad estadísticamente promedio de información de un suceso nuevo tienda a ser mayor que cero, lo cual significa que el sistema está produciendo información novedosa.
Referencias
- Viene del griego kibernetes y traduce timonel.
- & Moravec H : El hombre mecánico. El futuro de la robótica y la inteligencia humana. Salvat Editores. Barcelona, 1993. pp. 70
- & Churchland PM, Smith-Churchland P: ¿Podría pensar una máquina? En: Psicología fisiológica. Monografía de Libros de Investigación y Ciencia. Prensa Científica, Barcelona. 1994. pp. 151,152
- & Hofstadter DR: Gödel, Escher, Bach. Un eterno y grácil bucle. Tusquets Editores, Barcelona, 1998. pp. 75
- & Hofstadter DR: Gödel, Escher, Bach. Un eterno y grácil bucle. Tusquets Editores, Barcelona, 1998. pp. 99
- & Churchland PM, Smith-Churchland P: ¿Podría pensar una máquina? En: Psicología fisiológica. Monografía de Libros de Investigación y Ciencia. Prensa Científica, Barcelona. 1994. pp. 153
- & Churchland PM, Smith-Churchland P: ¿Podría pensar una máquina? En: Psicología fisiológica. Monografía de Libros de Investigación y Ciencia. Prensa Científica, Barcelona. 1994. pp. 147
- De acuerdo a Hofstadter, la tesis de Church y Turing propone que al suponer que existe un método habitual seguido por un ser consciente. Si se supone igualmente que este método, produce siempre una respuesta dentro de un lapso finito y que siempre dá la misma respuesta con respecto a un número determinado. Luego, existe alguna función recursiva general que proporciona exactamente las mismas respuestas que proporciona el método del ser consciente. En: & Hofstadter DR: Gödel, Escher, Bach. Un eterno y grácil bucle. Tusquets Editores, Barcelona, 1998. pp. 624
- & Barrow JD: Teorías del Todo. Hacia una Explicación fundamental del Universo. Crítica, Barcelona 1994. pp. 234
- & Jastrow, R: El telar Mágico. Biblioteca Científica Salvat. Barcelona, 1986. pp. 70
- En esta ecuación la potencia de la información por transición equivale a la sumatoria de la multiplicación de la información que se comunica en una transición a cada uno de los estados siguientes por la probabilidad de pasar a ese estado, dividida por la sumatoria de las probabilidades de los estados de transición i-ésimos multiplicada por los tiempos de transicióni-ésimos. Cf. La información y el cerebro.
- & Moravec H : El hombre mecánico. El futuro de la robótica y la inteligencia humana. Salvat Editores. Barcelona, 1993. pp. 204
- & Hofstadter DR: Gödel, Escher, Bach. Un eterno y grácil bucle. Tusquets Editores, Barcelona, 1998. pp. 42
- & Crick FHC: Reflexiones en Torno al Cerebro. En: El Cerebro Monografía de Libros de Investigación y Ciencia. 3ª Ed. Edit. Labor, Barcelona. 1983 pp. 227
- & Crick FHC: Reflexiones en Torno al Cerebro. En: El Cerebro Monografía de Libros de Investigación y Ciencia. 3ª Ed. Edit. Labor, Barcelona. 1983 pp. 227-228
- & Buzan T, Dixon T: The Evolving Brain. David & Charles. London. pp. 105
- & Moravec H : El hombre mecánico. El futuro de la robótica y la inteligencia humana. Salvat Editores. Barcelona, 1993. pp. 204
Comments
Comments are moderated, and will not be visible until one of the authors of this knol approves.