Más fragmentos del debate sobre libertad, intencionalidad y naturalismo
en Dialéctica y Analogía (en cursiva,
frases de Juan Antonio Negrete).
.
Es obvio que las descripciones a
nivel mental tienen una peculiaridad (como todo: todo es peculiar en algún
sentido): la intencionalidad, que tú bien has señalado. Pero ten en cuenta que
la intencionalidad consiste en que ciertos hechos o estados (mentales o del
tipo que sea) TIENEN CONTENIDO SEMÁNTICO (obviamente, la solidez del hielo no
lo tiene). El contenido semántico son PROPOSICIONES: el contenido de mi
pensamiento "está lloviendo" es la proposición que dice que está lloviendo.
Esto es importante porque, si lo que queremos explicar es la relación entre lo
mental y lo físico, lo que hay que explicar es lo mental, NO NECESARIAMENTE SU
CONTENIDO SEMÁNTICO. Fíjate que entre ACTOS DE PENSAR no se dan relaciones
lógicas: las relaciones lógicas se dan entre las proposiciones que son el
contenido de esos actos de pensar. Por lo tanto, para explicar la relación
entre los actos mentales de pensar y la actividad neuronal NO HACE FALTA
SUPONER QUE ENTRE UNAS ACTIVIDADES NEURONALES Y OTRAS SE DEN RELACIONES DE
CONSECUENCIA LÓGICA (p.ej.), pues entre los actos mentales TAMPOCO se dan esas
relaciones (de "Fulano cree que X es mayor que Y y "Fulano cree que Y
es mayor que Z" NO SE SIGUE LÓGICAMENTE "Fulano cree que X es mayor
que Z").
Lo que hay que explicar es, más
bien, cómo es posible que ciertas actividades (mentales, neuronales,
electrónicas o lo que sea) sean de tal manera QUE PUEDAN TENER CONTENIDO
SEMÁNTICO. (Fíjate, p.ej., que los lagartos tienen seguramente estados mentales
conscientes -no autoconscientes-, pero no por eso esos estados tienen contenido
semántico, como muchos de los nuestros; luego tampoco es inmediata la identidad
mente= intencionalidad; puede haber
mente sin intencionalidad, y seguramente, también intencionalidad -o sea,
contenidos semánticos- sin mente).
(…)
Las relaciones LÓGICAS que se dan entre las proposiciones PENSADAS no
se dan entre los ACTOS DE PENSARLAS. De "creo que X" y "creo
que X implica Y" no se sigue lógicamente "creo que Y". Esto
significa que el paso de unos PENSAMIENTOS a otros no puede ser explicado
MERAMENTE como resultado de las relaciones lógicas que se dan entre las
proposiciones pensadas en ellos. Es decir, por mucho que te empeñes en decir
que la descripción neurológica del cerebro no explica por qué (digamos) los
teoremas matemáticos son así o asá (lo que admitiré por mor del argumento), en
realidad sucede exactamente lo mismo con la descripción MENTAL o
"intencional" (o sea, la descripción de lo que ocurre "en el
nivel mental"): tampoco ella explica por qué los teoremas matemáticos son
así o asá, ni seguramente por qué tenemos sobre ellos los pensamientos que
tenemos.
(…)
el problema que estoy señalando como importante: cómo “opera” la
intencionalidad en un mundo material
En cierto sentido, no
"opera". Si lo intencional es meramente una descripción A OTRO NIVEL
de los hechos que ocurren en el cerebro, lo que operan son ESOS HECHOS, no su
"descripción". Podremos descubrir regularidades entre unas
descripciones y otras, y eso es todo. Lo importante y difícil es, como digo,
más bien verlo en el otro sentido: ¿cómo se las apaña el cerebro para generar
la intencionalidad?
(…)
es falso que la mente necesite un material en que implementarse para
existir... la ciencia-natural solo trata de lo material
Bueno, yo estoy entendiendo por
"mente" en toda esta discusión los procesos CONSCIENTES, y estoy
asumiendo como conjetura más económica (epistemológica y ontológicamente) que
la consciencia es una propiedad superveniente de los sistemas que, DE MOMENTO,
sospechamos que la tienen (y que básicamente son los animales con sistema
nervioso central); dicho en bruto: "mente"
es lo que tiene aquella cosa a la que le puede doler algo. Supongo que, una
vez cogido el truquillo mediante el que los sistemas nerviosos centrales
consiguen que haya dolores, será factible construir un sistema a base de chips
o de gominolas, al que también le duelan algunas cosas (y si hace más cosas
mentales todavía, mucho mejor). Pero la idea misma de algo a lo que le duele
algo pero no está "hecho de nada" sencillamente me parece que está
bien como literatura mística, pero no veo ni la menor necesidad de admitirlo
como algo razonablemente posible ni mínimamente relevante para nuestro
conocimiento de la realidad.
.
las razones auténticas por las que aceptamos un teorema matemático es
la matemática misma, con sus criterios internos.
De nuevo olvidas la distinción
entre la actividad mental que consiste en pensar, y el contenido de esos
pensamientos. El hecho de que tú te des cuenta de ciertas RAZONES (p.ej, la
relación lógica entre las premisas y la conclusión) es seguramente parte de la
CAUSA de que tú aceptes el teorema, pero
la causa de que lo aceptes no son las RAZONES por las que lo aceptas, sino EL
HECHO DE QUE TE DAS CUENTA DE ESAS RAZONES.
.
Fíjate en que tú puedes estar
equivocado y aceptar algo a partir de una premisa falsa; p.ej., puedes leer una
placa en un edificio de Burgos, en la que pone "Baroja vivió aquí", y
creer por eso que Pío Baroja vivió en Burgos. Supón que la placa, sin que tú lo
sepas, la ha puesto un bromista, o que se refiere a otro Baroja distinto al que
tú crees. Obviamente, si la verdad es que Baroja no vivió nunca en Burgos, no
puedes decir que la razón por la que tú crees que Baroja vivió en Burgos es
porque vivió en esa casa que está en Burgos (pues él, por hipótesis, NO vivió
allí). Más bien: el hecho de que tú crees que Pío Baroja vivió en esa casa (lo
cual es falso), de que crees que esa casa está en Burgos (lo cual es
verdadero), y de que de tú piensas (correctamente) que "Pío Baroja vivió
en esa casa" y "esa casa está en Burgos" IMPLICAN LÓGICAMENTE (o
sea, es una RAZÓN lógicamente suficiente para) "Pío Baroja vivió en
Burgos", de todos esos hechos (más el hecho de que tu sistema nervioso
está estructurado de tal manera que te lleva a creer de manera natural las
consecuencias lógicas MÁS SENCILLAS de aquellas otras cosas que crees) se sigue
COMO CONSECUENCIA CAUSAL que también creerás que Pío Baroja vivió en Burgos.
Pero, insisto, en este caso, que Pío Baroja vivió en esa casa de Burgos no
puede ser la RAZÓN por la que Pío Baroja vivió en Burgos, porque obviamente
hemos supuesto que no vivió en esa casa.
.
En fin, en resumen, que no veo
qué motivos te llevan a no aceptar que entre los ACTOS DE CREER se dan
relaciones CAUSALES (como buenos procesos naturales que son), mientras que
entre las PROPOSICIONES creídas (o no creídas) se dan relaciones DE
CONSECUENCIA LÓGICA, pero no se dan relaciones causales entre proposiciones, ni
relaciones de consecuencia lógica entre actos mentales distintos.
"Lo que hay que explicar es, más bien, cómo es posible que ciertas actividades (mentales, neuronales, electrónicas o lo que sea) sean de tal manera QUE PUEDAN TENER CONTENIDO SEMÁNTICO."
ResponderEliminarEso es lo que hay que explicar y sospecho que la respuesta estará más cerca de "lo que sea". Cuanta más corteza cerebral tiene un bicho, más capaz de aprender conductas nuevas. Eso es lo que aporta la evolución cultural, las conductas nuevas. Era de esperar que en la carrera armamentística de la evolución biológica, prosperasen los bichos capaces de reproducirse muy deprisa y los que les sale un bulto capaz de ensayar respuestas a cualquier problema. El contenido semántico no está en las cartas. Está en el juego.
"los lagartos tienen seguramente estados mentales conscientes -no autoconscientes-, pero no por eso esos estados tienen contenido semántico como muchos de los nuestros"
Hasta aquí te sigo, profe.
"luego tampoco es inmediata la identidad mente= intencionalidad; puede haber mente sin intencionalidad, y seguramente, también intencionalidad -o sea, contenidos semánticos- sin mente)."
Aquí me pierdo. ¿Mente es actividad consciente?. Hay mentes que consisten, entre otras cosas, en contenidos semánticos. La mayoría de las mentes no tienen de eso. Vale. Pero, ¿intencionalidad es contenidos semánticos o eso solo es aplicable a las mentes autoconscientes?. Las bacterias, que no son conscientes, ¿no son agentes, seres intencionales?. Si restringimos el significado de intencionalidad a la nuestra, estructurada en contenidos semánticos, podría haber mente sin intencionalidad. Si añadimos que lo de las bacterias también es intencionalidad, parece que no es posible. Rodolfo Llinás está convencido de que la intencionalidad es celular. Somos seres intencionales porque nuestras células lo son. Pero sobre todo, ¿cómo va haber contendidos semánticos sin mente?. Los contenidos semánticos son un tipo de contenidos mentales. Si la palmamos todos, en los millones de toneladas de libros de las bibliotecas, no queda ni una frase.
Bueno, yo no sé mucho de esto, pero me parece que las células no son ni pueden ser seres intencionales. Seguramente en las células y en las bacterias, y también en los termostatos y en las máquinas hechas por el ser humano, podríamos hablar del nivel del diseño, entendido en términos de propósito, de función.
ResponderEliminarPero el nivel de la intencionalidad es más abstracto que eso: implica el software y la mente. O sea, cosas como la creencia, el pensamiento o la intención. Si decimos que un pájaro va a volar cuando empieza a mover las alas porque las alas están hechas para volar, estamos en el nivel del diseño. Si predecimos que un pájaro va a volar porque sabe que viene un gato y tiene miedo de que lo zampe, entonces estamos en el nivel intencional. No veo cómo se puede decir que las células o las bacterias son seres intencionales. Por lo que yo sé, la intencionalidad requiere un sistema nervioso y un cerebro más o menos desarrollado.
Tampoco entiendo bien cómo podría haber mente sin intencionalidad. Sobre todo si tenemos en cuenta la definición estándar de 'intencionalidad'. Por ejemplo, en la Enciclopedia Stanford de Filosofía se define así: "La intencionalidad es la capacidad de las mentes para representar cosas, propiedades o estados de cosas". O sea, en pocas palabras, la intencionalidad es la propiedad que tiene la mente de elaborar representaciones de la realidad. Esta propiedad la tienen los cerebros humanos y también los de los restantes mamíferos y animales superiores, y también seguramente los artrópodos y los moluscos. Pero no las esponjas, las bacterias, las setas o los vegetales. Porque la intencionalidad es una función de los cerebros.
O eso pienso yo, vamos.
.............. ¿cómo se las apaña el cerebro para generar la intencionalidad?
ResponderEliminar¿Qué tal pensar en la relación que se establece a partir de los datos semánticos y los procesos químicos asociados, impulsados por eso que se llama intencionalidad?
Masgüel, Pepito, Pulgano:
ResponderEliminarme temo que no es tan fácil: por un lado dices (Masgüel) que las bacterias ya poseen intencionalidad (aunque me temo que no en el sentido de que hablo en la entrada, luego vuelvo a ello), y por otro que es cuestión del tamaño de la masa cerebral... Respecto a lo de Pulgano, pues no entiendo a qué te refieres con los "datos semánticos", "procesos químicos asociados" e "impulso".
.
En el sentido en que estoy usando el término, "intencionalidad" no tiene nada que ver directamente con la TELEOLOGÍA, que ciertamente podemos atribuir a todos los seres vivos, no sólo a los que tienen mente. Pero es también algo más que la mera "capacidad de representar": se trata de que un sistema cognitivo sea capaz de tener estados CUYO "CONTENIDO" SEA UNA PROPOSICIÓN (o sea, que consistan en "actitudes proposicionales"), es decir, sistemas que puedan, p.ej., "pensar que...", "decir que...", etc.
.
Lo que estoy sugiriendo en una parte de la entrada es que las actitudes proposicionales NO TIENEN POR QUÉ SER NECESARIAMENTE "MENTALES", es decir, no veo problema en la posibilidad de que se desarrollen sistemas QUE NO POSEEN UNA MENTE, pero que son capaces de (p.ej.) "decir que...". De hecho, nuestros sistemas informáticos son tales sistemas: cuando los ordenadores de una empresa (p.ej., Telefónica) calculan lo que tienen que facturar a otra (p.ej., Repsol), y emiten la factura, esa factura "dice" algo con contenido de proposicional, aunque es posible que ninguna persona de esas compañías, ni del banco que procesa la factura, se fijen conscientemente en ella en ningún momento, sino que todo el proceso funcione de manera automática. Un sistema capaz de generar contenidos proposicionales sería, por tanto, un sistema capaz de generar y procesar una gramática para emitir y recibir mensajes, y reaccionar a ellos. No veo por qué el ser consciente (en el sentido de poseer una mente) tiene que ser necesario para tener esas otras capacidades.
Me refiero a que la intencionalidad, vista como el proceso que guía la voluntad de hacer algo, se mueve en el cerebro gracias a los procesos químicos-eléctricos que se dan entre las neuronas, y que tanto los procesos y la propia intencionalidad que los impulsa se nutren de los datos "semánticos" almacenados. En el caso de los ordenadores u otros mecanismos similares, los datos serían meramente descriptivos, sintácticos.
EliminarNo se si te vale la analogía.
"dices (Masgüel) que las bacterias ya poseen intencionalidad (aunque me temo que no en el sentido de que hablo en la entrada, luego vuelvo a ello), y por otro que es cuestión del tamaño de la masa cerebral."
ResponderEliminarEfectivamente no hablo de la intencionalidad en el sentido que tú le das (para variar). Pero no digo que la intencionalidad sea cuestión de tamaño de la masa cerebral. Estaba hablando de nuestro tipo de mente, poblada de contenidos semánticos. Y digo que no depende solo del tamaño de la masa cerebral sino, sobre todo, de las conductas que inventamos como respuesta a nuevos problemas. Lo adaptativo es haber desarrollado una corteza cerebral que puede ser usada para inventar, aprender y realizar tareas nuevas.
"las actitudes proposicionales NO TIENEN POR QUÉ SER NECESARIAMENTE "MENTALES", es decir, no veo problema en la posibilidad de que se desarrollen sistemas QUE NO POSEEN UNA MENTE, pero que son capaces de (p.ej.) "decir que...". "nuestros sistemas informáticos son tales sistemas: cuando los ordenadores de una empresa (p.ej., Telefónica) calculan lo que tienen que facturar a otra (p.ej., Repsol), y emiten la factura, esa factura "dice" algo con contenido de proposicional, aunque es posible que ninguna persona de esas compañías, ni del banco que procesa la factura, se fijen conscientemente en ella en ningún momento, sino que todo el proceso funcione de manera automática."
Si nadie escucha lo que ese dice ese sistema sin mente, no dice nada. El contenido semántico es una mente diciendo o entendiendo algo. Si un sistema funciona de forma automática, no hay contenido semántico. Hasta que no lees la factura de repsol, lo que tienes en la mano es un trozo de papel.
"Un sistema capaz de generar contenidos proposicionales sería, por tanto, un sistema capaz de generar y procesar una gramática para emitir y recibir mensajes, y reaccionar a ellos. No veo por qué el ser consciente (en el sentido de poseer una mente) tiene que ser necesario para tener esas otras capacidades."
Un sistema que no sea consciente podrá emitir y recibir señales que para otro sistema consciente son mensajes o contenidos proposicionales. Un sistema que no sea consciente no genera una gramática ni reacciona ante mensajes.
JESÚS:
ResponderEliminarPero es también algo más que la mera "capacidad de representar": se trata de que un sistema cognitivo sea capaz de tener estados CUYO "CONTENIDO" SEA UNA PROPOSICIÓN
Entiendo que el concepto de "representación" (mental) abarcaría las proposiciones (aunque no sólo éstas, también puede haber representaciones no proposicionales, por ejemplo sólo con imágenes). La representación sería una estructura portadora de información, es decir, es un objeto mental con propiedades semánticas (contenido, referente, condiciones de verdad, etc.). Así, las representaciones mentales no tienen por qué entenderse sólo en términos computacionales.
Es verdad que la intencionalidad es más que la capacidad de representar. En términos generales, la intencionalidad sería la propiedad que ciertos estados o procesos tienen de referirse a o apuntar hacia algo, a otras cosas (no sólo de "representarlas"), y que pueden ser evaluadas con respecto a propiedades como consistencia, verdad, propiedad o exactitud. Los estados intencionales (pensar, creer, lamentar, temer, etc.) serían relaciones con representaciones mentales: la intencionalidad de los primeros se explica en términos de las propiedades semánticas de las segundas. Por ejemplo, creer que Elvis está muerto es tener una relación apropiada con la representación mental cuyo contenido semántico es que 'Elvis está muerto'. El deseo de que Elvis esté muerto, el temor de que Elvis esté muerto, la pena de que Elvis esté muerto, etc., serían diferentes relaciones con la misma representación mental. Entiendo que la "intencionalidad" se refiere a estas relaciones: relaciones entre estados mentales y una representación con propiedades semánticas.
no veo problema en la posibilidad de que se desarrollen sistemas QUE NO POSEEN UNA MENTE, pero que son capaces de (p.ej.) "decir que...". De hecho, nuestros sistemas informáticos son tales sistemas:
El problema, una vez más, es el de la habitación china de Searle. Los ordenadores de Telefónica calculan lo que tienen que facturar y emiten la factura, pero las computaciones que manejan son exclusivamente sintácticas, no semánticas. Aquí está el problema: que la sintaxis sola no es suficiente para la semántica, y que los ordenadores digitales tienen, por definición, únicamente sintaxis. No podemos decir, por tanto, que los ordenadores sean capaces de generar contenidos proposicionales. En todo caso, esos contenidos serán proposicionales para una mente/cerebro que los lea y los entiende (como, por ejemplo, la mente del programador), pero para el ordenador carecerán por completo de sentido.
Un sistema capaz de generar contenidos proposicionales sería, por tanto, un sistema capaz de generar y procesar una gramática para emitir y recibir mensajes, y reaccionar a ellos.
Esto es lo mismo que decir que una persona sin pajolera idea de chino, si está dentro de una habitación en la que recibe mensajes en chino y, siguiendo un manual que le dice que si le dan una frase en chino tiene que devolver otra frase que el manual ya le da escrita, esa persona entiende el chino. Lo mismo hacen los ordenadores digitales: reciben inputs y emiten outputs de acuerdo a un programa de instrucciones interno, pero no entienden nada de lo que hacen. la actitud proposicional la pone el programador o el usuario, no el ordenador.
Masgüel
ResponderEliminarEl contenido semántico es una mente diciendo o entendiendo algo
Eso es lo que estoy poniendo en duda: "escuchar" algo es (entre otras cosas) recibir ciertos estímulos, procesarlos, y actuar en consecuencia. No veo por qué tiene que ser JUSTO una "mente" (es decir, el tipo de cosa generada por los cerebros para sentir dolor, emociones, percepciones, etc.) la que haga JUSTO las cosas que son necesarias para desarrollar una conducta GRAMATICAL. En nuestra biosfera coincide que ha sido así, pero no conozco un argumento general que demuestre que SÓLO puede ser así.
.
Es que desarrollar una conducta gramatical es establecer relaciones semánticas (recuerdo que esa fue mi primera epifanía filosófica). ¿Cómo pueden ser las relaciones semánticas otra cosa que contenidos de conciencia?.
ResponderEliminarPepito
ResponderEliminarcreer que Elvis está muerto es tener una relación apropiada con la representación mental cuyo contenido semántico es que 'Elvis está muerto'.
Exacto, sólo que lo que estoy cuestionando es por qué esa "representación" tiene que ser NECESARIAMENTE "mental".
.
las computaciones que manejan son exclusivamente sintácticas, no semánticas
No veo por qué. Pienso que sabemos lo suficientemente poco sobre "la naturaleza de la semántica" como para poder descartar que la consciencia sea un elemento "sustancialmente necesario" para que haya una semántica. Mi conjetura es que es el tipo de CONDUCTAS (es decir, las cosas que el sistema es capaz de HACER GRACIAS a esos contenidos) relevantes las que hacen que cierto estado del sistema pueda contar como "semántico"; el que se "implemente" a través de "estados conscientes" o a través de otra cosa, me parece menos relevante.
.
para el ordenador carecerán por completo de sentido.
si lo que quieres decir es que el ordenador NO TIENE EL ESTADO "MENTAL" DE "SER CONSCIENTE" DE ELLO, evidentemente. Lo que estoy poniendo en cuestión es que tener esos estados sea NECESARIO para que haya contenido semántico.
.
una persona sin pajolera idea de chino, si está dentro de una habitación en la que recibe mensajes en chino y, siguiendo un manual que le dice que si le dan una frase en chino tiene que devolver otra frase que el manual ya le da escrita, esa persona entiende el chino
La típica respuesta a Searle es que aquello que "entiende el chino" es el SISTEMA COMPLETO QUE GENERA LAS RESPUESTAS, no sólo el señor o señora que está leyendo el manual, sino el sistema formado por esa persona MÁS el manual (y todo aquello que fue necesario para producir el manual).
Igual que no hace falta que un cierto lóbulo de mi cerebro (QUE NO GENERE ESTADOS CONSCIENTES, PERO QUE SEA NECESARIO PARA LA ELABORACIÓN DE MIS RESPUESTAS) sea "consciente" de lo que está haciendo al yo escuchar y entender una frase, no veo por qué va a ser necesario, para que el sistema de conversación china de Searle "entienda" lo que está diciendo, que justo sea el SEÑOR el que tenga el estado consciente que consiste en "darse cuenta de que uno está entendiendo lo que le dicen".
.
Masgüel
ResponderEliminar¿Cómo pueden ser las relaciones semánticas otra cosa que contenidos de conciencia?.
¿Y por qué van a TENER que serlo? Es lo que no veo por ningún lado.
Porque una semántica sin sujeto no es semántica sino ontología.
ResponderEliminarLo siento, Masgüel, no sé qué quieres decir con eso
ResponderEliminarQuiero decir que si un sistema con lo que tú llamas conducta gramatical sin conciencia, no está relacionando símbolos o significados sino cosas. Los significados son un tipo de contenido de conciencia. Si un sistema no consciente generase conducta gramatical significaría que las relaciones semánticas son cosas.
ResponderEliminarJESÚS:
ResponderEliminarLa típica respuesta a Searle es que aquello que "entiende el chino" es el SISTEMA COMPLETO QUE GENERA LAS RESPUESTAS, no sólo el señor o señora que está leyendo el manual, sino el sistema formado por esa persona MÁS el manual (y todo aquello que fue necesario para producir el manual).
Y la respuesta de Searle a la crítica del sistema es suponer que el individuo internaliza todos los elementos del sistema, que memoriza las reglas y el manual y que hace todas las búsquedas y todas las demás operaciones dentro de su cabeza. Aun así, esa persona sigue sin entender el chino. Y el sistema tampoco lo entiende, porque no hay nada en el sistema que ya no esté dentro de la cabeza del tipo que se lo ha empollado todo. El sistema sería entonces una parte del sujeto, y si éste no entiende nada entonces el sistema tampoco.
Además, la respuesta del sistema tiene la consecuencia un tanto ilógica de que la mente está en todas partes. Por ejemplo, habría un nivel de descripción en el que hasta mi estómago y mis riñones procesan información, y no habría nada que impidiera que describiéramos el input y el ouptut de mis órganos digestivos y excretores como información. También parece un poco ridículo decir que, si un señor o una señora no entiende el chino, la suma de ese señor y de un trozo de papel sí lo entiende.
si lo que quieres decir es que el ordenador NO TIENE EL ESTADO "MENTAL" DE "SER CONSCIENTE" DE ELLO, evidentemente.
No, no me refiero necesariamente a la consciencia. Me refiero exclusivamente a que los programas informáticos son formales, es decir, sintácticos, sin contenidos o propiedades semánticas (como verdad, referente o condiciones de verdad). Son las mentes/cerebros las que tienen contenidos semánticos.
Exacto, sólo que lo que estoy cuestionando es por qué esa "representación" tiene que ser NECESARIAMENTE "mental".
Porque precisamente la definición de "representación mental" es la de una representación con contenido semántico. En nuestra biosfera, sólo las especies animales dotadas de cerebro han sido capaces de generar tal tipo de representaciones.
Masgüel
ResponderEliminarno está relacionando símbolos o significados sino cosas.
Un símbolo es una cosa que se USA como símbolo. Mi idea es que lo que hace de ciertos estados FÍSICOS ser un estado con contenido semántico es lo que se HACE con él, no lo que se SIENTE por él. De modo que no veo por qué un sistema que puede realizar acciones pero que "ni siente ni padece", también podría poseer estados con contenido semántico, si hace justo las cosas apropiadas para ello (y, como supongo que sospecharás por otras entradas y debates, esas acciones serían sobre todo inferencias: es decir, algo -un estado físico, un objeto, etc.- puede considerarse como teniendo contenido proposicional si y sólo si puede ser utilizado como premisa o conclusión en una inferencia).
.
Los significados son un tipo de contenido de conciencia.
Eso es lo que estoy diciendo que no veo por qué TIENE que ser así.
.
Pepito
ResponderEliminarAun así, esa persona sigue sin entender el chino.
Es que si tú te encuentras a un ser al que hablas en chino, y no puedes distinguir por su CONDUCTA si es un humano, un zombi, un robot, o un holograma (es decir, si cuando le pides en chino que por dónde se va a tal sitio te responde en chino una respuesta correcta; si cuando le pides un arroz tres delicias te lo trae; si te pide en chino que dejes de darle capones, etc.), ¿qué razón tendrías para negar que ese ser entiende chino, salvo la razón que consiste en la premisa -injustificada- de que hace falta tener la "sensación consciente de entender" para entender DE VERDAD?
.
parece un poco ridículo decir que, si un señor o una señora no entiende el chino, la suma de ese señor y de un trozo de papel sí lo entiende.
No tiene nada de ridículo. Hay muchas tareas que son cognitivamente distribuidas, no sólo entre varias personas, sino entre personas y objetos. Yo no sé cómo solucionar ecuaciones de cuarto grado, pero el equipo formado por mi calculadora programable y yo, sí que lo sabemos.
.
Me refiero exclusivamente a que los programas informáticos son formales, es decir, sintácticos, sin contenidos o propiedades semánticas (como verdad, referente o condiciones de verdad). Son las mentes/cerebros las que tienen contenidos semánticos.
¿Y por qué los cerebros, que al fin y al cabo no son más que sistemas para llevar de acá para allá ciertos impulsos eléctricos, como lo es un ordenador? Mi idea es que los cerebros son un accidente de la evolución, que primero desarrollaron una mente (hace cientos de millones de años), y que luego la utilizaron (en el caso de los humanos) para DESARROLLAR UNA SERIE DE CONDUCTAS con ayuda esa mente, conductas que consisten en el "comportamiento lingüístico", o sea, en tener estados con contenido proposicional. No veo por qué esa CONDUCTA no podría ser llevada a cabo por otro tipo de hardware que no hubiera desarrollado PRIMERO una mente.
Vaya, que la MENTE me parece tan accidental para el pensamiento como el glutamato: igual que podrían haberse desarrollado sistemas cognitivos capaces de utilizar un lenguaje pero sin usar glutamato como neurotransmisor, podrían haberse desarrollado ese tipo de sistemas sin que fuera EL PECULIAR HECHO BIOLÓGICO QUE LLAMAMOS "MENTE" el que le sirviera de "hardware".
.
precisamente la definición de "representación mental" es la de una representación con contenido semántico.
Pues no creo: yo estoy hablando de contenido PROPOSICIONAL. No creo que las representaciones que ciertamente produce el cerebro de un lagarto sean ESE TIPO de representaciones.
Dices que un sistema natural intencional es una cosa que hace inferencias. Que nuestro caso es el de sistemas naturales intencionales que involucran además procesos conscientes y el uso de pronombres personales. Pero entonces hacer inferencias sería un proceso físico, no lógico.
ResponderEliminarMasgüel
ResponderEliminarentonces hacer inferencias sería un proceso físico, no lógico
No hay ningún proceso que no sea un proceso físico. ALGUNOS procesos físicos son también procesos lógicos.
(Por cierto, tampoco veo por qué un sistema intencional sin mente no iba a poder usar pronombres personales, igual que verbos en subjuntivo o adjetivos calificativos).
"tampoco veo por qué un sistema intencional sin mente no iba a poder usar pronombres personales"
ResponderEliminarPor eso he dicho "además". Pero dudo que uno de tus zombis escribiese el "Canto a mí mismo" sin un pelín de autoestima.
Masgüel
ResponderEliminarObviamente, puesto que a "mis" zombis no les pican los sobacos, malamente iban a escribir un soneto sobre el picor axilar. Pero igual que tendrían que utilizar algún medio para distinguir la derecha de la izquierda, tendrían que utilizarlo para distinguir el emisor del mensaje de su receptor, en la medida en que sea relevante.
La propiedad "significado" es algo de los signos, que a su vez son ficciones humanas -y de otros animales- producidas por su cerebro. Es decir, los significados son mentales pero en sentido secundario o trivial, en su sentido original singificado es algo que tienen los signos, como estos que estáis viendo.
ResponderEliminarJose
ResponderEliminar¿Y eso lo dices a favor o en contra?
JESÚS:
ResponderEliminar¿qué razón tendrías para negar que ese ser entiende chino,
Ninguna, evidentemente. Pero no porque no pueda distinguir por su conducta si es un humano, un robot, un zombi o un holograma. Tu ejemplo es de ciencia-ficción. En nuestra vida cotidiana real, podemos distinguir perfectamente si alguien que habla con nosotros es un humano, un zombie, un robot o un holograma, aunque sólo sea porque los zombies como tales no existen (y los "zombies" reales, los de Haití con el cerebro lesionado por un veneno, se ve a la legua que están severamente discapacitados), o podríamos hacerlo si dispusiéramos de la tecnología necesaria, tal como escáneres, microscopios, dispositivos de análisis químico, etc. En la práctica podemos descartar que estemos hablando con un robot o un holograma, porque actualmente no existe la tecnología necesaria para construir artefactos capaces de pasar completamente por seres humanos.
Pero el experimento mental de Searle no tiene por fin hacer que dudemos de que las personas con las que hablamos en la vida diaria no tengan mente ni consciencia, sino que la tengan dispositivos artificiales de cómputo digital como los ordenadores. Asimismo, niega que tales dispositivos puedan generar representaciones intencionales con contenido semántico, que es precisamente la definición que Searle da de "mente" y de "mental". Es posible que en el futuro sí se puedan construir tales artefactos o que en otros sistemas solares o galaxias haya especies alienígenas con sistemas intencionales no mentales, pero eso es sólo ciencia-ficción.
Yo no sé cómo solucionar ecuaciones de cuarto grado, pero el equipo formado por mi calculadora programable y yo, sí que lo sabemos.
No entiendo cómo la cognición puede estar distribuida entre objetos. Por supuesto que existe una intencionalidad colectiva, pero dicha intencionalidad es social, y por supuesto está distribuida entre personas, no entre cosas. El equipo formado por mi calculadora y yo no "sabe nada", el único que "sabe" soy yo, que además sé para qué puedo utilizar mi calculadora.
¿Y por qué los cerebros, que al fin y al cabo no son más que sistemas para llevar de acá para allá ciertos impulsos eléctricos, como lo es un ordenador?
ResponderEliminarPero es que los cerebros son más que sistemas para transportar ciertos impulsos eléctricos. Hay muchas diferencias entre los cerebros y los ordenadores digitales:
- Los ordenadores son digitales, los cerebros analógicos.
- Los cerebros tienen una memoria direccionable según el contenido, mientras que los ordenadores tienen una memoria direccionable según los bytes. En el cerebro, puede accederse a la información en la memoria a través de una "activación de propagación" a partir de conceptos estrechamente relacionados.
- El cerebro es una máquina de procesamiento masivo en paralelo; el ordenador es modular y serial.
- La velocidad de procesamiento no es fija en el cerebro; sí lo es en el ordenador.
- La memoria a corto plazo del cerebro no es como la RAM del ordenador: la primera sólo mantiene puntos de contacto con la memoria a largo plazo, mientras que la RAM contienen datos que son isomórficos a los del disco duro.
- La distinción hardware/software no es aplicable al cerebro y la mente: la mente emerge directamente del cerebro, y los cambios en la mente están siempre acompañados por cambios en el cerebro.
- Las sinapsis son mucho más complejas que las puertas lógicas electrónicas.
- El procesamiento y la memoria son ejecutados por los mismos procesos en el cerebro, al contrario que en el ordenador.
- El cerebro es un sistema auto-organizado, al contrario que el ordenador. Esto se ve muy bien en la neuropsicología cognitiva: la plasticidad neural permite que pacientes con lesiones dañadas puedan utilizar otras regiones del cerebro para realizar las mismas funciones del área o áreas dañadas, por ejemplo.
- El cerebro, por último, tiene un cuerpo, a través de cual interactúa con el mundo.
El cerebro es muchísimo más complejo que el ordenador. Un modelo biológico preciso del cerebro tendría que incluir 225,000,000,000,000,000 de interacciones entre distintos tipos de células, neurotransmisores, neuromoduladores, ramas neuronales y espinas dendríticas, y eso sin tener en cuenta las influencias de la geometría dendrítica, o las aproximadamente 1.000 billones de células gliales que pueden ser o no relevantes para el procesamiento de información neural. Puesto que el cerebro es no-lineal, y puesto que es muchísimo más complejo que cualquiera de los actuales ordenadores, parece que funciona de manera completamente distinta. Y la metáfora cerebro-ordenador oscurece este hecho.
Mi idea es que los cerebros son un accidente de la evolución, que primero desarrollaron una mente (hace cientos de millones de años), y que luego la utilizaron (en el caso de los humanos) para DESARROLLAR UNA SERIE DE CONDUCTAS con ayuda esa mente
Por supuesto que los cerebros son un accidente de la evolución. Yo no soy Pepe el Creacionista. Pero diría que en la evolución sobre la tierra sólo los cerebros han producido hasta ahora procesos y estados mentales, entendidos como estados intencionales o representacionales con contenido semántico.
yo estoy hablando de contenido PROPOSICIONAL. No creo que las representaciones que ciertamente produce el cerebro de un lagarto sean ESE TIPO de representaciones.
Bueno, obviamente las representaciones del lagarto no son de tipo LINGÜÍSTICO. Pero no veo por qué no podemos decir que el lagarto no tiene representaciones con un contenido semántico (de hacho, si el lagarto al ver un águila se esconde de ésta, es porque 'sabe' que ese animal es un peligro para él y que si no se larga pitando se lo va a merendar).
Bueno, obviamente las representaciones del lagarto no son de tipo LINGÜÍSTICO. Pero no veo por qué no podemos decir que el lagarto no tiene representaciones con un contenido semántico (de hacho, si el lagarto al ver un águila se esconde de ésta, es porque 'sabe' que ese animal es un peligro para él y que si no se larga pitando se lo va a merendar).
ResponderEliminar"no veo qué motivos te llevan a no aceptar que entre los ACTOS DE CREER se dan relaciones CAUSALES (como buenos procesos naturales que son), mientras que entre las PROPOSICIONES creídas (o no creídas) se dan relaciones DE CONSECUENCIA LÓGICA, pero no se dan relaciones causales entre proposiciones, ni relaciones de consecuencia lógica entre actos mentales distintos."
ResponderEliminarSi hacer inferencias con proposiciones puede ser un proceso automático, ¿qué otra cosa hay entre esas proposiciones sino relaciones causales?.
Si dos procesos físicos distintos pueden inferir una misma consecuencia lógica, ¿no significa que hay un tipo de procesos físicos, unos bichos, que se las apañan para que las relaciones entre sus actos mentales sean, entre otras cosas, lógicas?. La alternativa supone admitir que esos bichos se las apañanan para las consecuencias lógicas sean la causa de algunos de sus actos mentales.
Pepito
ResponderEliminarTu ejemplo es de ciencia-ficción.
¡Efectivamente! ¿Cómo, si no, vamos a poder razonar sobre qué cosas son posibles, imposibles, o necesarias, más que intentando concebir escenarios alternativos? Yo no estoy discutiendo si los bichos a nuestro alrededor son de tal o cual manera, sino si es POSIBLE que haya sistemas con estados que posean contenido semántico sin que tengan mente, sea en otra galaxia o en un futuro tecnológico muy lejano.
.
No entiendo cómo la cognición puede estar distribuida entre objetos.
Exactamente igual que la visión. Yo veo fatal de lejos, pero el sistema formado por mis gafas y yo, permite una visión mucho mejor. Puedes pensar en ciertos objetos como "prótesis cognitivas" (puesto que, en mi opinión, la principal actividad cognitiva que define a los seres racionales es la capacidad de hacer inferencias -es decir, de manipular los estados cognitivos de tal forma que unos de ellos puedan usarse como premisas para conducir a otros, las conclusiones-, sugiero llamar "prótesis inferenciales" a esos aparatos o sistemas que nos ayudan a sacar conclusiones que, con nuestras mentes "desnudas", nos costaría mucho más trabajo o sería imposible para nosotros).
.
El equipo formado por mi calculadora y yo no "sabe nada", el único que "sabe" soy yo,
Insisto, porque injustificadamente asocias el término "saber" no con el aspecto SEMÁNTICO del término (el hecho de que, meramente, se trata de un estado capaz de tener como contenido semántico una proposición, y rastrear los vínculos inferenciales que la ligan con otras proposiciones), sino con su aspecto FENOMENOLÓGICO (es decir, con la "conciencia" o "sensación psicológica" de saber).
Sigo
ResponderEliminar.
Hay muchas diferencias entre los cerebros y los ordenadores digitales:
Pero ninguna de las que citas implica que un sistema no formado por células vivas (y ni siquiera un sistema que, aunque estuviera formado por células vivas, no poseyera estados conscientes) sea NECESARIAMENTE incapaz de generar estados con contenido semántico (en el sentido que estoy utilizando).
.
Ten en cuenta, p.ej., que el cerebro de un cerdo tiene, seguramente, todas las características que dices que tiene el cerebro pero no el ordenador, y aún así no es capaz de hacerle a su dueño DECIR cosas (es decir, tener "estados con contenido semántico").
.
en la evolución sobre la tierra sólo los cerebros han producido hasta ahora procesos y estados mentales
¿Y quién niega eso?
.
no veo por qué no podemos decir que el lagarto no tiene representaciones con un contenido semántico (de hacho, si el lagarto al ver un águila se esconde de ésta, es porque 'sabe' que ese animal es un peligro para él y que si no se larga pitando se lo va a merendar).
Pues porque una cosa es que NOSOTROS podamos identificar "lo que piensa el lagarto" bajo la forma de una proposición (también podemos decir que el hierro "sabe cuándo hay oxígeno en el aire, y lo demuestra oxidándose"), y otra cosa es que EL LAGARTO sea capaz de MANIPULAR GRAMATICALMENTE su representación de modo que pueda ligarla inferencialmente con otras, es decir, que pueda usarla en "juegos de lenguaje".
Masgüel
ResponderEliminarSi hacer inferencias con proposiciones puede ser un proceso automático, ¿qué otra cosa hay entre esas proposiciones sino relaciones causales?.
Las proposiciones no existen físicamente, son entidades "lógicas", "abstractas", como los números o los anillos abelianos. Y entre entidades de ese tipo, precisamente lo que no hay son relaciones causales.
.
Fíjate que hacer inferencias con proposiciones no es una cosa que hagan LAS PROPOSICIONES, sino que las hace un determinado sistema de carne y hueso (o de silicio y uranio).
.
¿no significa que hay un tipo de procesos físicos, unos bichos, que se las apañan para que las relaciones entre sus actos mentales sean, entre otras cosas, lógicas?
No hay relaciones lógicas más que entre proposiciones, no entre "actos", ni mentales ni físicos. Lo que puede haber son relaciones CAUSALES entre ciertos elementos de un sistema que sean ISOMÓRFICAS respecto a cierto conjunto de relaciones lógicas. Naturalmente, el truco de nuestros cerebros es haber conseguido hacer algo así.
.
Pues mi duda persiste. Si las proposiciones son entidades lógicas, que nuestros cerebros se las apañen para conseguir que las relaciones causales entre sus estados físicos sean isomórficas respecto a cierto conjunto de relaciones lógicas, ¿no significa que nuestros cerebros han conseguido que esas entidades lógicas sean la causa de algunos de sus estados?.
ResponderEliminar"Las proposiciones no existen físicamente, son entidades "lógicas", "abstractas", como los números o los anillos abelianos. Y entre entidades de ese tipo, precisamente lo que no hay son relaciones causales."
Pero no que no existan físicamente no significa que no existan. Las proposiciones son parte de la naturaleza desde que jugamos con palabras y tienen efectos causales sobre las cosas que sí existen físicamente, empezando por nuestros cerebros. Es decir, que lo simbólico es un nivel de autoorganización de la naturaleza con plenos efectos causales, pero no es un nivel físico, sino abstracto.
MasgÜel
ResponderEliminarque nuestros cerebros se las apañen para conseguir que las relaciones causales entre sus estados físicos sean isomórficas respecto a cierto conjunto de relaciones lógicas, ¿no significa que nuestros cerebros han conseguido que esas entidades lógicas sean la causa de algunos de sus estados?.
Es un modo de hablar. Yo diría más bien que el HECHO FÍSICO de que tales estados de ciertos sistemas físicos tengan entre ellos tales y cuales relaciones físicas (que son isomórficas a tales o cuales relaciones entre proposiciones) es la causa de que ocurran tales y cuales cosas con esos sistemas físicos. A mí me parece un poco confundente decir que la "causa" de que ahora queden sólo 4 huevos de la media docena que te compraste no es "sólo" que dos se te rompieron, sino que 6 - 2 = 4. Al fin y al cabo, 6 - 2 = 4 siempre, no sólo cuando se te rompieron los huevos, pero a ti sólo te quedan 4 después de que se te rompieran.
.
que no existan físicamente no significa que no existan
Por supuesto. Existe un número entero mayor que 4 y menor que 6, así que los números, existir, existen. Lo que no tienen son poderes causales.
.
Las proposiciones son parte de la naturaleza desde que jugamos con palabras
Me temo que no: las proposiciones no son "parte de la naturaleza", como no son parte de la naturaleza los dragones que escupen fuego; lo que hay son bichos que DICEN o PIENSAN proposiciones, como hay bichos que dicen cosas sobre dragones que escupen fuego.
.
lo simbólico es un nivel de autoorganización de la naturaleza
No veo por qué. La CONDUCTA simbólica si que lo es, obviamente. Pero lo SIMBOLIZADO por esa conducta no tiene por qué.
"lo simbólico es un nivel de autoorganización de la naturaleza
ResponderEliminarNo veo por qué. La CONDUCTA simbólica si que lo es, obviamente. Pero lo SIMBOLIZADO por esa conducta no tiene por qué."
Es que la conducta simbólica es, en cada caso, lo simbolizado. Como los actos mentales que consisten en realizar inferencias son, en cada caso, las inferencias o consecuencias lógicas realizadas. Si me dices que los actos mentales son procesos neurológicos responderé, repitiéndote, que ese es un nivel de descripción, pero no es más real que el nivel de descripción en que el acto mental de realizar una inferencia consiste en realizar inferencias. Entonces, los simbolos que manejamos, las inferencias que realizamos y los dragones que soñamos son parte de la naturaleza y tienen efectos causales, que pueden ser descritos en el nivel de descripción que uno prefiera, aunque si uno se pone a mirar neuronas, nunca descubrirá lo que le ocurre al número 6 cuando le restamos 2, ni sabrá cuántas princesas hay que sacrificar para apaciguar el hambre de un dragón.
Masgüel
ResponderEliminarla conducta simbólica es, en cada caso, lo simbolizado.
¿¿¿¿???? Hombre, yo distingo bastante bien el hecho de que se me rompa una pierna, del hecho de que tú DIGAS que me he roto una pierna.
.
los actos mentales que consisten en realizar inferencias son, en cada caso, las inferencias o consecuencias lógicas realizadas
Claro, hacer una inferencia es un acto mental (o, si algún sistema sin mente es capaz de hacerlo, un acto del tipo de actos que haga ese sistema; digamos, un acto cognitivo). Pero una cosa es el hecho de que la proposición A ES UNA CONSECUENCIA LÓGICA de la proposición B, y otra cosa es que alguien lo DEMUESTRE (o siga paso a paso la demostración). Sólo lo segundo es una inferencia, no lo primero (las relaciones de consecuencia lógica).
.
los simbolos que manejamos, las inferencias que realizamos y los dragones que soñamos son parte de la naturaleza y tienen efectos causales
Los símbolos (p.ej.,tu DECIR "Jesús se ha roto una pierna"), claro que sí. Los dragones que soñamos, en cambio, depende: el dragón COMO PARTE DE MI SUEÑO, claro que es una parte real de la naturaleza, igual que mi pierna rota si sueñas que me la rompo. Pero, por mucho que lo sueñes, no hay en la naturaleza, por ahora, ni dragones que escupan fuego ni piernas rotas de Jesús Zamora (cruzo los dedos).
.
si uno se pone a mirar neuronas, nunca descubrirá lo que le ocurre al número 6 cuando le restamos 2
No veo por qué no. Yo puedo averiguar muchas cosas viendo lo que hacen otras personas. Al fin y al cabo, aprendí a restar viendo lo que hacía mi profesor; no veo por qué no puede haber algo en la conducta de las neuronas que, si un bicho con un cerebro como el nuestro lo observa, no va a poder aprender también ese tipo de cosas.
"la conducta simbólica es, en cada caso, lo simbolizado.
ResponderEliminar¿¿¿¿???? Hombre, yo distingo bastante bien el hecho de que se me rompa una pierna, del hecho de que tú DIGAS que me he roto una pierna."
No me he explicado bien. Quiero decir que no hay conducta simbólica sin símbolos, que la conducta simbólica es, en cada caso, el manejo de símbolos concretos. Los símbolos mismos son la conducta simbólica.
"el dragón COMO PARTE DE MI SUEÑO, claro que es una parte real de la naturaleza, igual que mi pierna rota si sueñas que me la rompo. Pero, por mucho que lo sueñes, no hay en la naturaleza, por ahora, ni dragones que escupan fuego ni piernas rotas de Jesús Zamora"
Eso es una contradicción. Si tus sueños son parte de la naturaleza, los dragones y las piernas rotas de tu cuerpo onírico son parte de la naturaleza.
"Yo puedo averiguar muchas cosas viendo lo que hacen otras personas. Al fin y al cabo, aprendí a restar viendo lo que hacía mi profesor; no veo por qué no puede haber algo en la conducta de las neuronas que, si un bicho con un cerebro como el nuestro lo observa, no va a poder aprender también ese tipo de cosas."
Pues precisamente porque para aprender a restar, a averiguar lo que le pasa al número 6 cuando le restamos dos y al que se mete con dragones cuando duermen la siesta, hay que observar la conducta de las personas al nivel en que esas cosas tienen significado para las personas. Saber cómo se las apañan las neuronas para que yo pueda restar dos o disfrutar de una novela es tan relevante para esos actos mentales como conocer la mezcla de pigmentos para interpretar "Las Meninas". Lo significativo del cuadro para el autor y el espectador del cuadro no está en los pigmentos y nunca se descubrirá limitándose a examinarlos.
M
ResponderEliminarno hay conducta simbólica sin símbolos, que la conducta simbólica es, en cada caso, el manejo de símbolos concretos. Los símbolos mismos son la conducta simbólica.
Claro. Pero no veo en qué contradice eso a algo que haya dicho yo. La cosa es que una cosa es el símbolo, y otra lo simbolizado con él.
.
Eso es una contradicción. Si tus sueños son parte de la naturaleza, los dragones y las piernas rotas de tu cuerpo onírico son parte de la naturaleza.
¡Pues si eso es lo que digo yo! Pero es mi cuerpo onírico al que se le ha roto una pierna, no a mi cuerpo.
.
para aprender a restar, a averiguar lo que le pasa al número 6 cuando le restamos dos y al que se mete con dragones cuando duermen la siesta, hay que observar la conducta de las personas al nivel en que esas cosas tienen significado para las personas.
Es que las personas somos tan listas que CUALQUIER cosa puede "tener significado" para nosotros. No veo por qué la contemplación de ciertos procesos en las redes neuronales no va a poder "tener significado" para nosotros. Yo no digo que en "circunstancias normales" uno aprenda a restar viendo lo que hacen las neuronas; digo que, simplemente, no me parece que haya una especie de "imposibilidad metafísica" en que podamos aprender ciertas cosas interesantes viendo, en lugar de cómo se mueven las manos y la lengua de ciertas personas, viendo cómo se mueven sus neurotransmisores. Por supuesto, antes de ser capaces de hacer eso, tendremos que haber aprendido un montón de otras cosas, y las habremos aprendido por su mecanismo "natural" (ese para el que la evolución ha programado nuestro cerebro), pero como digo, los humanos somos la hostia de listos, y podemos aprender muchas cosas a partir de los hechos más insospechados. No veo por qué algo como lo que dices tú va a ser necesariamente imposible para nosotros.
.
JESÚS:
ResponderEliminarPues porque una cosa es que NOSOTROS podamos identificar "lo que piensa el lagarto" bajo la forma de una proposición (también podemos decir que el hierro "sabe cuándo hay oxígeno en el aire, y lo demuestra oxidándose"), y otra cosa es que EL LAGARTO sea capaz de MANIPULAR GRAMATICALMENTE su representación de modo que pueda ligarla inferencialmente con otras, es decir, que pueda usarla en "juegos de lenguaje".
Entonces, ¿sólo puede haber pensamiento si hay lenguaje? ¿No es perfectamente posible que el cerebro del lagarto manipule representaciones mentales aun en ausencia total de lenguaje? Porque el lagarto, al contrario que el oxígeno, es un ser vivo dotado de sistema nervioso y de cerebro. Por ejemplo, al ver el águila, el lagarto puede experimentar una sensación de temor, e incluso recuperar de su memoria a largo plazo la imagen de un águila devorando a otro lagarto, y asociar su visión del águila con el recuerdo.
Podríamos hablar de una "intencionalidad intrínseca", que sería un fenómeno natural, biológico. Habría que diferenciar entre las proposiciones de un lenguaje, que son constructos que dependen de lo que otras personas piensen, y los estados mentales conscientes como la sed, cuyo significado no depende de lo que piensen otras personas. Son estos estados mentales, y no las frases del lenguaje, los casos paradigmáticos de la intencionalidad. Los estados mentales, que en realidad son procesos cerebrales de nivel superior, se refieren intrínsecamente a hechos brutos del mundo natural. Por ejemplo, el deseo intencional que un animal tiene de beber sería un ejemplo de intencionaldiad intrínseca, con una causa natural: el aumento de la activación neuronal en el hipotálamo. Dicha activación causa un estado de conciencia, que es intencional porque es un deseo del agua, de un elemento físico del mundo natural.
para DESARROLLAR UNA SERIE DE CONDUCTAS con ayuda esa mente, conductas que consisten en el "comportamiento lingüístico", o sea, en tener estados con contenido proposicional.
Entonces, ¿eres conductista? ¿Los estados y procesos mentales no son más que comportamiento lingüístico?
Pepito
ResponderEliminar¿sólo puede haber pensamiento si hay lenguaje?
Vamos a ver: lo que estoy pidiendo es, primero, separar los conceptos de "pensamiento" y de "consciencia". El lagarto tiene conciencia, sensaciones, "se da cuenta" de cosas, y en ese sentido "piensa"; como esos estados de consciencia tienen cierta ESTRUCTURA, diversos sistemas cognitivos pueden aprovechar en mayor o menor grado esa estructura para GENERAR (como "output") estados cognitivos nuevos utilizando como "input" otros estados cognitivos anteriores. No creo que haya un salto totalmente abrupto desde el tipo de OPERACIONES que puede hacer un lagarto con sus estados cognitivos al tipo de operaciones que podemos hacer nosotros (los simios, p.ej., parece que pueden "razonar" hasta cierto punto), pero sí que hay un cambio cualitativo muy importante cuando las operaciones que podemos hacer con los estados cognitivos consisten en operaciones gramaticales, o como preferiría yo decir, conceptuales. Los lagartos no poseen "conceptos"; los simios tal vez posean "proto-conceptos", como los posee un niño de un año. En ese sentido (en el sentido de "razonar") nosotros podemos "pensar", pero el lagarto no.
Lo segundo que digo es que en la actividad conceptual que llamamos "razonar", nosotros la llevamos a cabo con el "hardware" que consiste, en parte, en estados cognitivos conscientes, pero que tal vez otros sistemas la puedan llevar a cabo con otro tipo de "hardware".
.
Por otro lado, piensa que construir un sistema artificial que tuviera la conducta del lagarto sería, en principio, incluso más fácil que hacer uno que tuviera la conducta de un hablante de chino. El lagarto artificial también huiría del águila, buscaría moscas, se pondría al sol... pero todo ello sin NOTARLO, y en la medida en que al cerebro del lagarto real le atribuyas intencionalidad, también tendrías que atribuírsela al lagarto artificial, ¿no?
JESÚS:
ResponderEliminarVale, sí, tienes razón. Por supuesto, hablar de "pensamiento" en un lagarto o una rana seguramente es un abuso de los términos, salvo que lo utilicemos en un sentido muy, muy, muy básico y elemental. Aunque estos estudiosos de la cognición reptil piensan que los lagartos son más listos de lo que parece:
http://www.sciencenews.org/view/generic/id/332339/description/Learnin_lizards
El artículo dice que, en una serie de tests, cuatro lagartos descubrieron cómo retirar tapas de plástico adheridas a una caja con comida, y a ignorar tapas con colores distintos introducidas como distractores. Incluso, dos lagartos fueron "capaces de deshacer su entrenamiento previo y escoger el color 'incorrecto' porque los investigadores invirtieron las reglas".
¿No puede haber en esta cognición lagarteril un rastro de "proto-pensamiento", incluso de "proto-conceptualización", aunque por supuesto no de razonamiento? Después de todo, son primos nuestros no muy lejanos y no deben de ser tan tontos.
y en la medida en que al cerebro del lagarto real le atribuyas intencionalidad, también tendrías que atribuírsela al lagarto artificial, ¿no?
Vale, pero ¿no deberíamos hablar entonces de "intencionalidad intrínseca" en el caso de los estados mentales (que tienen la propiedad básica de referirse a alago externo a ellos mismos), y de "intencionalidad derivada" en el caso de los objetos artificiales? La intencionalidad derivada sería la de los artefactos dotados de un significado que ha sido acordado por sus creadores, que son los que tienen la intencionalidad (intrínseca) de que tales artefactos se refieran a algo.
Pepito
ResponderEliminarVale, sí, tienes razón
Me dicen eso tan pocas veces, que me entran ganas de discutirlo.
.
los lagartos son más listos de lo que parece:
Por supuesto. Incluso los insectos lo son.
.
¿No puede haber en esta cognición lagarteril un rastro de "proto-pensamiento", incluso de "proto-conceptualización", aunque por supuesto no de razonamiento? Después de todo, son primos nuestros no muy lejanos y no deben de ser tan tontos.
Totalmente de acuerdo. Ya digo que no hay un salto totalmente abrupto, como si dios infundiera el alma racional en el primer homo sapiens.
.
¿no deberíamos hablar entonces de "intencionalidad intrínseca" en el caso de los estados mentales (que tienen la propiedad básica de referirse a alago externo a ellos mismos), y de "intencionalidad derivada" en el caso de los objetos artificiales?
Ahí está el quid. Es que no creo que los estados mentales "por sí mismos" tengan algo así como "una propiedad básica de referirse a algo externo a sí mismos". Seguramente lo que el lagarto no sabe es hacer la distinción conceptual entre sus sensaciones y aquellos objetos "reales" que las producen; la mayoría de los animales viven, por así decir, en un videojuego formado por sus sensaciones, sin tener la "noción" de que se trata de estados mentales con una "referencia", y por eso no tienen tampoco, seguramente, una noción del "yo". De modo parecido a como la dirección de las hojas del girasol no "se refiere" al sol.
Es el desarrollo del lenguaje (y, por lo tanto, del pensamiento simbólico) lo que nos permite distinguir el signo de su significado, y por lo tanto, es en ese nivel en el que aparece algo así como la "referencia".
"no creo que los estados mentales "por sí mismos" tengan algo así como "una propiedad básica de referirse a algo externo a sí mismos"."
ResponderEliminarEstoy de acuerdo. Solo los animales autoconscientes pueden distinguir entre percepciones y propiocepciones. El dolor de los lagartos es real, pero no es de nadie.
Si vamos a hablar de una intencionalidad no proposicional, la de los "objetos dotados de propósito" que decía Monod, sospecho que vamos a tener que hacer caso a Llinás y tenemos que retrotaernos a la irritabilidad celular.
Pulgano:
ResponderEliminarme temo que sigo sin entender; ¿por qué una cierta configuración de sinapsis, o sea, ciertas variaciones de cargas o resistencias eléctricas, van a poder consistir en "datos semánticos almacenados", y en cambio las corrientes que circulan por un circuito de silicio van a ser sólo "datos sintácticos"?
Porque esa configuración primera, está establecida y se va estableciendo, desde el nacimiento nutriéndose de datos semánticos, susceptibles de desarrollarse de múltiples formas,según sea la especie, el cerebro y la capacidad de expresarlo: intención. En cambio la segunda configuración está establecida por "alguien" y sólo puede actuar de acuerdo al lenguaje operativo que le imponen. No tiene intención, sólo puede expresar proposiciones de forma mecánica. Enlazando con una entrada anterior, no puede tener libre albedrío.
Eliminar"no me parece que haya una especie de "imposibilidad metafísica" en que podamos aprender ciertas cosas interesantes viendo, en lugar de cómo se mueven las manos y la lengua de ciertas personas, viendo cómo se mueven sus neurotransmisores."
ResponderEliminarClaro que hay muchas cosas interesantes que aprender estudiando la conducta química de las neuronas. Nunca he sugerido no se estudie todo lo estudiable. Pero no hay NADA en la conducta química de las neuronas relacionado con la ruptura del marco de representación que supone "Las Meninas". Y seguro que podemos aprender un montón sobre la relación entre la liberación o inhibición de un neurotransmisor y alterciones de nuestra experiencia consciente. Si tomo un inhibidor de la acetilcolinesterasa probablemente experimentaré sueños muy vívidos, pero no hay nada en el fármaco, en la encima, en el neurotransmisor o en la sinapsis que explique por qué a mí me da por volar cuando sueño.
Masgüel
ResponderEliminarno hay NADA en la conducta química de las neuronas relacionado con la ruptura del marco de representación que supone "Las Meninas"
No sé a qué te refieres con "la ruptura del marco de representación..."
No estoy intentando decir que observando lo que un individuo con las neuronas podamos aprender cosas SOBRE LAS NEURONAS. Al fin y al cabo, cuando vemos a alguien y aprendemos cosas gracias a lo que hace y dice, no aprendemos (sólo) cosas sobre su lengua -el músculo de la voca, no su idioma-, cuerdas vocales, manos, etc. ¿Qué tiene la lengua que no tengan las neuronas, además del hecho de que nuestro cerebro está mejor adaptado a percibir los sonidos vocales e interpretarlos como mensajes lingüísticos? Pero somos lo bastante listos como para poder utilizar cualquier parte del cuerpo para múltiples fines.
encima :)
ResponderEliminar"No sé a qué te refieres con "la ruptura del marco de representación..."
ResponderEliminarOff topic: Al juego de Velazquez de pintarse a sí mismo pintando al espectador, que en este caso son los reyes, reflejados en el espejo del fondo. Desde la invención de la perspectiva, en que el cuadro se convirtió en ventana, supone la ruptura más importante del marco de representación. Es el tema del primer capítulo de "Las palabras y las cosas", de Foucault.
Masgüel
ResponderEliminarbueno, eso ya lo sé; ¿y?
Y nada. Por eso era un off topic.
ResponderEliminarCreo que estamos de acuerdo. Observando lo que hace el cerebro al mismo tiempo que la conducta de quien lo lleva dentro del cráneo, podemos aprender muchas sobre la correlación entre ambos fenómenos. Ya hemos aprendido mucho. Entre otras cosas, que cada cual usa el cerebro a su manera. Pero también coincidiremos, supongo, en que sin saber restar, por mucho que observemos el cerebro de otra persona mientras resta números, jamás aprenderemos algo sobre aritmética.
Masgüel
ResponderEliminarsin saber restar, por mucho que observemos el cerebro de otra persona mientras resta números, jamás aprenderemos algo sobre aritmética
Pero plantéate esto mismo también: "por mucho que observemos la lengua y las manos de otra persona mientras resta números, jamás aprenderemos algo sobre aritmética"
Es que la actividad cerebral es tan arbitraria para la conducta gramatical o aritmética como los movimientos de nuestras manos y lengua, los sonidos que emitimos o las manchas de tinta que dejamos en los papeles. Claro que es posible que un bicho hipotético, capaz de percibir al detalle tu actividad cerebral mientras haces operaciones aritméticas, aprenda a hacerlas también él, pero como nosotros, se dará cuenta de que la aritmética no es la actividad cerebral asociada, como no es el movimiento de las manos y la lengua, no es los sonidos que emitimos ni las manchas que dejamos en los papeles, sino una abstracción. Una abstracción con poder causal y a gran escala en la biosfera desde que los seres humanos inventamos la aritmética.
ResponderEliminarJesús
ResponderEliminarA favor. Las propiedades lógicas como "consecuencia" o "satisfacibilidad" no son propiedades del cerebro sino en un sentido secundario. Técnicamente se refieren a productos de ese cerebro, en este caso proposiciones. Que Don Quijote sea producto del cerebro no es relevante para decir que era compañero de Sancho o que tenía un caballo blanco.
Rocinante no es blanco :)
ResponderEliminarFelicidades por el post, creo que ha quedado bastante claro... La discusión posterior, bueno... voy a ver que saco en claro... Saludos.
ResponderEliminarMasgüell
ResponderEliminarTienes las mismas razones para decir que no era blanco que yo para decir que sí lo era: ninguna. Cervantes no habla del color del caballo.
Saludos
Masgüel
ResponderEliminarcomo nosotros, se dará cuenta de que la aritmética no es la actividad cerebral asociada, como no es el movimiento de las manos y la lengua, no es los sonidos que emitimos ni las manchas que dejamos en los papeles, sino una abstracción.
.
Una abstracción con poder causal y a gran escala en la biosfera desde que los seres humanos inventamos la aritmética.
No veo cómo puedes distinguir un mundo en el que hay DOS poderes causales (nuestro conocimiento de las leyes de la aritmética Y las leyes de la aritmética) de un mundo en el que SÓLO hay el primero de los dos. Como yo no puedo distinguirlos, elimino los supuestos que veo que sobran (el poder causal de la aritmética, COMO ALGO DISTINTO del poder causal de los estados psicológicos que consisten en nuestro conocimiento de la aritmética)
Jose
ResponderEliminarA favor
Menos mal
"No veo cómo puedes distinguir un mundo en el que hay DOS poderes causales (nuestro conocimiento de las leyes de la aritmética Y las leyes de la aritmética) de un mundo en el que SÓLO hay el primero de los dos. Como yo no puedo distinguirlos, elimino los supuestos que veo que sobran (el poder causal de la aritmética, COMO ALGO DISTINTO del poder causal de los estados psicológicos que consisten en nuestro conocimiento de la aritmética)"
ResponderEliminarEs que el poder causal de la aritmética no es algo distinto al poder causal de los estados psicológicos/conductas que consisten en nuestro conocimiento de la aritmética. Una abstracción es una conducta cognitiva, pero que distintos sistemas físicos puedan participar en el mismo juego, realizando las mismas inferencias, por ejemplo, significa que el juego mismo es un nivel de organización propio, con reglas propias. Igual que el metabolismo es la organización de los procesos celulares y orgánicos, la cultura es la organización de las conductas humanas. Y el sistema físico que se utilice para jugar a la aritmética no es indifirente (hace falta usar alguno que haga lo que necesitamos), pero sí es arbitrario.
Pulgano:
ResponderEliminarpero eso es irrelevante; si yo fabrico artificialmente, célula a célula, a base de células criadas en cultivos, un organismo idéntico a ti, pues será idéntico a ti, y tendrá tus mismas intenciones, recuerdos, pensamientos, etc. (o parecidos a los tuyos), aunque lo habré hecho todo "de forma mecánica".
Por otro lado, también TÚ MISMO estás hecho "de forma mecánica": ¿de qué otra forma vas a poder hacerte? Al fin y al cabo, sólo hay una cosa que pueda mover un átomo de un sitio a otro: las fuerzas de la gravedad y electromagnéticas ejercidas por otros átomos.
Bueno, la fuerza de la gravedad se escapa a la unión con las otras tres, al menos para explicarlas desde una causa común. En cuanto a lo otro, si todo se reduce a alguna explicación realizada a través de leyes de la física, sólo la capacidad del proceso cognitivo que somos capaces de apreciar con nuestras acciones- y recuerdos- nos salva de la irrelevancia de nuestras acciones y por tanto, de nuestra nada ya probable intencionalidad. ¡Déjanos algo, aunque sea la ilusión de que podemos impulsar un deseo!
EliminarMasgüel:
ResponderEliminarel poder causal de la aritmética no es algo distinto al poder causal de los estados psicológicos/conductas que consisten en nuestro conocimiento de la aritmética.
Exactamente. Y puesto que ambas cosas son lo mismo, asumo que no son dos, sino una, y me quedo con la que me parece más sensata: nuestros estados psicológicos tienen poder causal, no hace falta suponer que las verdades aritméticas lo tienen.
.
Una abstracción es una conducta cognitiva
Obviamente, no. Existen números naturales que nunca ha pensado nadie, así que no pueden haber sido "conductas cognitivas" de nadie.
.
el juego mismo es un nivel de organización propio, con reglas propias. Igual que el metabolismo es la organización de los procesos celulares y orgánicos, la cultura es la organización de las conductas humanas.
Claro que sí. Pero una cosa es "el juego" y "la cultura" como SISTEMAS FÍSICAMENTE REALES, ORGANIZADOS DE TAL O CUAL MANERA, y otra cosa son "el juego", "la cultura" o "el menor número primo mayor que un cuatrillón elevado a un cuatrillón" entendidos como abstracciones.
.
"una cosa es "el juego" y "la cultura" como SISTEMAS FÍSICAMENTE REALES, ORGANIZADOS DE TAL O CUAL MANERA, y otra cosa son "el juego", "la cultura" o "el menor número primo mayor que un cuatrillón elevado a un cuatrillón" entendidos como abstracciones."
ResponderEliminarEs que entendida como abstracción es como se juega a la aritmética, a la gramática y al mus. La forma en que organizan su conducta ciertos sistemas físicos es manejando abstracciones.
M
ResponderEliminar¿Y quién te dice que no? Salvo que "manejar" es una metáfora muy chabacana: obviamente, yo no puedo coger el 6 y hacer nada con él (el 6 no cambia por mucho que yo le haga), lo que hago es manipular REPRESENTACIONES del 6, o mis propios estados psicológicos.
Insisto, igual que cuando piensas "Jesús se ha roto una pierna", una cosa es QUE TÚ LO PIENSES, y otra cosa es que MI PIERNA SE HAYA ROTO, cuando piensas "6 x 2 = 12", una cosa es que tú lo pienses, y otra cosa es la PROPOSICIÓN de que 6 x 2 = 12 (y en ambos casos, te puedes equivocar al pensarlo). Que mi pierna se rompa puede, obviamente, tener efectos causales sobre otras cosas (es decir, puede haber casos en los que no tenemos más remedio que asumir que eso es una causa de algo), pero que 6 x 2 = 12, no veo que haya casos en los que NECESITEMOS asumir que eso es una causa de algo, en vez de serlo SÓLO el hecho (natural) de que nosotros lo pensemos.
Pero que yo piense "6x2=12" no es independiente de que, jugando a multiplicar, seis por doce sea igual a doce. Que en ese juego, seis por dos sea igual a doce y no a trece, es lo que hace que si voy a la compra y quiero doce huevos, con dos cajas seis cumplo el objetivo. Y lo mismo pasa con las reglas del mus, sobre todo si nos jugamos los cuartos o perder te cuesta un disgusto. Que seis por dos sea igual a doce es tan necesario para que yo haga bien la compra como que el hecho de que lo piense. Así que el contenido del juego, y no solo el hecho de jugarlo, es causa de lo que pasa a todos los niveles por ser ese y no otro.
ResponderEliminarPulgano
ResponderEliminar¿pero quién dice nada de ilusiones? ¡¡¡Pues claro que nuestros deseos son reales, nuestros pensamientos tienen realmente contenido semántico, y muchas de nuestras acciones son realmente voluntarias!!! Lo que digo no es que nuestro cerebro sea "meramente mecánico Y POR LO TANTO NO INTENCIONAL": al contrario, lo que digo es que OTROS SISTEMAS FÍSICOS no tienen por qué no ser intencionales por el hecho irrelevante de no estar hechos de una masa sanguinolenta.
.........es que no termino de ver la correlación, Jesús. Un sistema físico que no sea, como tu dices, feito de masa samguinolenta, no parece que pueda tener esa intencionalidad. Lo que parece que tendrá será causalidad- determinada por leyes físicas- o la que le propone el autor del sistema. ¿Como halla este sistema el valor de verdad de una proposición, desde un razonamiento interno, si sólo está dirigido por una "intencionalidad" creada por otro?Vale, también se que la mayoría responde de forma mecánica a las cuestiones.
EliminarMasgüel
ResponderEliminarque yo piense "6x2=12" no es independiente de que, jugando a multiplicar, seis por doce sea igual a doce.
¡Efectivamente! Pero no se trata de una dependencia CAUSAL. Lo que deseamos en nuestros procesos de pensamiento es (idealmente) que sean de tal manera que nos lleven a pensar que X es verdad si y sólo si X es verdad. Pero eso "si y sólo si" es una mera relación lógica, no una relación de causa y efecto, al menos cuando X es una proposición cuyo valor de verdad no puede ser afectado causalmente por nada de lo que suceda en el universo. (Fíjate en la diferencia entre "querer creer que 'hay un león cerca' es verdad si y sólo si hay un león cerca", y "querer creer que 'si p, y p implica q, entonces p' si y sólo si es verdad que si p, y p implica q, entonces q". Para conseguir lo primero, nuestro sistema cognitivo tiene que interactuar causalmente CON UN ENTORNO EN EL QUE HAY LEONES, HAY SITIOS MÁS CERCA O MÁS LEJOS, ETC., de modo que nuestro sistema cognitivo se "ajuste" a ese entorno; para conseguir lo segundo, en cambio, ¿con qué tenemos que "interactuar"? ¿y cómo podríamos hacerlo?
Las variables no te arrancan la cabeza como los leones, pero no hay mucha diferencia entre calcular cuántos leones hay cerca y saber lo que le pasa a q después de una noche de juerga con p. El cerebro no distingue entre leones percibidos y leones soñados, pero en ambos casos hace operaciones con leones muy similares a las que hace con variables.
ResponderEliminarMasgüel
ResponderEliminarEl cerebro no distingue entre leones percibidos y leones soñados, pero en ambos casos hace operaciones con leones muy similares a las que hace con variables.
Exacto: pero lo importante no es la diferencia entre leones y variables, sino entre proposiciones (ya sean sobre leones o sobre variables) que son verdaderas en función de lo que hagan los leones o las variables, y proposiciones que son verdaderas independientemente de lo que hagan los leones y las variables.
Por aquí nos salimos. Lo importante no es que sean verdades de razón o verdades de hecho. No hace falta siquiera que sean verdades. Con las palabras se puede jugar a muchas cosas, además de informar. La cuestión es que en el juego de las abstracciones tiene efectos causales. El juego del honor es la causa de que el moro malo mate a su hija. ¿Es solo un juego de hacer ruido con la boca y matar mujeres?. No es un juego sobre una abstracción llamada honor, que por lo visto se mancilla haciendo guarreridas. Si la abstracción fuese otra, yo que sé, como en la hierogamia o en la prostitución sagrada, otro gallo muy distinto canta para las hijas.
ResponderEliminarMasgüel
ResponderEliminaren efecto, por ahí la discusión degenera.
Pulgano
ResponderEliminarUn sistema físico que no sea, como tu dices, feito de masa samguinolenta, no parece que pueda tener esa intencionalidad.
Bueno, eso TE lo parece A TI, a mí no me lo parece en absoluto. Lo que yo veo es que el cerebro está hcho tan de átomos, y nada más que de átomos, como un ordenador o cualquier entidad extraterrestre que pudiera desarrollar una conducta tan compleja como la nuestra. Todas las propiedades que podamos tener los humanos consistirán, de alguna manera, en que tenemos la fortuna de que nuestros átomos están colocados de cierta manera (y relacionados de tales otras maneras con los átomos de otros ocupantes del universo). Y eso vale para todas nuestras propiedades, incluida la de "tener estados intencionales".
.
¿Como halla este sistema el valor de verdad de una proposición, desde un razonamiento interno, si sólo está dirigido por una "intencionalidad" creada por otro?
Pues yo no tengo ni idea, exactamente igual que no tenga ni la más remota idea sobre cómo lo hace un sistema que está "dirigido" por la selección natural y las demás peculiaridades de la biología.
Bien, de acuerdo en lo fundamental, pero surge una pregunta: ¿Puede un ordenador con sus propiedades físicas, circuitos, información, etc, tener intencionalidad? Porque lo que si podría hallar es un valor de verdad de una proposición cualquiera, de acuerdo a sus propiedades y mecanismos internos- fijados por un autor cualquiera. Al fin y al cabo actúa como un sistema.
EliminarPulgano: olvídate de que un ordenador es un ordenador, y un ser humano, un ser humano; ambos son (somos) sendos montones de átomos colocados de una cierta manera. Que poseamos intencionalidad dependerá única y exclusivamente de cómo estén colocados nuestros átomos (en relación unos a otros, y con el resto de las cosas), y para un ordenador o un alienígena, igual.
ResponderEliminar¡Pues viva el azar evolutivo!
ResponderEliminar