13 de noviembre de 2012

PROGRESO CIENTÍFICO Y APROXIMACIÓN A LA VERDAD (5)

Recordemos la "reconstrucción" que en la anterior entrada de la serie había propuesto para la noción intuitiva de "grado en el que nos parece que una teoría T se ha aproximado a la verdad, a la luz de los datos empíricos E"
.
Vs(T,E) = p(T,E)/p(TvE).
.
Como indicaba al final, esta fórmula (que, además, se puede modificar para tener en cuenta el carácter aproximado de E, y el hecho de que está constituída por numerosas regularidades empíricas independientes entre sí) posee propiedades de lo más interesante. Pero antes de enumerarlas, indiquemos cuál es el objetivo principal de tener una definición como ésta: se trata de tener una reconstrucción matemática de los criterios comparativos que nos permiten decir si una teoría nos parece mejor que otra, o si una teoría nos parece en cierto momento mejor o peor que lo que nos parecía antes.
.
Bueno, pues vamos con las propiedades. En la próxima (y supongo que última, o penúltima) entrada, comentaré algunas implicaciones más "filosóficas" que también creo que son interesantes.
.
1) La probabilidad de una tautología es siempre igual a 1 (pues p(Taut, E) y P(Taut v E) siempre son 1, sea cual sea E). Nótese que 1 es un valor "bajo", pues Vs puede tener cualquier valor positivo.
.
2) Si los datos E confirman T, entonces Vs(T,E) = 1/p(T). Esto no suele ser una situación habitual: lo corriente es que busquemos teorías que expliquen los datos, y por lo tanto, una teoría T tales que E se siga de ella, no que T se siga de E. Pero podemos considerar que esto se aplica a cada una de las leyes empíricas cuya conjunción es E; lo que nos dice este resultado es que esas leyes serán tanto más valiosas científicamente cuanto menor sea su probabilidad a priori, es decir, cuanto más inesperadas sean.
.
verosimilitud david deutsch explicación difícil de variar
.
3) Si T explica E (es decir, si E se sigue de T), entonces Vs(T,E) = p(T)/p(E)^2. De aquí se sigue, en primer lugar, que, de dos teorías que consigan explicar E, la que nos parecerá más verosímil es la que es menos implausible a priori. En segundo lugar (o, lo que viene a ser lo mismo), la verosimilitud de una teoría que explica los hechos empíricos es inversamente proporcional a la probabilidad de que E sea verdad y T sea falsa (o sea, p(E&¬T): el área anaranjada en la imagen), o sea, si T está "dentro" de E, entonces cuanto más "espacio" ocupe dentro de E, más verosímil nos parecerá; o sea: cuanto menos espacio quede para teorías que sean incompatibles con E pero que también expliquen E, más verosímil nos parecerá T. Esto puede entenderse como una reconstrucción de la idea de David Deutsch de que las buenas explicaciones son las que resultan "difíciles de variar", pero entendiendo por "variar" la probabilidad de que HAYA algunas otras teorías T' que también expliquen E (probabilidad que es igual al área anaranjada), y no la probabilidad de que NOSOTROS ENCONTREMOS alguna de esas teorías (probabilidad que dependerá de otros factores, no sólo de cómo es el mundo o de cómo nos parece que es). Deutsch creo que confunde ambos sentidos, y eso hace de su explicación del asunto una explicación poco explicativa.
.
Por cierto, este resultado también implica que, para que una teoría T que explica los hechos empíricos E sea mejor que una "explicación tautológica" (cuya verosimilitud, recordemos, era igual a 1), entonces debe cumplirse que p(T,E) > p(E), lo que parece un requisito razonable (es decir, visto al revés, si la probabilidad de que T sea verdadera bajo el supuesto de que E es verdadero, es incluso menor que la probabilidad a priori de que E sea verdadero, entonces es que T es condenadamente mala: es incluso peor que no decir nada).
.
4) Si se confirma una nueva predicción F de la teoría T (es decir, una no incluida en aquellas cuya conjunción es E), entonces su verosimilitud aumenta, es decir, Vs(T,E) < Vs(T,E&F). Esto se cumple tanto si entendemos la "predicción" en el sentido de que T implica F, como en el sentido de que T únicamente implica que, si E es verdad, también es verdad F, como en el sentido de que p(F,T&E) > p(F,T).
.
Una de las propiedades más chorra y que a mí más me gusta es la siguiente:
.
5) Vs(T,E) es siempre menor o igual que 1/p(T) y que 1/p(E). Esta propiedad es importante porque para cada teoría posible, siempre hay un límite a la verosimilitud que puede alcanzar, y para conjunto de datos empíricos, siempre hay un límite a la verosimilitud que pueden conceder a cualquier teoría. Es decir, la ciencia siempre nos presentará situaciones en que lo único que podremos hacer para tener teorías aún más verosímiles que las que tenemos es, o bien inventar teorías cuya plausibilidad a priori sea más baja que la de las teorías anteriores, o bien encontrar nuevos datos empíricos, y generalmente ambas cosas. Esto hace honor a la idea popperiana de que la ciencia es una "búsqueda sin término". Y por otro lado, también nos muestra que la plausibilidad a priori de las teorías (lo "razonables" que nos parezcan, con independencia de los datos empíricos) es un arma de doble filo: según el punto 3 no puede ser muy baja, pero según el punto 5, habrá veces en que tengamos que inventar teorías muy implausibles. ¿Quién dijo que hacer buena ciencia tuviera que ser fácil?
.
6) El valor esperado de la funcion Vs(T,E) es igual a la "razón de probabilidad", p(T,E)/p(T), que a su vez es igual a la "razón de likelihood", p(E,T)/p(E). (Lo siento, pero la prueba de este teorema es un poco larga, y los que tengáis curiosidad la podréis ver en el libro Mentiras a medias, o en este artículo, (pgs., 356-357)). La noción matemática de "valor esperado" es aquí la misma que en el caso de Niiniluoto que vimos en la entrada tercera: cuál es el valor de Vs que esperaríamos en función de la probabilidad que E asigna a cada uno de los mundos posibles que son compatibles con E. Lo que significa este teorema es que la percepción de la verosimilitud de una teoría no es la misma cuando los científicos esperan que haya cambios importantes en E que cuando no lo esperan; en el primer caso, tenderán a considerar más razonable el valor esperado de Vs, mientras que en el segundo, tomarán E como (relativamente) "definitivo", y juzgarán las teorías directamente a través de Vs, no de su valor esperado. El caso es que las "razones" de probabilidad o likelihood son herramientas estadísticas habituales para la comparación de teorías, y el hecho de que nuestro modelo implique que eso ha de ser así es un punto a su favor.
.
7) Puede ocurrir que una teoría T' explique más hechos que otra T, pero parezca menos verosímil que ella. Este resultado tiene en cuenta la versión "c" del sentido de "aproximación" que indicamos en la entrada anterior: considerar la verosimilitud de una teoría como función de su coherencia con algún subconjunto de los hechos conocidos, no necesariamente todos. Esto ocurrirá, naturalmente, si T' explica más hechos Ei que T, pero la plausibilidad a priori de T' es mucho menor que la de T. Esto algo que suele ocurrir en las "revoluciones científicas" según Kuhn: el paradigma "nuevo" tiene menos anomalías que el "viejo", pero los defensores del viejo siguen defendiendo éste porque el paradigma nuevo les parece que hace supuestos intolerablemente implausibles.
.

88 comentarios:

  1. Esto puede entenderse como una reconstrucción de la idea de David Deutsch de que las buenas explicaciones son las que resultan "difíciles de variar", pero entendiendo por "variar" la probabilidad de que HAYA algunas otras teorías T' que también expliquen E

    Pues entonces tenemos un problema, porque esa probabilidad es siempre 1, la certeza absoluta: para cualquier conjunto de datos que se nos ocurra, habrá siempre infinitas teorías posibles capaces de explicarlos.

    ResponderEliminar
    Respuestas
    1. EI
      entendiendo por "variar" la probabilidad de que HAYA algunas otras teorías T' que también expliquen E

      Pues entonces tenemos un problema, porque esa probabilidad es siempre 1


      Perdón, lo he expresado mal: la probabilidad a la que me refiero es la correspondiente al área en naranja, que no es la probabilidad de que "haya alguna teoría" que sea incompatible con T pero que explique E, sino la probabilidad de que "alguna teoría que sea incompatible con T pero que explique E SEA VERDADERA".
      Técnicamente, es la probabilidad SUBJETIVA (pues esas áreas siempre las interpreto como probabilidades subjetivas) de la proposición E&¬T.

      Eliminar
  2. Hago el comentario con la prudencia de quien sabe que no ha entendido ni la décima parte de esa ensalada de fórmulas de ahí arriba.

    ResponderEliminar
  3. “Esto puede entenderse como una reconstrucción de la idea de David Deutsch de que las buenas explicaciones son las que resultan "difíciles de variar", pero entendiendo por "variar" la probabilidad de que HAYA algunas otras teorías T' que también expliquen E (probabilidad que es igual al área anaranjada), y no la probabilidad de que NOSOTROS ENCONTREMOS alguna de esas teorías (probabilidad que dependerá de otros factores, no sólo de cómo es el mundo o de cómo nos parece que es). Deutsch creo que confunde ambos sentidos, y eso hace de su explicación del asunto una explicación poco explicativa”.

    ¿Y qué más da que sea Popper, Deutsch o cualquiera de nosotros los que hallemos una teoría T que también explique E? Al fin y al cabo será una teoría aproximada a cómo el mundo es. Te atrincheras en el “mundo qué es” como un ente irreductible, ¿entonces para qué elaborar enunciados acerca del mismo? El mundo es lo qué es, y los muchos mundos son lo qué son, pero resulta que el mundo o los muchos mundos y las teorías que lo/los explica/an se construye/en por observadores que son una parte del mundo y por tanto hay un sesgo subjetivo y/o verosímil tan irreductible como el mismo mundo. Las buena teorías, no es que puedan ser variadas/mejoradas (o empeoradas), sino que son verosímiles o inverosímiles respecto del mundo que describen. Me pregunto si confundes una teoría consistente con el instrumento, en este caso tu cadena de funciones y fórmulas. El instrumento es eso, una herramienta, pero no debemos perder de vista qué pretendemos medir y teorizar sin confundir la teoría con el instrumento.

    ResponderEliminar
    Respuestas
    1. No entiendo lo que me criticas, Anónimo. ¿Podrías explicarlo un poco más claramente?

      Eliminar
  4. Jesús,

    Vale. Entonces tú estás diciendo que la cercanía a la verdad de una teoría es igual a su probabilidad de ser cierta (o, lo que es igual: a la probabilidad de que no sea cierta otra).

    Yo no veo que esto suponga una reconstrucción del concepto deutschiano de variabilidad, que va por otro lado, y además me plantea dos dudas:

    - ¿Cómo se calcula esa probabilidad?

    - ¿Están igualmente alejadas de la verdad todas las teorías refutadas, puesto que su probabilidad de tener alternativas verdaderas incompatibles con ellas es absoluta?

    ResponderEliminar
  5. EI
    Entonces tú estás diciendo que la cercanía a la verdad de una teoría es igual a su probabilidad de ser cierta
    ¡¡¡¡BUAAAAA!!!! ¿¿¿Cómo puedes pensar que lo que "estoy diciendo" es que la cercanía a la verdad es IGUAL a su probabilidad??? Al contrario: lo que hago es tomar las funciones de probabilidad, p(T), p(T,E), p(T,TvE), p(E), etc., y construir con ellas una función DISTINTA, que es Vs=p(T,E)/p(TvE), que considero que es nuestra mejor reconstrucción de la "idea intuitiva" de "aproximación a la verdad". Pero obviamente la función Vs no es "igual" a ninguna probabilidad, porque no tiene las propiedades matemáticas de una función de probabilidad.
    .
    Lo que ocurre es que la función Vs, en el CASO de aquellas teorías que explican los hechos conocidos (E), es PROPORCIONAL a la función de probabilidad a posteriori (pues en este caso, Vs(T,E) = p(T)/[p(E)^2]), o sea, de dos teorías tales que AMBAS expliquen todos los hechos conocidos, nos parecerá más verosímil exactamente aquella que nos parezca más probable, tanto a priori como a posteriori. Esto implica, por ejemplo, que una teoría que explique E, pero cuya probabilidad a priori sea para nosotros, por las razones que sea, ridículamente improbable, pues nos parecerá también ridículamente INverosímil (en mi sentido, o sea, nos parecerá extremadamente alejada de la verdad).
    Eso no quiere decir que una teoría ridículamente improbable no pueda LLEGAR a tener una verosimilitud la hostia de alta: lo que ocurre es que necesitamos en este caso que p(T,E) sea mucho más elevada que p(E), lo que parece razonable: necesitamos que la teoría explique o prediga descubrimientos empíricos que nos parezcan A PRIORI (o sea, antes de descubrirlos) la hostia de improbables.
    .
    Yo no veo que esto suponga una reconstrucción del concepto deutschiano de variabilidad
    Pues a mí me parece bastante claro: una teoría exitosa (o sea, que explica E) "fácil de variar" sería una teoría tal que p(T,E) es muy pequeño, o sea, p(¬T,E) es muy alto: juzgamos que, aunque E explique T, es muy probable que T no sea verdad, o sea, que HAYA alguna otra teoría T' que sea VERDADERA, que sea contradictoria con T, pero que también explique E, aunque no tengamos ni pajolera idea de cómo DESCUBRIR esa teoría.
    .
    ¿Cómo se calcula esa probabilidad?
    En general, de ninguna manera. Mi enfoque es bayesiano, es decir, parte del supuesto de que TODA determinación (a posteriori) de alguna función de probabilidad parte de la existencia de algunas estimaciones de probabilidad que el sujeto toma como dadas, que le parecen intuitivas, que no tiene ni idea de dónde vienen, pero que no puede dejar de aceptar, es decir, toma como dadas estimaciones de probabilidad A PRIORI. Lo que hace el bayesianismo es poner ciertas condiciones a esas funciones a priori de tal modo que puedan utilizarse como probabilidades a posteriori; lo que añade mi teoría es que con esas funciones de probabilidad se pueden definir otras funciones QUE NO SON DE PROBABILIDAD, sino de "apariencia subjetiva de proximidad a la verdad", o sea, verosimilitud.
    .
    ¿Están igualmente alejadas de la verdad todas las teorías refutadas
    Depende: con la función Vs(T,E) = p(T,E)/p(TvE), SÍ. Pero cuando se tienen en cuenta los factores b y c que indicaba en la entrada anterior (grados de precisión, y estructura interna de E), entonces es posible que dos teorías refutadas (o sea, tales que E implica ¬T) tengan grados de verosimilitud distintos de cero y distintos entre sí.

    ResponderEliminar
  6. Jesús,

    ¿¿¿Cómo puedes pensar que lo que "estoy diciendo" es que la cercanía a la verdad es IGUAL a su probabilidad???

    Hostias, perdona: quería decir "proporcional", claro.

    juzgamos que... es muy probable que T no sea verdad, o sea, que HAYA alguna otra teoría T'... aunque no tengamos ni pajolera idea de cómo DESCUBRIR esa teoría.

    Por eso digo que tu propuesta no "reconstruye" la deutschiana. Deutsch entiende que no tenemos ninguna forma de calcular la probabilidad de que una teoría sea falsa, y que pretender lo contrario son ganas de hacerse trampas en el solitario (perdón por el latiguillo periodístico) y de querer presentar como razones nuestras corazonadas. De hecho, el concepto de probabilidad (y su prima la credibilidad) no tiene demasiada importancia en el sistema deutschiano, donde lo fundamental son -como ya discutimos- las justificaciones.

    ¿Cómo se calcula esa probabilidad?
    En general, de ninguna manera.


    Entonces no parece que ganemos demasiado en rigor sino, a lo sumo, en una apariencia de rigor. El centro de la cuestión sigue estando en el valor subjetivo que los expertos en una materia conceden a ciertas teorías y argumentos.

    Y ahí está, creo, la confusión principal. Lo racional es apostar por aquellos resultados que son más probables. En el enfoque bayesiano, sin embargo, ponemos el carro delante de los bueyes y decidimos que lo racional es considerar más probable aquello por lo que estaríamos dispuestos a apostar.

    cuando se tienen en cuenta los factores b y c que indicaba en la entrada anterior (grados de precisión, y estructura interna de E), entonces es posible que dos teorías refutadas (o sea, tales que E implica ¬T) tengan grados de verosimilitud distintos de cero y distintos entre sí.

    Cuando dices que "es posible", ¿es una forma de hablar o quieres decir que no sabes con certeza si es así? (No es una pregunta retórica, realmente no lo entiendo. Todo esto es muy complicado para mí y debo de estar miccionando en la periferia del macetero).

    ResponderEliminar
  7. Discrepancias aparte, tu propuesta me parece muy potente (hasta donde soy capaz de comprenderla) y la mayor parte de las consecuencias que enumeras aquí me parecen acertadas y fecundas. Que se siga de tu fórmula el hecho de que los resultados inesperados tienen un valor especial en ciencia, por ejemplo, me parece espectacular.

    Creo que no pararé por aquí hasta el lunes. Un saludo.

    ResponderEliminar
  8. Mil gracias, EI.
    Con respecto al tema de la probabilidad subjetiva, es cierto que en el fondo se trata de "corazonadas", o más bien, de que cualquier cálculo de probabilidades se basa en dos cosas: la interacción entre algunos datos y algunas corazonadas, los datos solos no permiten inferir ninguna probabilidad, y las corazonadas solas tampoco sirven para mucho. Deutsch piensa que podemos prescindir de la parte de "animal spirit" que son las "corazonadas", pero yo pienso que no, que sin ellas sencillamente no podemos "arrancar" el proceso de razonamiento empírico, es decir, el proceso de extraer información sobre lo desconocido a partir de la información conocida. Digamos que la probabilidad subjetiva es a nuestro pensamiento como las enzimas son a nuestros alimentos: por mucho que comamos, sin ellas no podemos asimilar los nutrientes, y por mucha información que metamos en nuestros argumentos, sin alguna "intuición animal" que nos permita traducir esa información en términos de "probable o improbable", tampoco nos sirve para nada esa información;naturalmente, esas intuiciones pueden estar muy erradas, pero es el resultado de la contrastación de las predicciones que hacemos gracias a ellas lo que nos permite corregirlas.

    En concreto, si tenemos una teoría T que explica E (los hechos conocidos), pero nuestra "corazonada" no nos dice NADA sobre lo probable que es que T sea verdad (o sea, si no tenemos NINGUNA intuición sobre si p(T,E) es alto o bajo), entonces no podemos tener NINGUNA respuesta a la pregunta siguiente: "¿cómo de probable es que sea verdad la predicción F, que se sigue de T, pero que no se sigue de E?".
    En cambio, si nuestras intuiciones dicen que p(T,E) es alto, tendremos bastante confianza en que F se cumplirá, mientras que si p(T,E) es muy bajo (recuerda que T implica E, pero aun así, puede que p(¬T,E) sea muchísimo mayor que p(T,E), entonces pensaremos que lo más probable es que F sea falso. Naturalmkente, DESPUÉS de observado si se cumple F o no, si vemos que se cumple tendremos que p(T,E&F) es mayor que p(T,E), y por lo tanto, Vs(T,E&F) será también mayor que Vs(T,E).

    ResponderEliminar
  9. Sigo: lo de "es posible" quiere decir simplemente que habrá casos en que Vs(T,E) es alto y casos en que Vs(T',E) sea bajo, aunque tanto T como T' estén refutados por E.

    ResponderEliminar
  10. Bien, confirmo mi grata impresión plasmada en el comentario a la entrada anterior porque soy de la opinión de que las corazonadas o probabilidades subjetivas no son más, -ni menos- que barruntos científicos realizados desde el conocimiento experimental y teórico adquirido.

    ResponderEliminar
  11. Jesús:

    Es muy estimable tu intento de ligar la verosimilitud de una teoría a lo improbable que sea a priori y a lo probable que sea que los datos sean verdaderos.

    Lo que no acabo de ver es qué progreso hay en esto con referencia a la inferencia bayesiana y de qué manera escapas a la crítica de Tichy -lo sé, me repito, pero no me convenciste la vez anterior- a la hora de contar casos favorables o no favorables mejor que Popper o que los científicos experimentales antes de tu artículo y entradas.

    Siempre se enseña la probabilidad condicional y las falacias del falso positivo. Creo que un filósofo puede y debe explicar cómo es que los científicos progresan haciendo lo que hacen, pero me da la impresión de que ya estaba explicado.

    ResponderEliminar
    Respuestas
    1. Sursum:
      Es muy estimable tu intento de ligar la verosimilitud de una teoría a lo improbable que sea a priori y a lo probable que sea que los datos sean verdaderos
      Gracias. Pero permíteme que señale que es justo al revés: una teoría T que explique los datos empíricos E será tanto más verosímil cuanto más PROBABLE A PRIORI (y en este caso, también a posteriori) sea T, y cuanto más IMPROBABLES A PRIORI sean los datos E. Es decir, una buena teoría tiene que combinar dos virtudes que generalmente van en sentido contrario (y por eso es tan difícil dar con ellas): sus postulados tienen que parecernos lo más "plausibles", "lógicos", "razonables".... que sea posible, pero tiene que generar predicciones lo más "sorprendentes", "implausibles" e "inesperadas" que sea posible.
      .
      Lo que no acabo de ver es qué progreso hay en esto con referencia a la inferencia bayesiana
      Pues muy sencillo:
      1º) Esto no va "en contra" de la inferencia bayesiana, sino que la presupone; la inferencia bayesiana sirve para estimar los valores de las funciones que entran en la definición de Vs.
      2º) Pero va MÁS ALLÁ de la inferencia bayesiana: la función de probabilidad bayesiana SÓLO nos dice cómo de probable es que cierto enunciado, hipótesis, teoría, etc., sea verdadero, en función de la evidencia empírica que tenemos, pero no nos dice por qué, si ya tenemos algunos enunciados cuya probabilidad es igual a 1 (o prácticamente igual a 1), tendremos que buscar OTROS. En particular, si ya tenemos E (los hechos empíricos conocidos en un momento dado, cuya probabilidad es 1 o prácticamente 1, pues en eso consiste en que los demos por "conocidos"), ¿para qué tenemos que esforzarnos en buscar MÁS hechos empíricos? El bayesianismo dice cómo ajustar nuestras creencias sobre la probabilidad de las hipótesis en función de la evidencia empírica, pero no nos da ninguna razón por la cual sea necesario ACUMULAR más evidencia empírica. En cambio mi propuesta sí que permite explicar por qué la ciencia es una "búsqueda sin término": es lo que dice el punto 5.
      .
      sigo

      Eliminar
    2. sigo
      de qué manera escapas a la crítica de Tichy
      Muy sencillo: escapo de la crítica de Tichy, no de alguna iNTERPRETACIÓN de lo que la crítica de Tichy "significa"; y escapo simplemente porque mi definición de verosimilitud es formalmente distinta de la de Popper, y no hay manera de APLICARLE la crítica de Tichy. Recuerda que esta crítica decía LITERALMENTE lo siguiente: si A es una teoría falsa, y A tiene todas las consecuencias verdaderas que tiene otra teoría B, entonces habrá algún enunciado falso X que se seguirá de A y no se seguirá de B, y por lo tanto, no puede cumplirse una de las cláusulas de la definición de verosimilitud de Popper para que A sea más verosímil que B (o sea, la cláusula de que B tenga todas las consecuencias falsas de A). Es IRRELEVANTE qué enunciados utiliza la prueba de Tichy para demostrar eso, pues ESO es lo único importante: dos teorías falsas A y B no pueden estar en la relación "A es más verosímil que B" según la definición popperiana de "ser más verosímil que". Como mi definición de verosimilitud NO SE BASA en qué consecuencias se siguen de A y de B, no hay manera de aplicar esta crítica a mi definición; de hecho, es trivial mostrar que es lógicamente posible que haya dos teorías falsas A y B tales que una de ellas sea más verosímil que la otra (supón que A implica B, B implica E, y B es falsa -es decir, que el mundo verdadero es uno de los mundos incluidos en E pero no en B -ni por lo tanto en A-).
      .
      Creo que un filósofo puede y debe explicar cómo es que los científicos progresan haciendo lo que hacen
      En efecto, a eso me dedico yo.

      Eliminar
    3. Jesús:

      "Gracias. Pero permíteme que señale que es justo al revés: una teoría T que explique los datos empíricos E será tanto más verosímil cuanto más PROBABLE A PRIORI (y en este caso, también a posteriori) sea T, y cuanto más IMPROBABLES A PRIORI sean los datos E."

      De nada.

      Una teoría, como enunciado o conjunto de enunciados, no tiene una probabilidad determinada, salvo que la probabilidad de dos enunciados vistos como lógicamente independientes tiene que ser menor o igual que la de cualquiera de ellos. Pero ¿cómo medirías la probabilidad a priori de una hipótesis?

      Lo que medimos es la probabilidad de que los enunciados que se siguen de la teoría sean verdaderos y en ese caso interesa que sean improbables a priori, que sean concretos y específicos y que no sean compatibles con un gran número de datos a priori. Es decir, que nos dé más información que un enunciado al azar.

      Por otra parte, si predecimos un resultado con mucha precisión, es improbable al azar que la predicción sea confirmada. y la confirmación de la predicción corrobora la hipótesis en cuanto que demuestra que contiene más información que el azar.



      "Es decir, una buena teoría tiene que combinar dos virtudes que generalmente van en sentido contrario (y por eso es tan difícil dar con ellas): sus postulados tienen que parecernos lo más "plausibles", "lógicos", "razonables".... que sea posible, pero tiene que generar predicciones lo más "sorprendentes", "implausibles" e "inesperadas" que sea posible."

      Pero ser razonable no es ser probable. Sólo si nos referimos a su coherencia con teorías validadas por la experiencia con anterioridad, o con datos conocidos. La ciencia sólo progresa si las conjeturas razonables explican más datos que no hacerlas.



      "pero no nos dice por qué, si ya tenemos algunos enunciados cuya probabilidad es igual a 1 (o prácticamente igual a 1), tendremos que buscar OTROS. En particular, si ya tenemos E (los hechos empíricos conocidos en un momento dado, cuya probabilidad es 1 o prácticamente 1, pues en eso consiste en que los demos por "conocidos"), ¿para qué tenemos que esforzarnos en buscar MÁS hechos empíricos?"

      Porque podemos si tomamos los datos como aislados la probablidad de que sean verdaderos es 1 (teniendo en cuenta la precisión de las medidas, ese intervalo c al que te refieres), pero NO permiten decir nada más que contar y recontar los mismos hechos, sin que nada más quede explicado. Lo que buscamos es una teoría en la que esos datos no aparezcan como independientes sino liganods por una regularidad. Así, com una teoría y menos datos podemos resumir todo un conjunto infinito de datos presentes, pasados y futuros.

      Un ejemplo. Sales de casa y anotas la matrícula de cada coche que ves. Puedes crear un polinomio tan complejo como necesites y que de el valor de la matrícula en función del ordinal de la observación. Pero eso NO te permite predecir con éxito las siguientes matrículas que observarás. O si lo haces, avisa.


      "no nos da ninguna razón por la cual sea necesario ACUMULAR más evidencia empírica."

      Porque de no hacerlo, podemos tener una ley que explique la caída de las manzanas, otra la de los copos de nieve, otra para la Luna... Eso equivale a decir que se trata de leyes independientes, Pero llega Newton y lo unifica en una sola ley.

      Así, buscamos la ley que tenga como casos particulares otras leyes de rango menor y los datos de nuestras observaciones. Es una búsqueda sin término porque todo conjunto de leyes queda sin explicación hasta que las reducimos a un conjunto menor de leyes independientes, con algunas de ellas como consecuencia de unas pocas o de una, y las que queden sin explicación no son sino una etapa en esa búsqueda que nunca podemos dar por terminada porque nunca -lo has escrito también tú- tenemos la explicación de todo.


      sigue ->

      Eliminar
    4. sigue ->

      "y escapo simplemente porque mi definición de verosimilitud es formalmente distinta de la de Popper, y no hay manera de APLICARLE la crítica de Tichy."

      Sigues necesitando que los datos favorables y no favorables te permitan medir la probabilidad de acertar. Y Tichy tomaba como un dato desfavorable nuevo cada conjunción de uno desfavorable con otros favorables cualesquiera.


      "...mi definición de verosimilitud NO SE BASA en qué consecuencias se siguen de A y de B,..."

      ¿Y cómo mides la probabilidad de que A sea verdadera sino porque de A se siguen a1 a2... an?



      "En efecto, a eso me dedico yo."

      Y por eso te leo. La filosofía no es un parloteo incesante acerca de temas raros con palabras oscuras sino una investigación acerca de cómo podemos conocer lo que conocemos. Es la ciencia que trata sobre las ciencias y sobre su método.

      Eliminar
    5. la probabilidad de LA CONJUNCION DE dos enunciados vistos como lógicamente independientes

      Eliminar
  12. Este comentario ha sido eliminado por el autor.

    ResponderEliminar
  13. Sursum:
    Una teoría, como enunciado o conjunto de enunciados, no tiene una probabilidad determinada,
    Según el bayesianismo, no es que las proposiciones "tengan" una probabilidad o la dejen de tener, sino que el GRADO DE CREENCIA de cada sujeto en la verdad de cada proposición se puede y debe representar mediante una función de probabilidad.
    .
    ¿cómo medirías la probabilidad a priori de una hipótesis?
    De ninguna manera: son meros juicios subjetivos, que dependerán de las intuiciones (o, como decía otro comentarista, "corazonadas") de cada sujeto. La misma proposición X puede tener una probabilidad (a priori o a posteriori) para un sujeto, y otra probabilidad distinta para otro. Lo único que se garantiza en el bayesianismo es que, cuando la cantidad de información que comparten dos sujetos tiende a infinito, sus probabilidades subjetivas tienden a igualarse.
    Naturalmente, también está el principio conocido en inglés como "principal principle", que dice que si en algún caso existen probabilidades OBJETIVAS (p.ej., frecuencias empíricamente dadas), lo racional es ajustar las probabilidades subjetivas a estas.
    .
    si predecimos un resultado con mucha precisión, es improbable al azar que la predicción sea confirmada. y la confirmación de la predicción corrobora la hipótesis en cuanto que demuestra que contiene más información que el azar.
    Eso es exactamente una de las intuiciones de las que mi modelo pretende dar cuenta.
    .
    ser razonable no es ser probable
    Bueno, estoy refiriéndome con "razonable" a lo que los bayesianos considerarían que influye en la función de probabilidad subjetiva apriori de cada sujeto. No niego que habrá otros sentidos de "razonable".
    .
    Porque podemos si tomamos...
    No te pregunto por qué dirías tú que necesitamos más y más datos; digo que en el bayesianismo no hay una explicación convincente de por qué los necesitamos, y mi modelo en cambio lo implica como una cuestión trivial.
    .
    sigo

    ResponderEliminar
  14. sigo


    buscamos la ley que tenga como casos particulares otras leyes de rango menor
    Por supuesto, pero insisto: el bayesianismo no explica por qué, y mi modelo sí: ¿por qué es mejor tener UNA teoría -es decir, un conjunto pequeño de hipótesis- que MUCHAS teorías lógicamente independientes entre sí -cada una de ellas con más o menos el mismo número de hipótesis que la primera teoría-, pero que permitan predecir los mismos hechos empíricos que aquélla? Pues porque la probabilidad a priori de la primera teoría, que está formada por menos hipótesis independientes, tenderá a ser mucho mayor que la probabilidad de la conjunción de todas esas teorías independientes.
    .
    Sigues necesitando que los datos favorables y no favorables te permitan medir la probabilidad de acertar
    Pero eso es algo COMPLETAMENTE DIFERENTE de la demostración de Tichy. Y es una necesidad que se satisface directamente una vez que uno asume la existencia de grados de creencia subjetivos en las proposiciones, tales que satisfacen los axiomas de la teoría de la probabilidad.
    .
    Tichy tomaba como un dato desfavorable nuevo cada conjunción de uno desfavorable con otros favorables cualesquiera.
    NO: Tichy ni tomaba ni dejaba de tomar nada de eso; lo suyo es una demostración LÓGICA, que es totalmente independiente de la INTERPRETACIÓN EPISTEMOLÓGICA que le queramos dar a los términos que aparecen en ella. El caso es que el teorema de Tichy muestra que la definición de Popper es inaplicable; esa es su única utilidad y relevancia. La única moraleja relevante del teorema de Tichy es que una definición apropiada de verosimilitud no debe permitir derivar ese teorema, y ése es el caso con mi definición.
    .
    ¿Y cómo mides la probabilidad de que A sea verdadera sino porque de A se siguen a1 a2... an?
    Insisto, eso es irrelevante para la cuestión de si el teorema de Tichy se aplica a mi definición o se deja de aplicar. Y además, como las funciones de probabilidad que estoy considerando son subjetivas, no hace falta "medirlas". Lo único que se exige es que sean coherentes con los axiomas de Kolmogorov (p.ej. que si T implica E y F, entonces p(T,E) sea menor o igual que p(T,E&F)).
    .

    ResponderEliminar
  15. Por supuesto, pero insisto: el bayesianismo no explica por qué, y mi modelo sí:

    Como que el bayesianismo no explica esto?? La explicacion que dices da tu modelo no es mas que teoria de probabilidad pura y dura, P(A,B) <= P(B), que entra en cualquier calculos sobre priors.

    El bayesianismo dice cómo ajustar nuestras creencias sobre la probabilidad de las hipótesis en función de la evidencia empírica, pero no nos da ninguna razón por la cual sea necesario ACUMULAR más evidencia empírica.

    Como que no? La utilidad de hacer un experimento y acumular mas informacion se considera explicitamente en Bayesian experimental design. Ver

    http://en.wikipedia.org/wiki/Kullback–Leibler_divergence
    http://en.wikipedia.org/wiki/Bayesian_experimental_design#Gain_in_Shannon_information_as_utility
    http://en.wikipedia.org/wiki/Gibbs%27_inequality

    ResponderEliminar
  16. Sursum:
    me alegro de que ya no preguntes de dónde salen los valores de la función p (o, al menos, de que hayas trasladado la pregunta a los autores de los artículos de la wikipedia).
    Con respecto a lo que preguntas, fíjate que, en el modelo bayesiano que mencionas, una vez que hemos conseguido una hipótesis cuya probabilidad a posteriori dada la evidencia E es igual a 1, se ha acabado el juego: ya tenemos la máxima utilidad que podemos alcanzar. En cambio, en mi modelo, si tenemos una teoría T que explica los datos empíricos E y que además éstos confirman plenamente la teoría (o sea, p(T,E) = 1, y p(E,T) = 1), eso no implica que Vs haya alcanzado el máximo valor que puede alcanzar (en este caso, Vs(T,E) = 1/p(E) = 1/p(T)). Lo que implica mi modelo es que en ese caso, para aumentar la verosimilitud de nuestro conocimiento tendremos que buscar NUEVOS datos empíricos, y sobre todo, alguna hipótesis que explique los nuevos datos empíricos, porque, como en este caso T es equivalente a E, no podrá explicar los datos nuevos.
    Es decir, el bayesianismo permite explicar lo que pasa en el "juego" de intentar confirmar una hipótesis, pero una vez que la hemos confirmado, no nos ofrece ninguna razón para continuar con el juego buscando hipótesis más fuertes. Naturalmente, esto se puede introducir ad hoc en el modelo bayesiano, pero eso: ad hoc.

    ResponderEliminar
  17. Perdona, David, mi comentario anterior iba para ti; me equivoqué y creía que era de Sursum.

    ResponderEliminar
  18. Bueno, yo no preguntaba nada, simplemente objetaba a lo que decias en lo que te cite, que creo que no es asi.

    una vez que hemos conseguido una hipótesis cuya probabilidad a posteriori dada la evidencia E es igual a 1, se ha acabado el juego: ya tenemos la máxima utilidad que podemos alcanzar.

    Tu error es representar el bayesianismo en terminos de confirmacion y refutacion absolutas, cuando _no es ese el caso_. Son grados de probabilidad que pueden tender a 1 o a 0, pero no lo alcanzan nunca. El bayesanismo tal cual ya incorpora de esta manera la "búsqueda sin término" sin ningun mecanismo ad-hoc.

    ResponderEliminar
  19. David
    Por un lado, la cuestión no es si los valores 0 y 1 se alcanzan o si sólo nos aproximamos a ellos: de hecho, hay muchos casos en los que los alcanzamos (al fin y al cabo, la información en la que basamos nuestras estimaciones de probabilidad a posteriori la tomamos como cierta, así como todo aquello que se deduzca lógicamente de esa información).
    Por otro lado, lo que me parece ad hoc es que, en el bayesianismo, sólo hay una forma de conseguir el resultado que dice que, entre las hipótesis H y H', bajo el supuesto de que su probabilidad a posteriori es la misma, la mejor será la que tenga una probabilidad a priori más baja: a saber, la única forma de conseguir esto es meter "a capón" en la definición de la función U(y,X) (en el segundo enlace que me pones) el último factor, o sea -∫log(p(h))p(h)d(h) ). Ese factor se mete únicamente con el fin de conseguir eso que en mi modelo sale sin necesidad de "añadir" nada.

    ResponderEliminar
  20. la información en la que basamos nuestras estimaciones de probabilidad a posteriori la tomamos como cierta, así como todo aquello que se deduzca lógicamente de esa información

    La cuestion si es esa. Las evidencias tiene caracter de ciertas, pero _las teorias en si_ no alcanzan el valor 1.

    No hay mas que ver el denominador de Bayes para ver que la unica forma de que se alcanzara dicho valor requeriria tener la certeza de que _ninguna de la infinites posibles teorias alternativas (conocidas y desconocidas) podrian producir el mismo resultado, E.

    De ahi la utilidad de acumular informacion adicional, que es lo que se mide conforme en el diseño bayesiano de experimentos, y la busqueda sin termino.

    Por otro lado, lo que me parece ad hoc es que, en el bayesianismo, sólo hay una forma de conseguir el resultado que dice que, entre las hipótesis H y H', bajo el supuesto de que su probabilidad a posteriori es la misma, la mejor será la que tenga una probabilidad a priori más baja

    Es que el bayesianismo no dice eso. Los enlaces que te pase tienen que ver con la utilidad de la informacion derivada de la observacion, no con distinguir entre teorias con el mismo posterior.

    Si tu modelo habla de preferir entre teorias con los mismos posteriors, entonces ahi _si_ que dices algo que no dice el bayesianismo, pero no en lo de acumular informacion.

    ResponderEliminar
  21. David
    a lo que me refiero es que el bayesianismo (es decir, la tesis de que las creencias de la gente se pueden representar como probabilidades subjetivas, que se actualizan según la regla de Bayes) no determina una función de "utilidad cognitiva" en particular; se puede usar la que citas en la wikipedia, pero también se pueden usar otras, como la que propongo yo, o las que han propuesto otros autores. Cuál sea la "correcta" creo que no es una cuestión que se pueda demostrar con razonamientos meramente matemáticos, sino que, igual que las funciones de utilidad de la teoría económica, serán... las que cada uno tenga: tal vez haya sujetos que valoren (cognitivamente hablando) más unas cosas, y otros que valoren otras. Mi tesis es que una función como la que propongo yo refleja mejor las preferencias cognitivas que los científicos REVELAN al seguir ciertas pautas metodológicas, pero naturalmente no pretendo haber "captado la verdad", sino sólo haber propuesto un modelo que puede ser más o menos aproximado a la verdad sobre el asunto.
    En particular, como habrás podido ver, en realidad mi modelo permite dar una explicación del modelo bayesiano que indicas, como dice el resultado 6 de esta entrada, al menos en ciertos contextos: p(T,E)/p(T) es equivalente a log(p(T,E)) - logp(T).

    ResponderEliminar
  22. también se pueden usar otras, como la que propongo yo, o las que han propuesto otros autores

    Estoy de acuerdo. Esto me lleva a lo que dije en otro comentario, seria interesante probar como funciona cada una, y ver que equivalencias hay y porque existen. Si tengo tiempo voy a leerme tu pdf en mas detalle.

    En particular, como habrás podido ver, en realidad mi modelo permite dar una explicación del modelo bayesiano que indicas, como dice el resultado 6 de esta entrada, al menos en ciertos contextos: p(T,E)/p(T) es equivalente a log(p(T,E)) - logp(T).

    No se si me explicado bien sobre como se llega a las ecuaciones y por que tienen los terminos que tienen. El punto de partida es medir la desviacion del modelo asi:

    Cuanta informacion voy a necesitar para describir el fenomeno partiendo de las predicciones de mi teoria?

    Cuanta mas informacion necesite, o sea, cuanto mas se desvie mi teoria y me soprenda la realidad, mas informacion necesitare para describirlo. Cuanto mas correctas sean mis predicciones, menos informacion necesitare. Asi que, en efecto, estamos hablando de la entropia relativa, antes y despues de observar nuevas evidencias:

    U = H(P, Q) - H(P)

    Donde Q es la teoria anterior, y P es la teoria actualizada con las evidencias. Asi que partiendo de la teoria de la informacion y bayes se llega de manera natural a las expresiones que se citan en la entrada de la wikipedia, que no son mas que expansiones de lo que acabo de poner yo aqui.

    ResponderEliminar
  23. David
    si que, en efecto, estamos hablando de la entropia relativa, antes y despues de observar nuevas evidencias:

    U = H(P, Q) - H(P)

    Donde Q es la teoria anterior, y P es la teoria actualizada con las evidencias


    No es eso lo que ponía en el enlace: allí dice más bien la diferencia entre la probabilidad a posteriori (o sea, dadas las evidencas) de la teoría, y la probabilidad a priori (la que tiene sin considerar NINGUNA evidencia, ni siquiera "la anterior").
    .
    Cuanta informacion voy a necesitar para describir el fenomeno partiendo de las predicciones de mi teoria?

    Cuanta mas informacion necesite, o sea, cuanto mas se desvie mi teoria...

    Bueno, si tu teoría "se desvía", eso quiere decir que hace alguna predicción falsa, y por lo tanto su probabilidad a posteriori es 0, así que "para describir el fenómeno partiendo de las predicciones de la teoría" lo primero que haría falta sería tirar esa teoría a la basura y buscar otra cuyas predicciones fueran acertadas. No veo que haya tal cosa como "describir un fenómeno partiendo de ciertas predicciones": o bien las predicciones describen el fenómeno, o no lo describen.
    .

    ResponderEliminar
  24. No es eso lo que ponía en el enlace: allí dice más bien la diferencia entre la probabilidad a posteriori (o sea, dadas las evidencas) de la teoría, y la probabilidad a priori (la que tiene sin considerar NINGUNA evidencia, ni siquiera "la anterior").

    Primero, no es diferencia de probabilidades, sino de entropias. Segundo, es a priori _con respecto a la nueva evidencia_, no a priori con respecto a cualquier evidencia! O sea, la teoria Q juega el papel de teoria condicionada con evidencias previas, pero _no las nuevas_ (igual que en una secuencia de actualizaciones bayesianas el prior es el posterior de lo anteriormente inferido). De ahi el valor incremental informativo de la nueva evidencia, y su definicion cuantitativa en terminos de cuantos bits necesitare para describir la realidad.

    Bueno, si tu teoría "se desvía", eso quiere decir que hace alguna predicción falsa, y por lo tanto su probabilidad a posteriori es 0, así que "para describir el fenómeno partiendo de las predicciones de la teoría" lo primero que haría falta sería tirar esa teoría a la basura y buscar otra cuyas predicciones fueran acertadas.

    No, sigues con tu vision absolutista de confirmacion y refutacion. Tu teoria se desvia en tanto en cuanto no otorga la probabilidad "correcta" a lo observado, tiene grados.

    No veo que haya tal cosa como "describir un fenómeno partiendo de ciertas predicciones": o bien las predicciones describen el fenómeno, o no lo describen.

    Creo que te falta el concepto de entropia y su relacion con la compresion de datos. En resumen, una teoria precisa concentra mas probabilidad en lo que va a suceder, por tanto es menos sorprendida, y por tanto puede codificar la realidad de manera mas eficiente, con menos datos.

    http://en.wikipedia.org/wiki/Information_theory#Kullback.E2.80.93Leibler_divergence_.28information_gain.29

    ResponderEliminar
  25. Jesús,

    cualquier cálculo de probabilidades se basa en dos cosas: la interacción entre algunos datos y algunas corazonadas, los datos solos no permiten inferir ninguna probabilidad

    No estoy seguro de entenderte. Yo diría que nuestro cálculo de probabilidades no se basa en corazonadas, sino en teorías. Es una teoría, no una corazonada, la que me dice que es más probable obtener una cara al lanzar una moneda que un seis al lanzar un dado, por ejemplo.

    Deutsch piensa que podemos prescindir de la parte de "animal spirit" que son las "corazonadas", pero yo pienso que no, que sin ellas sencillamente no podemos "arrancar" el proceso de razonamiento empírico, es decir, el proceso de extraer información sobre lo desconocido a partir de la información conocida.

    De nuevo temo estar comprendiéndote mal. ¿Hablamos de creación de teorías o de valoración de teorías ya creadas?

    Si hablamos de creación de teorías, me parece indudable que las corazonadas, la intuición, el "ya verás como los tiros van por aquí", pueden ser fundamentales (aunque quizá no sean imprescindibles).

    Pero nosotros estábamos hablando, creo, de la valoración de teorías ya creadas, y aquí la cosa está menos clara. ¿Qué importa que a un científico le parezca muy probable una futura refutación de la Teoría General de la Relatividad, si todo su trabajo descansa sobre la aceptación de su validez?

    si tenemos una teoría T que explica E (los hechos conocidos), pero nuestra "corazonada" no nos dice NADA sobre lo probable que es que T sea verdad (o sea, si no tenemos NINGUNA intuición sobre si p(T,E) es alto o bajo), entonces no podemos tener NINGUNA respuesta a la pregunta siguiente: "¿cómo de probable es que sea verdad la predicción F, que se sigue de T, pero que no se sigue de E?".

    No comprendo a qué te refieres cuando dices que la predicción F se sigue de T pero no de E. ¿Cómo puede seguirse una predicción de E, es decir, de los hechos? Las predicciones sólo pueden seguirse de una teoría.

    En cuanto a la pregunta de cómo de probable es F, no es cierto que no tengamos ninguna respuesta. Tenemos una: lo que diga T. Para lo que no tenemos ninguna es justo para lo otro, para calcular la probabilidad de que T sea falsa.

    ResponderEliminar
  26. David

    es a priori _con respecto a la nueva evidencia_, no a priori con respecto a cualquier evidencia!
    Claro, obviamente. Pero es arbitrario a partir de cuándo contar como "nueva": ¿la de la última hora?, ¿la del último año?, ¿la del último siglo?
    .
    sigues con tu vision absolutista de confirmacion y refutacion. Tu teoria se desvia en tanto en cuanto no otorga la probabilidad "correcta" a lo observado, tiene grados.
    Bueno, eso depende. La teoría de Copérnico dice que las órbitas de los planetas son circulares, y por lo tanto predice que la probabilidad de observar una órbita elíptica es cero. Si comprobamos que las órbitas son elípticas, no tendremos que "revisar" la teoría de Copérnico, sino sustituirla por otra.
    .

    ResponderEliminar
    Respuestas
    1. Yo no lo veo asi. Para mi la teoria de copernico tiene una probabilidd muy muy baja de ser cierta, pero no es exactamente cero.

      Eliminar
  27. En todo caso, David, no estaría de más que ilustraras con algunos ejemplos cómo funcionaría la aplicación de esas fórmulas en una investigación científica normal y corriente, en particular, en una en la que no hay medidas precisas de probabilidad, sino sólo relaciones lógicas entre enunciados y juicios de plausibilidad, como suele pasar en la mayor parte de los casos.

    ResponderEliminar
    Respuestas
    1. Jesus, como bien sabes, el esquema bayesiano es un modelo idealizado, en la practica normal y corriente los cientificos no siempre calculan probabilidades, ni hacen inferencia formal.

      Ahora bien, en cosmologia se estan utilizando estos metodos de manera creciente, he hecho un google search y tenemos por ejemplo esto:

      http://arxiv.org/pdf/0803.4089.pdf (en concreto 6.2.2)
      http://arxiv.org/pdf/astro-ph/0703191.pdf
      http://www.cambridge.org/gb/knowledge/isbn/item2709977/?site_locale=en_GB (en concreto el capitulo 5)

      Donde se habla de estimar la utilidad de experimentos futuros utilizando metodos similares, por ejemplo el fisher informaton matrix. (por cierto, gracias a esta conversacion me he dado cuenta de que la intuicion que tuve al principio sobre una metrica entre teorias se estudia bajo el nombre de information geometry)

      Eliminar
  28. EI
    Yo diría que nuestro cálculo de probabilidades no se basa en corazonadas, sino en teorías. Es una teoría, no una corazonada, la que me dice que es más probable obtener una cara al lanzar una moneda que un seis al lanzar un dado, por ejemplo
    Lo que se basa (en parte) en "corazonadas" (o sea, juicios subjetivos no reducibles a ningún conjunto de datos objetivos) es cómo de probable nos parecen las teorías en función de los datos. Fíjate que, si sabemos que tanto A como B implican C y D, lo único que podemos inferir de ahí es que p(A,C&D) es mayor que p(A,C), etc. Pero no nos dice CUÁNTO. Dos personas que estén de acuerdo en que A implica C y B implica C, pueden una de ellas considerar que A es más probable que B, y otra que B es más probable que A.
    Naturalmente, podemos tener la "teoría" de que A es mucho más plausible que B, pero eso es a lo que estoy llamando una "corazonada", es decir, un juicio subjetivo.
    .
    Luego sigo

    ResponderEliminar
    Respuestas
    1. “Bueno, eso depende. La teoría de Copérnico dice que las órbitas de los planetas son circulares, y por lo tanto predice que la probabilidad de observar una órbita elíptica es cero. Si comprobamos que las órbitas son elípticas, no tendremos que "revisar" la teoría de Copérnico, sino sustituirla por otra”.

      El núcleo de la teoría de Copérnico, lo que imposibilita su refutación, se basa en dos argumentos:

      1) Copérnico es otro eslabón que se suma a los que creían en la teoría heliocéntrica, creencia que proviene de los egipcios y que atravesó el mundo griego.

      2) Copérnico, como otros antes que él, postuló que la Tierra gira alrededor del sol, luego su teoría es correcta y por tanto no puede ser modificada, aunque sí mejorada.

      Sustituir la teoría de Copérnico equivale a negar el heliocentrismo, ¿entonces cómo sustituyes el núcleo de su teoría? Corregir el asunto de las órbitas refuerza, paradójicamente, la consistencia de la teoría copernicana.

      Eliminar
  29. EI
    sigo:
    lo crucial es el hecho de que las relaciones deductivas que existen entre ciertas proposiciones son IRRELEVANTES para determinar CÓMO DE PROBABLE es una proposición que no se siga lógicamente de ellas. Sea E el conjunto de hechos empíricos conocidos hasta ahora, y que nuestras teorías deben explicar; sea T la mejor teoría que tenemos hasta ahora sobre esos hechos (fíjate que aquí ya hay un problema: puede que la mejor teoría que tengamos -y SUELE ser así- ni siquiera sea capaz de explicar TODO lo que está recogido en E, e incluso puede que algo de lo que está recogido en E CONTRADIGA a T); pero por ponerlo lo más favorable posible, supongamos que estamos en la situación ideal, en la cual T implica E. Obviamente, T implica también otras cosas (predicciones aún no contrastadas), p.ej., F, de modo que F es lógicamente independiente de E. La cuestión es, ¿cómo de probable consideramos que es F antes de contrastarla?
    P.ej. podemos pensar que E es el conjunto de hechos explicados por la teoría de Newton hacia 1750, y F es la predicción de que el experimento de Cavendish dará tal o cual resultado.
    Pues el caso es que conocer las relaciones lógicas existentes entre T, E y F, más nuestra aceptación de E, es INSUFICIENTE para determinar el grado de probabilidad con el que esperamos que ocurra F. Lo que necesitamos para asignar ALGUNA probabilidad a F es conocer cómo de grande es, más o menos, p(T,E), pues lo que sí sabemos es que, como F se sigue de T, p(F,E) será mayor que p(T,E). Si p(T,E) pensamos que es muy pequeña, pues entonces el hecho de que F se siga de T no tiene por qué hacer que F sea significativamente probable; en cambio, si p(T,E) es muy grande (como en el dibujo de esta entrada), entonces todo aquello que se siga de T, consideraremos que es también muy probable.
    .
    Por lo tanto, para que tenga sentido actuar sobre la base de las predicciones de una teoría (es decir, tomando esas predicciones como algo que probablemente se cumplirá, que es lo que hacemos de modo ordinario con nuestras "mejores" teorías) es IMPRESCINDIBLE que consideremos que la probabilidad de que esas teoría sean correctas (o al menos, aproximadamente correctas) sea una probabilidad significativamente alta. Pero como las relaciones deductivas entre las teorías y los hechos con los que las contrastamos es INSUFICIENTE para determinar esa probabilidad, se sigue de ahí que nuestros juicios de probabilidad se basan en ALGO MÁS aparte de las relaciones deductivas entre las teorías y los hechos. A ese "algo más" lo he llamado, siguiendo a otro comentarista, "corazonadas", pero me conformo con llamarlo "juicios subjetivos". Naturalmente, no hay ninguna garantía de que esas corazonadas sean correctas: igual que las teorías, nuestra única forma de justificarlas es sometiéndolas a contrastación.
    .
    ¿Qué importa que a un científico le parezca muy probable una futura refutación de la Teoría General de la Relatividad, si todo su trabajo descansa sobre la aceptación de su validez?
    Pues eso: mostrar que T implica los hechos E que queremos explicar con ella deja INDETERMINADO si p(T,E) es una cifra la leche de alta o ridículamente baja; pero si es ridículamente baja, eso quiere decir que las predicciones que hacemos con T también es posible que sean ridículamente improbables. Dicho de otro modo, "aceptar la validez" de T no consiste SÓLO en aceptar que T implica E, sino también en aceptar que la verdad (al menos la verdad aproximada) de T es SIGNIFICATIVAMENTE PROBABLE dado E. Pues "aceptar la validez" de una teoría significa considerar que podemos tomarla razonablemente como base para los cálculos de nuestras predicciones.
    .
    sigo

    ResponderEliminar
  30. sigo
    No comprendo a qué te refieres cuando dices que la predicción F se sigue de T pero no de E. ¿Cómo puede seguirse una predicción de E, es decir, de los hechos? Las predicciones sólo pueden seguirse de una teoría.
    Pues claro: eso es lo que estoy diciendo. F se sigue de T, no de E. Que el hecho F se cumpla no lo podemos inferir a partir de la premisa "se han cumplido los hechos E", sino que lo predecimos a partir de la premisa "la teoría T es verdadera". Si consideramos que esa premisa es extremadamente improbable, el hecho de que F se siga de T no lo hace probable, y por lo tanto, podemos considerar que F es muy improbable que se cumpla AUNQUE aceptemos los hechos E que T explica tan de puta madre.
    .
    Por otro lado, no olvides que TODO son teorías: los "hechos" incluidos en E también son conjeturas que hemos aceptado tras un proceso de contrastación.
    .
    .
    En resumen, nuestro juicio sobre la "validez" de una teoría, y lo razonable que sea actuar sobre la base de sus predicciones, depende FUNDAMENTALMENTE de cómo de grande sea el área naranja de la figura de arriba (es decir, de cómo sea p(¬T,E) ). Newton lo tenía muy claro cuando se esforzó por mostrar que la ley de la gravedad podía ser DEDUCIDA de las leyes de Kepler (aunque, obviamente, no puede: hacen falta supuestos adicionales, que forman parte de la mecánica newtoniana); igualmente se ve esto claro al leer "El origen de las especies", donde Darwin se esfuerza por DEDUCIR la validez de la tesis de evolución por selección natural a partir de los hechos conocidos sobre los seres vivos, y no al revés.
    .
    In a nutshell: argumentar la "validez" de una teoría consiste en hacer todo lo posible para mostrar que, dado lo que sabemos, es extremadamente IMPROBABLE que la teoría no sea aproximadamente correcta. Deutsch quiere jugar al juego de la ciencia olvidándose de la importancia de los juicios sobre lo probables o improbables que son las proposiciones, y fijándose sólo en las relaciones deductivas entre esta, y eso equivale sencillamente a querer nadar en una piscina sin agua, o, como la paloma de Kant, querer volar eliminando la resistencia del aire.

    ResponderEliminar
    Respuestas
    1. nose si jugar al juego, no creo que sea necesario darle así con todo, nose si me explico?
      mi que Jugar Cahrlie Sheen - juegos gratis, por ejemplo no es un tipo como aparenta ser, yo lo cree como un gran filoso de nuestro tiempo,todo es cuestión de perspectiva y con el cristal con que lo mires.

      Eliminar
  31. EI
    En cuanto a la pregunta de cómo de probable es F, no es cierto que no tengamos ninguna respuesta. Tenemos una: lo que diga T
    No, eso no lo "tenemos" MÁS QUE si aceptamos que es PROBABLE que T sea verdadera. Insisto, es posible que T implique E (los hechos conocidos), pero aún así consideremos que T sea muy improbable, y por lo tanto, el hecho de que F se siga de T sea IRRELEVANTE para determinar si F es probable o improbable.

    ResponderEliminar
  32. Anónimo:
    no seré yo el que niegue la importancia de distinguir el "núcleo" de una teoría y su "periferia", pero entonces la cosa se vuelve aún mucho peor para un bayesianismo naif, pues simplemente no hay manera de estimar las probabilidades de cada hipótesis por separado, más que la pura intuición subjetiva. En la última parte del artículo que cité el otro día hablaba sobre esto.

    ResponderEliminar
  33. Jesús, mi comentario no valora el bayesianismo fuerte o débil sino tu sorprendente afirmación acerca de la refutación/sustitución de la teoría de Copérnico. Podremos sustituir la teoría de Copérnico por contradictoria pero no podremos refutar el heliocentrismo cuyo origen se remonta a la noche de los tiempos. Hay teorías que son irrefutables, al menos en el plano tridimensional, aunque sean mejorables, y el heliocentrismo es una de ellas. El hecho de que las órbitas planetarias circulares predichas por Copérnico se hayan demostrado falsas no sólo no invalida su teoría sino que la refuerza tan pronto se descubrió que dichas órbitas son elípticas. Esto es lo que tienen las buenas teorías, que sus imperfecciones no logran derribarlas.

    ResponderEliminar
  34. Anónimo:
    es que no sé de qué te sorprendes; yo me refería a la teoría de Copérnico, no al heliocentrismo. Si hubiera querido hacer una afirmación sobre el heliocentrismo en general, lo habría hecho así.

    ResponderEliminar
  35. Jesús,

    He leído tu comentario con calma, pero sólo puedo dedicarle unos pocos minutejos a su respuesta, así que disculpa si resulto más caótico que d'habitude.

    Mi intención es exponer una discrepancia y media, pero antes de entrar en faena quiero decirte, porque supongo que estas cosas siempre animan, que tu teoría me parece cada vez más convincente. De hecho voy a decir algo muy gordo: creo que toda esta historia de las probabilidades subjetivas, como la de la cantidad de pruebas necesaria para aceptar una teoría, que discutimos hace un mes, representan una superación de algunas de las tesis de Deutsch que yo he venido defendiendo.

    ResponderEliminar
  36. sigo

    para que tenga sentido actuar sobre la base de las predicciones de una teoría (...) es IMPRESCINDIBLE que consideremos que la probabilidad de que esas teoría sean correctas (o al menos, aproximadamente correctas) sea una probabilidad significativamente alta.

    No es imprescindible. Hay muchas ocasiones en que no es así. Es probable que la inmensa mayoría de los científicos tenga la práctica convicción de que la Teoría de la Relatividad será falsada algún día. Esto, sin embargo, no les impide por lo general aceptar sus predicciones o basar en ella nuevas teorías.

    Una manera más dinámica de plantear esto mismo sería la deutschiana. En lugar de partir de una teoría ya creada, analicemos el momento mismo de su creación. Imaginemos que necesitamos calcular la probabilidad de que ocurra un determinado fenómeno. ¿Qué podemos hacer? En principio, tenemos dos opciones:

    1. Calcularla al azar, a ojo, guiados por nuestras intuiciones.

    2. Analizar la situación y tratar de comprender lo que puede estar pasando, con la esperanza de que esa comprensión nos ayude a calcular la probabilidad.

    Imaginemos ahora que elegimos la segunda opción y que, después de un rato meditando, encontramos una teoría que nos permite calcular la probabilidad de marras. La examinamos, le buscamos errores y no le encontramos ninguno. Nuestra intuición, sin embargo, nos dice que la teoría es pésima. No podemos decir nada concreto contra ella, pero tiene "mala pinta". ¿Qué hacemos? De nuevo dos opciones:

    1. Calculamos la probabilidad al azar, por pura intuición.

    2. Calculamos la probabilidad con esa teoría probablemente pésima porque, a falta de pan, buenas son tortas.

    El mero hecho de que podamos plantearnos esta disyuntiva indica que, para actuar conforme a una teoría, en modo alguno resulta imprescindible atribuirle una alta probabilidad subjetiva de ser cierta o aproximadamente cierta (aunque para calcular esta proximidad haya que emplear, con cierta circularidad, las propias probabilidades subjetivas).

    En resumen: si necesitamos calcular la probabilidad de un fenómeno, sería perfectamente racional preferir aquellos cálculos que se basan en una razón, por endeble que nos parezca, a aquellos que se basan en el puro azar. O, parafraseando una frase de George Moore sobre los chistes en las conferencias: "Better a bad theory than no theory".

    ResponderEliminar
  37. sigo
    Deutsch quiere jugar al juego de la ciencia olvidándose de la importancia de los juicios sobre lo probables o improbables que son las proposiciones, y fijándose sólo en las relaciones deductivas
    Si con eso de las relaciones deductivas quieres decir que a Deutsch le basta con que la teoría implica T implique E, que me parece entender que es lo que estás diciendo, te equivocas por completo. Deutsch no dice semejante cosa. Lo que dice, para lo que ahora nos interesa, es lo mismo que tú unas líneas más arriba:
    "aceptar la validez" de una teoría significa considerar que podemos tomarla razonablemente como base para los cálculos de nuestras predicciones.
    Esta es su solución, de hecho, al problema de la inducción.
    Las diferencias entre vosotros, por lo tanto, no están ahí, sino en vuestro análisis de los factores que nos llevan a la aceptación de una teoría. En tu planteamiento, una teoría no está aceptada (no consideramos razonable calcular con ella nuestras predicciones) hasta que no le asignamos, a ojo, una probabilidad muy alta de ser cierta. En el planteamiento deutschiano, una teoría está aceptada (consideramos razonable calcular con ella nuestras predicciones) cuando es la mejor que tenemos, que a su vez quiere decir que fue la única que sobrevivió a todas nuestras objeciones durante un debate popperiano.

    ResponderEliminar
  38. Por último, algo que no creo que no es una objeción, sino una simple observación.

    En tu planteamiento, la probabilidad subjetiva que le asignamos a una teoría no parece que esté pensada para convertirse en número, sino para reducirse a dos únicas valoraciones cualitativas: probabilidad alta (=teoría aceptada) y probabilidad baja (=teoría no aceptada).

    ResponderEliminar
  39. EI
    .
    quiero decirte, porque supongo que estas cosas siempre animan, que tu teoría me parece cada vez más convincente. De hecho voy a decir algo muy gordo: creo que toda esta historia de las probabilidades subjetivas, como la de la cantidad de pruebas necesaria para aceptar una teoría, que discutimos hace un mes, representan una superación de algunas de las tesis de Deutsch que yo he venido defendiendo.

    ¡¡¡Yupiyupiyupi!!!
    .
    Es probable que la inmensa mayoría de los científicos tenga la práctica convicción de que la Teoría de la Relatividad será falsada algún día.
    Claro, pero porque lo que piensan es que la teoría de la relatividad es MUY PROBABLEMENTE MUY APROXIMADAMENTE VERDADERA en los ámbitos en los que está confirmada, y que cualquier teoría que la sustituya tendrá que permitir derivar una versión muy aproximada de lo que se sigue de ella, como las conclusiones de la teoría de Newton se siguen muy aproximadamente de la relatividad.
    .
    para actuar conforme a una teoría, en modo alguno resulta imprescindible atribuirle una alta probabilidad subjetiva de ser cierta o aproximadamente cierta
    Bueno, tal como entiendo yo tu ejemplo, lo que estamos haciendo en ese caso es un razonamiento hipotético: "SUPONGAMOS que la teoría tal fuese verdadera, o aproximadamente correcta", luego lo que estás SUPONIENDO que es hay una probabilidad 1 de que la teoría es aproximadamente correcta... aunque obviamente puede ser una suposición contrafáctica porque SABES, o sospechas, que es muy probable que sea falsa. Pero no veo ninguna diferencia apreciable entre "suponer que la teoría T es verdadera" y "suponer que la probabilidad de que la teoría T sea verdadera es 1"
    .
    si necesitamos calcular la probabilidad de un fenómeno, sería perfectamente racional preferir aquellos cálculos que se basan en una razón, por endeble que nos parezca, a aquellos que se basan en el puro azar
    Es que tú estás suponiendo que "basado en una razón (es decir, en una teoría)" y "basado en el puro azar" son dos cosas distintas, y no lo son: cualquier suposición acerca de la forma, todo lo imprecisa que sea, de la "distribución de probabilidad subyacente" YA es una teoría. La cuestión es que hay teorías DE ESAS (o sea, conjeturas acerca de la distribución subyacente de probabilidad) que tendemos a hacer "por defecto", que nos parecen más "naturales" o "intuitivas".
    .
    "aceptar la validez" de una teoría significa considerar que podemos tomarla razonablemente como base para los cálculos de nuestras predicciones.
    Esta es su solución, de hecho, al problema de la inducción.

    Pues no veo lo que quieres señalar: mi cuestión es a qué demonios se refiere Deutsch cuando dice "razonablemente". ¿Quiere decir que la teoría ha conseguido explicar los hechos, y que ninguna otra lo ha conseguido? ¿O qué quiere decir exactamente? ¿CUÁNDO es "razonable" considerar una teoría como base para nuestras predicciones?
    .
    En tu planteamiento, una teoría no está aceptada (no consideramos razonable calcular con ella nuestras predicciones) hasta que no le asignamos, a ojo, una probabilidad muy alta de ser cierta.
    No exactamente: yo no pienso que nuestros juicios subjetivos de probabilidad sean mera cuestión de "estimar a ojo". Pienso que están influidos también por consideraciones más "metodológicas", "epistemológicas", "metafísicas", e incluso montones de prejuicios. P.ej., la resistencia de los cartesianos a aceptar la acción a distancia newtoniana (y por tanto, a conceder una probabilidad muy baja a la teoría de la gravedad, por mucho éxito empírico que tuviera) se basaba en un prejuicio metafísico más que nada.
    .
    sigo

    ResponderEliminar
  40. sigo
    .
    En el planteamiento deutschiano, una teoría está aceptada (consideramos razonable calcular con ella nuestras predicciones) cuando es la mejor que tenemos, que a su vez quiere decir que fue la única que sobrevivió a todas nuestras objeciones durante un debate popperiano.
    Pues eso es lo que digo yo que él dice. Y digo que está mal: una teoría puede haber sido la única que ha "sobrevivido", y a pesar de eso parecernos pésima, implausible. Es decir, puede ser que sea la única no refutada por los hechos E, la única que consigue explicarlos, pero aun así, cuando consideramos OTRA de sus consecuencias, F, que es distinta de E, pensemos que la probabilidad de que F sea verdadera es muy pequeña. Es decir, el argumento que falta en Deutsch (y en Popper) es precisamente el de mostrar por qué es razonable apostarse el escroto por la verdad de F sólo sobre la base de que T es nuestra mejor explicación de E y de que T implique F.
    .
    la probabilidad subjetiva que le asignamos a una teoría no parece que esté pensada para convertirse en número, sino para reducirse a dos únicas valoraciones cualitativas: probabilidad alta (=teoría aceptada) y probabilidad baja (=teoría no aceptada).
    Más o menos, pero no exactamente: lo que hago es asumir que los científicos establecen COMPARACIONES de probabilidad.

    ResponderEliminar
  41. "lo que hago es asumir que los científicos establecen COMPARACIONES de probabilidad."

    ¿"Supongamos que la vaca es esférica", como dice Héctor?. ¿Los científicos establecen comparaciones de probabilidad según tu modelo o nos resulta útil (todavía no he entendido para qué) suponer que hacen tal cosa?. No entiendo cómo un modelo matemático puede resultar más útil que un trabajo de campo a la hora de averiguar los criterios de la comunidad científica a la hora de elegir entre teorías.

    ResponderEliminar
  42. Masgüel:
    de la misma manera que un modelo matemático puede ser más útil para elegir teorías astronómicas que el "trabajo de campo"; por otro lado, no se trata de si es "más" útil, sino de si es útil. El "trabajo de campo" ya lleva muchísimos años hecho, por parte de historiadores y sociólogos de la ciencia, y nos ha proporcionado un montón de datos sobre en qué circunstancias prefieren los científicos unas teorías a otras, o en qué circunstancias consideran que las teorías han mejorado o empeorado. Lo que yo pretendo es ENTENDER por qué tienen ESOS criterios en vez de tener otros. Y para eso sirven los modelos.

    ResponderEliminar
  43. Jesús,

    lo que piensan es que la teoría de la relatividad es MUY PROBABLEMENTE MUY APROXIMADAMENTE VERDADERA en los ámbitos en los que está confirmada

    No importa. La cuestión es que los científicos pueden estar convencidos de que alguno o algunos postulados de la teoría einsteiniana pueden estar muy alejados de la realidad (tan alejados como el tiempo absoluto del tiempo relativo, digamos), pero esto no les impide usar la teoría en su conjunto para hacer todo tipo de predicciones y para construir sobre ella otras muchas teorías nuevas.

    Por otro lado, debo insistir de nuevo en la posible circularidad de tu teoría: utilizas la estimación subjetiva de probabilidad para definir el concepto de proximidad a la verdad, pero al mismo tiempo dices que la probabilidad que estimamos es la probabilidad de que una teoría sea aproximadamente verdadera.

    tal como entiendo yo tu ejemplo, lo que estamos haciendo en ese caso es un razonamiento hipotético

    No, lo que estamos haciendo es decidir entre dos opciones: decidir algo apoyados en una razón que la intuición nos dice que es mala, pero a la que no le encontramos ningún fallo por más que la examinamos, o decidirlo al azar.

    Es que tú estás suponiendo que "basado en una razón (es decir, en una teoría)" y "basado en el puro azar" son dos cosas distintas

    Y lo son. Una cosa es calcular el lugar donde caerá un proyectil guiados por las razones de la mecánica newtoniana y otra muy distinta dejando caer nuestro dedo sobre un mapa con los ojos cerrados.

    cualquier suposición acerca de la forma, todo lo imprecisa que sea, de la "distribución de probabilidad subyacente" YA es una teoría.

    El nombre es lo de menos. Lo esencial es que algunas de esas suposiciones o teorías podemos aceptarlas por alguna razón o por ninguna, llevados por la pura intuición.

    ¿CUÁNDO es "razonable" considerar una teoría como base para nuestras predicciones?

    Cuando tenemos razones para considerar que es la mejor. ¿Y cuáles son esas razones? Las que se consideren pertinentes en cada caso (en cada debate popperiano).

    yo no pienso que nuestros juicios subjetivos de probabilidad sean mera cuestión de "estimar a ojo". Pienso que están influidos también por consideraciones más "metodológicas", "epistemológicas", "metafísicas", e incluso montones de prejuicios.

    Si esas consideraciones son el tipo de cosa que podrían funcionar como razones durante un debate popperiano, entonces no hay ninguna diferencia apreciable con Deutsch. La navaja de Occam, por ejemplo, o el ya famoso criterio de la facilidad o dificultad para ser variada de una teoría, podrían incluirse sin problema en ese catálogo de consideraciones metodológicas, epistemológicas, etc.

    Y digo que está mal: una teoría puede haber sido la única que ha "sobrevivido", y a pesar de eso parecernos pésima, implausible. Es decir, puede ser que sea la única no refutada por los hechos E

    Dos observaciones muy importantes (de hecho, aquí está el núcleo de la discusión):

    1. Las teorías no son refutadas por los hechos, o no sólo por los hechos: son refutadas por argumentos, y esos argumentos pueden ser de todo tipo. Pueden ser argumentos del tipo "Este hecho contradice esta predicción de la teoría", en efecto, como pueden ser también del tipo "Esta teoría introduce demasiadas hipótesis ad hoc". Es decir: esos argumentos pueden incluir las consideraciones metodológicas, epistemológicas, etc, de las que hablábamos hace un momento.

    2. En situación de necesidad, no importa que nuestra mejor teoría nos parezca pésima. La usaremos igualmente porque no tenemos otra, porque nuestra alternativa sería usar las otras, las todavía peores.

    ResponderEliminar
  44. Ei
    .

    Error: no es para hacer "todo tipo de predicciones"; sólo se confía que serán válidas las predicciones que se hacen en aquellos ámbitos en los que ya se ha confirmado que las predicciones salen bien, o en aquellos en los que no hay razones para sospechar que saldrán mal. En los ámbitos en los que no tenemos seguridad de que los postulados de la TR sean aproximadamente correctos, nuestros cálculos los cogemos con papel de fumar.
    .
    la posible circularidad de tu teoría: utilizas la estimación subjetiva de probabilidad para definir el concepto de proximidad a la verdad, pero al mismo tiempo dices que la probabilidad que estimamos es la probabilidad de que una teoría sea aproximadamente verdadera.
    Es que no es una circularidad: las estimaciones de probabilidad son PRIMITIVAS en mi modelo (el modelo no explica de dónde vienen, las toma como dadas), y se calcula la verosimilitud en función de ellas. Lo que digo es que SI los científicos tienen razones para pensar que p(T,E) es muy baja pese a que T implique E, entonces no asignarán necesariamente una probabilidad elevada a las otras consecuencias que se sigan de T. Pero que tengan esas razones o las dejen de tener, depende de ellos, no es algo que se siga de mi modelo.
    .
    o que estamos haciendo es decidir entre dos opciones: decidir algo apoyados en una razón que la intuición nos dice que es mala, pero a la que no le encontramos ningún fallo por más que la examinamos, o decidirlo al azar.
    Bueno, en el caso que considerábamos, era una mera cuestión semántica: hacer un razonamiento del tipo "T implica F" es lo mismo que decir "si T es verdad, F es verdad", y decir "si T es verdad" es lo mismo que decir "si T ocurre de modo máximamente probable". Si, por otro lado, pensamos que T no es verdad, pues ese razonamiento es un contrafáctico, como se hacen miles de veces y no pasa nada.
    .
    sigo

    ResponderEliminar
  45. sigo
    Una cosa es calcular el lugar donde caerá un proyectil guiados por las razones de la mecánica newtoniana y otra muy distinta dejando caer nuestro dedo sobre un mapa con los ojos cerrados.
    Claro que son distintas, pero porque son predicciones basadas en TEORÍAS distintas, no porque una sea una predicción basada en una teoría y otra una predicción no basada en una teoría.
    .
    Lo esencial es que algunas de esas suposiciones o teorías podemos aceptarlas por alguna razón o por ninguna, llevados por la pura intuición
    No. Porque lo que estamos discutiendo es si el hecho de que
    1) T implique E,
    2) ninguna otra teoría conocida implique E, y
    3) T implique F, que es independiente de E,
    discutimos, digo, si la combinación de estas tres cosas es o no es una RAZÓN para aceptar que F es probablemente verdadero. Lo que yo digo es que no lo es, SALVO que p(T,E) sea relativamente alta.
    .
    ¿CUÁNDO es "razonable" considerar una teoría como base para nuestras predicciones?

    Cuando tenemos razones para considerar que es la mejor.

    De nuevo no: no se trata de si es "la mejor", sino de CUÁNTO DE BUENA ES. Puede que la mejor que tengamos sea una mierda, y no nos la tomemos en serio para hacer predicciones con ella.
    .
    Fíjate en la cuestión de los puntos 1-2-3 en un momento posterior: YA hemos comprobado si se cumple F (y G, y H, y J, etc.), es decir, todas las demás predicciones que T había hecho ADEMÁS DE E... ¡pero hemos comprobado que no se cumplen! ¡Y seguimos sin tener ni idea de cómo formular otra teoría que explique E (y F, y G, etc.)! Ahora hacemos una nueva predicción con T, sea L, que también es independiente de E, F, G, etc. ¿Tenemos razones para creer que L será correcta, sólo porque se sigue de T? Parece claro que no. ¿Y si hubiéramos predicho L antes de averiguar empíricamente que F, G, etc., eran falsas? Pero, ¿cómo puede afectar nuestro conocimiento de que F, G,..., son falsas a nuestra creencia en si se cumple L o se deja de cumplir, dado que L es independiente de ellas?
    .
    En resumen, nuestra creencia en lo justificadas que están las predicciones NUEVAS que hacemos con T no depende SÓLO de si T es la mejor teoría que tenemos hasta ahora, sino TAMBIÉN depende de CÓMO DE BUENA pensamos que es (es decir, de p(T,E)).
    .
    sigo

    ResponderEliminar
  46. Si esas consideraciones son el tipo de cosa que podrían funcionar como razones durante un debate popperiano, entonces no hay ninguna diferencia apreciable con Deutsch.
    Creo que sí lo hay, porque Popper estaría dispuesto a admitir muchas consideraciones "metafísicas" o "filosóficas" en esas razones, pero Deutsch creo que no. Claro, que tal vez me equivoque, y en ese caso, doy la bienvenida a Deutsch al campo de los que creemos que las consideraciones "metafísico - filosóficas" entran en el tipo de razones que son relevantes para determinar cómo de aceptable nos parece una teoría.
    Por otro lado, si por "debate popperiano" quieres decir un debate en el que los argumentos respetan las reglas de la lógica, incluyendo la lógica "informal" (argumentos de analogía, inductivos, etc.), pues entonces, claro, ¿qué otra cosa va a ser un debate si no?
    .
    En situación de necesidad, no importa que nuestra mejor teoría nos parezca pésima. La usaremos igualmente porque no tenemos otra
    No. Si p(F,E) nos parece ridículamente bajo aunque p(F,T) sea igual a 1, nuestra predicción será, de hecho, NO-F, más bien que F.

    ResponderEliminar
  47. Perdón, EI, mi primer comentario era respuesta a esta frase tuya:

    "La cuestión es que los científicos pueden estar convencidos de que alguno o algunos postulados de la teoría einsteiniana pueden estar muy alejados de la realidad (tan alejados como el tiempo absoluto del tiempo relativo, digamos), pero esto no les impide usar la teoría en su conjunto para hacer todo tipo de predicciones"

    ResponderEliminar
  48. Jesús:

    No pude participar estos últimos días, pero nunca es tarde.

    Me parece que es confuso hablar de la probabilidad de que una teoría sea verdadera tratando de oponerlo a la probabilidad de que sea cierta una predicción que se sigue de una teoría. Podemos ver que la teoría de Darwin realiza una serie de predicciones que resultan verdaderas en su mayoría, pero ¿qué sería la probabilidad de que la teoría fuera cierta? ¿Cuál es el número de teorías posibles?

    Se trata de conseguir el máximo de predicciones/explicaciones verdaderas con el mínimo de supuestos independientes ya que la explicación consiste en afirmar que un conjunto de hechos no son independientes sino que la probabilidad de A dado B es distinta de dado no-B.

    Si tienes ganas y tiempo, seguimos a partir de aquí.

    ResponderEliminar
  49. Sursum:
    Me parece que es confuso hablar de la probabilidad de que una teoría sea verdadera tratando de oponerlo a la probabilidad de que sea cierta una predicción que se sigue de una teoría
    No hay ninguna confusión: la probabilidad de que T sea verdadera es la probabilidad de que TODAS sus consecuencias sean verdaderas; la probabilidad de que UNA consecuenciencia en particular de T sea verdadera es necesariamente menor que primera.
    .
    Se trata de conseguir el máximo de predicciones/explicaciones verdaderas con el mínimo de supuestos independientes
    Totalmente de acuerdo: pero eso es, según mi modelo (y muchos otros) porque, a priori (es decir, sin considerar otra información relevante), si T tiene menos supuestos independientes que T', la probabilidad de que T sea verdadera es mayor que la probabilidad de que lo sea T.

    ResponderEliminar
  50. Jesús:

    "No hay ninguna confusión: la probabilidad de que T sea verdadera es la probabilidad de que TODAS sus consecuencias sean verdaderas; la probabilidad de que UNA consecuenciencia en particular de T sea verdadera es necesariamente menor que primera."

    Sólo si se trata de las MISMAS consecuencias más unas adicionales. Por ejemplo, que los cielos sean esferas que arrastran a los planetas en órbitas circulares y lo anterior más epiciclos.

    Pero cuando se cambian los supuestos teóricos, no se AÑADE meramente más principios ni más consecuencias.

    En cualquier caso, lo que estimamos es la probabilidad de acertar en nuestras predicciones, no la de que una teoría sea verdadera frente a otras teorías con principios diferentes.


    "porque, a priori"

    Pues le tengo algo de prevención a ese "a priori", como si todo el desarrollo de las ciencias fuese consecuencia de una fórmula y no de una aproximación tentativa y experimental. En principio constatamos hechos y elaboramos teorías en la medida en que podemos relacionar hechos de modo que la probabilidad de A condicionada a la de B pueda ser distinta a la condicionada a no-B. El que las probabilidades demuestren que no se trata de hechos probabilísticamente independientes nos da un nuevo conocimiento de otros hechos: las regularidades naturales, y nos permite hacer inferencias. La ciencia evoluciona en ese sentido de ampliar el número de hechos explicables como dependientes de regularidades y de reducir el número de los hechos que debemos asumir como independientes, como dados.

    ResponderEliminar
  51. SC
    Sólo si se trata de las MISMAS consecuencias más unas adicionales
    Eso quiero decir, sí (si te entiendo bien). Una teoría T es equivalente al conjunto de todas sus consecuencias; en principio, un subconjunto de esas consecuencias tendrá mayor probabilidad a priori que el conjunto entero.
    .
    cuando se cambian los supuestos teóricos, no se AÑADE meramente más principios ni más consecuencias.
    Eso no tiene nada que ver. Cada principio tiene para cada científico (o quien sea) una cierta probabilidad subjetiva. Lo que digo es que si T tiene las mismas predicciones empíricas exitosas que T', y T consiste en la combinación de unos principios que parecen más probables a alguien que los principios de T', pues T parecerá más verosímil que T'.
    .
    En cualquier caso, lo que estimamos es la probabilidad de acertar en nuestras predicciones, no la de que una teoría sea verdadera frente a otras teorías con principios diferentes.
    Bueno, en el esquema bayesiano, para cada enunciado X, cada uno de nosotros tiene una estimación subjetiva de la probabilidad de X. Da igual que X sea un principio, una predicción, o la lista de teléfonos.
    .
    le tengo algo de prevención a ese "a priori", como si todo el desarrollo de las ciencias fuese consecuencia de una fórmula y no de una aproximación tentativa y experimental
    Es que este "a priori" no tiene nada que ver con Kant o Descartes. Se trata de comparar cómo de probable te parece el enunciado X antes y después de considerar una pieza nueva de información relevante (p.ej., un nuevo dato empírico); a lo probable que te parece X antes de saber ese NUEVO dato empírico se le llama "probabilidad a priori" en el bayesianismo, pero no se trata de que puedas deducirla con una fórmula. El bayesianismo es AGNÓSTICO (y LIBERAL) sobre de dónde saca cada uno sus probabilidades a priori.
    Lo importante es que no puedes hacer estimaciones de probabilidad A POSTERIORI si no tienes estimaciones de probabilidad a priori, porque, por definición, p(X,Y) = p(X&Y)/p(Y), o sea, la probabilidad a posteriori ("condicionada") es el resultado de dividir dos probabilidades a priori ("incondicionadas").

    ResponderEliminar
  52. Jesús:

    "Una teoría T es equivalente al conjunto de todas sus consecuencias;"

    No creo que una teoría sea equivalente al conjunto de todas sus consecuencias sino al conjunto de principios de los que se siguen esas consecuencias. Lo mismo que una gramática no es equivalente al conjunto de las frases del idioma ni la teoría de Darwin equivalente a todos los sucesos en que se involucran seres vivos. Entre otras cosas, porque una teoría sería algo trivial y conocido inmediatamente si se conocen los hechos; o porque de una teoría se siguen hechos futuros, que aún no existen, aunque exista la teoría.

    Esto nos lleva a las mismas preguntas del "eje" platonismo/aristotelismo, o de la unidad y universalidad de las leyes frente a la multiplicidad y particularidad de los hechos de la materia. Una lástima que Juan Antonio no participe.

    Lo que buscamos no es sólo la constatación de que hay determinadas cosas y en determinado número, o que se dan tales hechos sino una estructura lógica que permita extraer esos hechos de unos principios generales aplicados a una descripción inicial, de forma que los principios y la descripción inicial permitan deducir en el modelo teórico unas consecuencias, que serán las predicciones/explicaciones de la teoría.

    El porqué se buscan principios y no meros recuentos de los hechos tiene un doble aspecto teórico y práctico. Por un lado, si podemos saber que un principio permite explicar una serie de hechos aparentemente aislados ya sabemos algo más que sin esa teoría, sabemos que es verdadero que los hechos guardan cierta relación y que es falso que sean hechos aislados. Por otro, el práctico, primero y más importante en la vida humana, porque permite anticiparse a los hechos y controlarlos por encima de una actitud pasiva o al azar. Los sentidos, los instintos, la inteligencia, permiten crear modelos subjetivos que dan al individuo mayor control sobre sí mismo y sus interacciones con su entorno.

    Supongo que te refieres a consecuencias como clases de sucesos, es decir a teorías más particulares con respecto a la teoría general en las que se toman como constantes alguna o algunas de las variables de la teoría general.

    Pero esto nos lleva a la posición de salida: que validamos la teoría por la validez de sus consecuencias y a una inevitable distinción acerca de cuáles son las consecuencias de una teoría. Porque un confirmacionismo ingenuo cree que lo son todas las que sean compatibles con la teoría, pero no puede ser así. Si una persona asegura que hace llover o que cura la gripe con un conjuro, no puede contar a su favor todos los casos en que llueva o se cure la gripe tras su conjuro. La falacia "post hoc, propter hoc" es rechazada desde antiguo y para validad una teoría debemos evitar los casos en que meramente un hecho sigue a otro, pero no se sigue de otro de manera regular, en forma de ley física.

    El método para evitarlo es obvio también desde antiguo y los métodos estadísticos modernos o el experimento frente a un caso blanco o control, los métodos inductivos de Bacon, de presencia, ausencia o grados, tratan de eliminar el azar o la influencia de factores distintos del analizado. Lo que ya sabemos por defecto, sin necesidad de otra teoría, no está a favor de la validación de una teoría.


    sigue ->

    ResponderEliminar
  53. sigue ->

    "Cada principio tiene para cada científico (o quien sea) una cierta probabilidad subjetiva."

    Pero eso, como subjetivo que es, importa poco o nada en la ciencia. De hecho, si llega a importar es de manera negativa ya que es un prejuicio que no tiene que ver con la experiencia sino con la creencia.

    En alguna de tus entradas le comentaba a Hector que el método de las ciencias es, de modo resumido, el de Semmelweis al tratar de prevenir las fiebres puerperales. Una teoría no puede ser posible sin un modelo subjetivo hipotético, pero el grado de creencia en ese modelo o los contrarios no es decisivo más que coo motivación para realizar un estudio. Si Semmelweis no hubiera creído de alguna manera en una relación entre las fiebres y una contaminación de los médicos, no habría hecho nada, como no hizo prueba alguna acerca de la influencia de las iniciales de sus apellidos o sus signos de zodíaco.

    Pero, aparte de eso, lo que Semmelweis realizó fue un experimento frente a un caso control, viendo que la frecuencia de las fiebres era menor si los médicos se lavaban las manos o si, al menos, no habían tocado cadáveres antes de atender a la parturientas. El "a priori" y la subjetividad parecen algo de lo que también conviene lavarse con cuidado.


    Cuando tratamos de verificar la probabilidad de X=fiebres puerperales, dado Y=médicos sin medidas antisépticas; o que llueva frente a los conjuros, necesitamos experimentos frente a controles y nada de probabilidades subjetivas.

    ResponderEliminar
  54. Sursum
    .
    No creo que una teoría sea equivalente al conjunto de todas sus consecuencias sino al conjunto de principios de los que se siguen esas consecuencias.
    Bueno, me estoy limitando a usar la palabra "teoría" en el sentido en el que se la usa en lógica: como un conjunto de enunciados deductivamente cerrado, o como un conjunto de modelos ("mundos posibles"). No es lo mismo una teoría que una AXIOMATIZACIÓN de la teoría. Dos conjuntos de axiomas ("principios") pueden tener exactamente las mismas consecuencias, y entonces ser LA MISMA teoría. Recuerda también que todo enunciado es consecuencia de sí mismo.
    .
    porque una teoría sería algo trivial y conocido inmediatamente si se conocen los hechos
    Bueno, SI se conocieran TODOS los hechos, pero todos, todos, todos..., pues claro que se conocerían también las teorías que son verdaderas. Y también conocerías qué enunciados se siguen de otros (pues eso también es un hecho).
    .
    de una teoría se siguen hechos futuros, que aún no existen, aunque exista la teoría
    Todas las teorías "existen", las hayamos concebido o no, igual que existen todos los números primos.
    .
    Esto nos lleva a las mismas preguntas del "eje" platonismo/aristotelismo, o de la unidad y universalidad de las leyes frente a la multiplicidad y particularidad de los hechos de la materia. Una lástima que Juan Antonio no participe.
    Si es para contaminar la discusión sobre la función de verosimilitud con bobadas metafísicas, prefiero que no.
    .
    Lo que buscamos no es sólo la constatación de que hay determinadas cosas y en determinado número, o que se dan tales hechos sino una estructura lógica que permita extraer esos hechos de unos principios generales
    Bueno, buscamos eso porque no podemos averiguarlo todo, y es más económico para nosotros manejar axiomas y deducir consecuencias que intentar averiguar cada hecho "aisladamente". Pero eso es irrelevante para lo que yo estoy explicando en esta serie.
    .
    Supongo que te refieres a consecuencias como clases de sucesos, es decir a teorías más particulares con respecto a la teoría general en las que se toman como constantes alguna o algunas de las variables de la teoría general.
    No. Obviamente, me refiero a "consecuencia" en sentido lógico: el enunciado X es consecuencia de Y si es verdad que, si X es verdad, Y es verdad.
    .
    validamos la teoría por la validez de sus consecuencias
    Obviamente. Pero no quiero utilizar "validar" y "validez". Prefiero decir "valoramos una teoría según lo que pensemos de sus consecuencias".
    .
    sigo

    ResponderEliminar
  55. sigo

    una inevitable distinción acerca de cuáles son las consecuencias de una teoría
    Todas las que son consecuencias, no tiene más misterio. Obviamente, el problema es que normalmente no sabemos cuáles son TODAS las consecuencias de una teoría, es algo que tenemos que ir averiguando.
    .
    un confirmacionismo ingenuo cree que lo son todas las que sean compatibles con la teoría
    Ningún "confirmacionista" relevante que yo pueda recordar ahora mismo en la historia de la filosofía de la ciencia es "ingenuo". Y obviamente, ninguno piensa algo tan absurdo como que todo enunciado compatible con X es una consecuencia de X.
    .
    eso, como subjetivo que es, importa poco o nada en la ciencia
    Creo que no estás entendiendo gran cosa de lo que yo estoy proponiendo. PRECISAMENTE el objetivo de mi propuesta es SUPERAR la "subjetividad", pero aceptando el hecho inevitable de que TODOS los juicios de científicos sobre la importancia de una contrastación, la plausibilidad de un axioma, el valor de perseguir un determinado programa de investigación, etc., son (repito: inevitablemente) juicios subjetivos.
    Lo que hace mi modelo es permitir explicar por qué, A PESAR de que los juicios de CADA científico sobre el valor epistémico de una teoría, un axioma, una predicción, etc., son juicios subjetivos, HAY ALGUNOS JUICIOS COMPARATIVOS SOBRE DICHOS VALORES EN LOS QUE TODOS LOS CIENTÍFICOS ESTARÁN NECESARIAMENTE DE ACUERDO. P.ej., al científico X le puede parecer que los axiomas de la teoría T son de lo más absurdo que ha escuchado en su vida, y al científico Y le puede parecer que son casi una verdad de perogrullo; pero ambos científicos estarán necesariamente de acuerdo en que, si una nueva predicción de T se confirma, la teoría T tendrá más valor epistémico DESPUÉS de esa confirmación que antes.
    .
    Cuando tratamos de verificar la probabilidad de X=fiebres puerperales, dado Y=médicos sin medidas antisépticas; o que llueva frente a los conjuros, necesitamos experimentos frente a controles y nada de probabilidades subjetivas
    Error. Sencillamente no puedes tener un valor DETERMINADO para p(X,Y) si no tienes ALGÚN valor determinado de p(Y) y de p(X&Y). Lo que intentan los bayesianos e intento yo es averiguar qué cosas se pueden decir sobre p(X,Y) que sean INDEPENDIENTES de los valores subjetivos que cada individuo asigne a p(Y) y a p(X&Y), pero no "qué cosas se pueden decir sobre p(X,Y) si p(Y) y p(X&Y) no tuvieran NINGÚN valor en absoluto".

    ResponderEliminar
  56. Jesús:

    Las teorías no son meros resúmenes pues lo resúmenes no permiten inferir nada distinto. Sólo podemos si afirmamos una regularidad universal. Y lo que buscamos son modos de poder inferir nuevos hechos y que estas inferencias sean más acertadas que afirmaciones al azar. Es decir, mostrando que los hechos son dependientes, no independientes.


    "SI se conocieran TODOS los hechos, pero todos, todos, todos..., pues claro que se conocerían también las teorías que son verdaderas. Y también conocerías qué enunciados se siguen de otros (pues eso también es un hecho)."

    Eso es un juego de palabras que no nos lleva a ninguna parte.


    "Todas las teorías "existen", las hayamos concebido o no, igual que existen todos los números primos."

    Como éste.


    "Si es para contaminar la discusión sobre la función de verosimilitud con bobadas metafísicas, prefiero que no."

    No. Es para esclarecer la relación entre leyes científicas y la necesidad de afirmar regularidades universales. Para metafísica, lo de la existencia de las teorías, con perdón.



    "Bueno, buscamos eso porque no podemos averiguarlo todo, y es más económico para nosotros manejar axiomas y deducir consecuencias que intentar averiguar cada hecho "aisladamente"."

    No. De nuevo, no. Buscamos eso porque es lo único que nos permite hacer inferencias. En otra ocasión te puse un ejemplo que creo que es de Russell. Podemos crear un polinomio con la matrícula de los coches que vamos encontrando y su número de orden o el minuto del día en que lo veamos. Podemos, además, extrapolar y lo sorprendente sería que ñas extrapolaciones fueran predicciones acertadas.


    "Pero eso es irrelevante para lo que yo estoy explicando en esta serie."

    Es relevante en la medida en que tratamos de buscar leyes predictivas y que eso supone una regularidad universal. Y que son leyes predictivas lo que buscamos, no otra cosa.


    "No. Obviamente, me refiero a "consecuencia" en sentido lógico: el enunciado X es consecuencia de Y si es verdad que, si X es verdad, Y es verdad."

    Obviamente yo me refiero a que los hechos observados sena consecuencia física del hecho afirmado como regularidad. Podemos decir que sabemos si saldrá cara o cruz en la tirada siguiente y acertaremos la mitad de las veces en promedio. Pero esos aciertos son dificilmente presentables como consecuencias de que podamos saber qué va a salir.


    "Prefiero decir "valoramos una teoría según lo que pensemos de sus consecuencias"."

    Es que no conozco otra manera interesante. Por eso hablar de la probabilidad de una teoría de manera separada a la probabilidad de acertar en sus predicciones me parece ocioso.


    sigo ->

    ResponderEliminar
  57. sigo ->

    "Obviamente, el problema es que normalmente no sabemos cuáles son TODAS las consecuencias de una teoría, es algo que tenemos que ir averiguando."

    De nuevo lo mismo. No se trata de qué afirmaciones particulares se siguen lógicamente de una afirmación general, sino de qué datos podemos tomar como confirmaciones de la verdad de la teoría. Si valoramos la teoría valorando sus consecuencias, tenemos que saber qué confirma y que debilita la teoría. Y saberlo antes de verificarlo. De otro modo sería afirmar algo no definido.


    "Ningún "confirmacionista" relevante que yo pueda recordar ahora mismo en la historia de la filosofía de la ciencia es "ingenuo"."

    Ningún confirmacionista relevante es ingenuo, además de ser un verdadero confirmacionista relevante, verdadero escocés, por supuesto. Así que podemos tener en cuenta a los no relevantes y entre esos hay mucho ingenuo del tipo al que me refería. Pero gracias: cada vez que vea algo de ingenuidad en un confirmacionista lo tacharé de entre los relevantes.


    "Lo que hace mi modelo es permitir explicar por qué, A PESAR de que los juicios de CADA científico sobre el valor epistémico de una teoría, un axioma, una predicción, etc., son juicios subjetivos, HAY ALGUNOS JUICIOS COMPARATIVOS SOBRE DICHOS VALORES EN LOS QUE TODOS LOS CIENTÍFICOS ESTARÁN NECESARIAMENTE DE ACUERDO."

    Y eso tiene que ver con la capacidad de predecir y acertar, de tener más información que afirmando a ciegas, al azar. Es lo que hace la ciencia siempre que puede.

    Todo lo que te discuto es que las probabilidades que tomamos en cuenta son las de hacer predicciones acertadas, eliminando el azar o los falsos positivos.


    "Sencillamente no puedes tener un valor DETERMINADO para p(X,Y) si no tienes ALGÚN valor determinado de p(Y) y de p(X&Y)."

    Es obvio. Por eso insisto en que lo que hacemos es muestrear conjuntos de sucesos y estimar probabilidades. Volviendo al ejemplo de Semmelweis, constatar que la frecuencia de fiebres es mayor en unas salas que en otras y buscar un factor diferencial que lo explique, recurriendo a una manipulacíon experimental de las variables que se podían observar.





    ResponderEliminar
  58. Sursum:
    Las teorías no son meros resúmenes pues lo resúmenes no permiten inferir nada distinto. Sólo podemos si afirmamos una regularidad universal. Y lo que buscamos son modos de poder inferir nuevos hechos y que estas inferencias sean más acertadas que afirmaciones al azar. Es decir, mostrando que los hechos son dependientes, no independientes.
    ¿Y digo yo que no?
    .
    "SI se conocieran TODOS los hechos, pero todos, todos, todos..., pues claro que se conocerían también las teorías que son verdaderas. Y también conocerías qué enunciados se siguen de otros (pues eso también es un hecho)."

    Eso es un juego de palabras que no nos lleva a ninguna parte.

    No es un juego de palabras, es una tautología. Y, en efecto, como casi todas las tautologías, no lleva a ninguna parte, pero no por ello deja de ser verdad.
    .
    para esclarecer la relación entre leyes científicas y la necesidad de afirmar regularidades universales.
    No entiendo qué quieres decir. "Leyes científicas" y "regularidades universales", ¿no es lo mismo?
    .
    "Bueno, buscamos eso porque no podemos averiguarlo todo, y es más económico para nosotros manejar axiomas y deducir consecuencias que intentar averiguar cada hecho "aisladamente"."

    No. De nuevo, no. Buscamos eso porque es lo único que nos permite hacer inferencias.

    ¡Pues ESO es lo que digo! Tal vez Dios pueda conocer de manera intuitiva la verdad de cada hecho sin deducirlo de otros, pero nosotros no podemos más que intentar formular regularidades que nos ayuden a inferir cuantos más hechos, mejor.
    .
    "Pero eso es irrelevante para lo que yo estoy explicando en esta serie."

    Es relevante en la medida en que tratamos de buscar leyes predictivas y que eso supone una regularidad universal. Y que son leyes predictivas lo que buscamos, no otra cosa.

    ¿¿¿??? Claro. ¿Y qué? ¿Por qué razón va a ser eso una razón contra lo que estoy proponiendo?
    .
    yo me refiero a que los hechos observados sena consecuencia física del hecho afirmado como regularidad.
    Es que una consecuencia FÍSICA (es decir, el que algo sea un EFECTO en relación con otro algo que es su CAUSA), es una relación que se da entre hechos SINGULARES, no entre regularidades y hechos singulares. No son las leyes UNIVERSALES las que CAUSAN que esta manzana caiga; es el hecho SINGULAR de que la manzana está en tal o cual campo gravitatorio singular el que causa que la manzana caiga.
    .
    sigo

    ResponderEliminar
  59. sigo
    .
    hablar de la probabilidad de una teoría de manera separada a la probabilidad de acertar en sus predicciones me parece ocioso.
    No es que sea ocioso, es que es LO MISMO, como te he dicho: la teoría T es LO MISMO que la conjunción lógica de TODAS sus consecuencias, por lo que la probabilidad de lo primero es lo mismo que la probabilidad de lo segundo.
    .
    No se trata de qué afirmaciones particulares se siguen lógicamente de una afirmación general, sino de qué datos podemos tomar como confirmaciones de la verdad de la teoría.
    Eso es trivial: el dato D confirma la teoría T si D implica alguna consecuencia de T, y la disconfirma si de D se sigue la negación de alguna consecuencia de T.
    .
    podemos tener en cuenta a los no relevantes y entre esos hay mucho ingenuo del tipo al que me refería
    Tal vez en el bar de tu barrio. En la lista de autores que explicamos en las asignaturas de "Filosofía de la Ciencia", no hay ninguno (ni Carnap, ni Neurath, ni Hempel, ni Mach, ni Duhem...). ¿En quién estás pensando tú exactamente?
    .
    eso tiene que ver con la capacidad de predecir y acertar, de tener más información que afirmando a ciegas, al azar. Es lo que hace la ciencia siempre que puede.
    ¿Y digo yo que no? Pero lo que dices es francamente insuficiente: la ciencia no persigue SÓLO "acertar con más probabilidad que haciéndolo al azar", sino "acertar con la mayor probabilidad posible". Si tenemos una teoría que en ciertos ámbitos acierta un 80 % de las veces, intentaremos sustituirla por otra que acierte un 90 %.
    .
    Todo lo que te discuto es que las probabilidades que tomamos en cuenta son las de hacer predicciones acertadas, eliminando el azar o los falsos positivos.
    Es que no veo que eso haya que discutirlo. Nuestras estimaciones SUBJETIVAS de la probabilidad "a priori" de las teorías y de los hechos observables son, al fin y al cabo, CONJETURAS que, en efecto, contrastamos mediante la comparación de las estimaciones SUBJETIVAS de probabilidad "a posteriori" a la que nos conducen aquellas estimaciones "a priori", por un lado, y las frecuencias observadas, por otro lado.
    El punto esencial es que tener frecuencias empíricamente dadas SIN probabilidades subjetivas con las que compararlas es INÚTIL, porque las frecuencias empíricamente dadas no nos permiten INFERIR probabilidades futuras, como bien sabes. Las frecuencias empíricas son útiles sólo como CONTRASTACIONES de teorías, y el valor de esa contrastación (es decir, cuánto nos parece que estamos APRENDIENDO sobre el mundo gracias a ella) depende de la probabilidad que diéramos a priori tanto a la teoría contrastada como al hecho de hallar justo esa frecuencia empírica.
    .

    "Sencillamente no puedes tener un valor DETERMINADO para p(X,Y) si no tienes ALGÚN valor determinado de p(Y) y de p(X&Y)."

    Es obvio

    Exacto.
    .

    ResponderEliminar
  60. Jesús:

    "¿Y digo yo que no?"

    Así parece. Si una teoría es la suma de sus consecuencias no hay ni problema de la inducción ni posible universalidad ya que nunca existen todas las consecuencias, salvo que me digas que es imposible que haya nuevos sucesos y te vuelvas un nuevo Parménides.


    "Y, en efecto, como casi todas las tautologías, no lleva a ninguna parte, pero no por ello deja de ser verdad."

    Y ninguna de ellas hace progresar el conocimiento sino, como mucho, evitar errores lógicos.



    " "Leyes científicas" y "regularidades universales", ¿no es lo mismo?"

    No. Una cosa es lo que decimos que sucede y otra lo que de hecho sucede. Las leyes científicas la entiendo como nuestras afirmaciones acerca de qué regularidades naturales hay.

    Si nos referimos a lo que existe, entonces leyes científicas y regularidades universales son idénticas, pero creo que debemos hacer la distinción entre lo que hay y lo que conocemos y expresamos.


    "nosotros no podemos más que intentar formular regularidades que nos ayuden a inferir cuantos más hechos, mejor."

    En mi opinión esa es la raíz y el fundamente de todo el método científico, del conocimiento común, del instinto animal y de todos los tropismos animales, vegetales o lo que quieras. Tratamos de sobrevivir adaptando nuestro comportamiento an regularidades predecibles. Y sólo si hay regularidades y si podemos predecirlas podemos adaptarnos mejor que al azar.

    Por eso, la estructura y la posibilidad de la inferencia me parecen el centro de toda teoría del conocimiento y del método científico en consecuencia. Nuestras mentes son maquinitas de hacer inferencias, nuestros conceptos son modelos de inferencia en los que suponemos que mis calcetines negros no se van a convertir por la buenas en lampreas dentro del cajón, que hay regularidades y que podemos prever lo que sucederá y usarlo como medio para conseguir un fin.


    sigo ->

    ResponderEliminar
  61. sigo ->

    "¿Por qué razón va a ser eso una razón contra lo que estoy proponiendo?"

    Sólo me parece confuso hablar de la probabilidad de una teoría como algo que no resulta sólo del incremento de información que tenemos al suponerla, o de lo que mejoramos nuestras predicciones. Me parece confuso, por ejemplo, considerar que el debate trata de si la teoría de Darwin es más simple a priori que la de Lamarck y no de si la de Darwin permite conectar más hechos e inferir que habrá determinadas relaciones entre qué especies hay y cómo está configurado su ambiente, que de otro modo resultarían inexplicables.



    "Es que una consecuencia FÍSICA (es decir, el que algo sea un EFECTO en relación con otro algo que es su CAUSA), es una relación que se da entre hechos SINGULARES, no entre regularidades y hechos singulares."

    Sí. La causa no es sino la manera de relacionar dos o más hechos distintos tal que podamos inferir unos de otros, reduciendo el número de supuestos independientes. No hay los sucesos y aparte las regularidades. Las regularidades son sólo la forma general de los sucesos. Por eso decía antes que se nos plantea a cada rato la dicotomía universal/individuo, cambio regular/hecho individual. Seguimos debatiendo como Parménides frente a Heráclito o Aristóteles frente a Platón.

    Cierto que ellos se metieron en jardines metafísicos que podemos disculpar por ser los primeros en enfrentarse a los problemas, pero los dejaron planteados en sus líneas esenciales.



    sigo ->

    ResponderEliminar
  62. sigo ->


    "la teoría T es LO MISMO que la conjunción lógica de TODAS sus consecuencias"

    Me parece imposible pasar de lo discontinuo a lo continuo. Las consecuencias que nosotros observamos son episodios de nuestra experiencia, y somos nosotros los que vemos como episodios lo que no está aislado.

    Puede que te parezca un error mi planteamiento, pero creo que seguimos, com los griegos, teniendo que asumir la individualidad y la pluralidad como indispensables, sin que podamos explicar jamás por qué hay numerosos electrones pero todos con la misma carga o masa; por qué debemos suponer seres distintos pero que se relacionan causalmente; por que algo en lugar de nada; por qué orden en vez de caos. En nuestro intento de simplificar nuestras teorías llegamos al límite de que hay algo y es de cierta manera. Y no hay paso más allá ni metafísica. Sólo ciencia positiva del cómo.



    "el dato D confirma la teoría T si D implica alguna consecuencia de T, y la disconfirma si de D se sigue la negación de alguna consecuencia de T."

    Pongamos que el Chamán X hace su conjuro y el enfermo Y se cura. El dato "Y se cura" confirma "X tiene poderes para curar"? Es obvio que no lo confirma.

    De manera análoga para datos negativos. En enfermo X se le muere al doctor W. ¿Fracasa la medicina?


    "¿En quién estás pensando tú exactamente?"

    En lo anterior. Qué hechos particulares confirman o debilitan una teoría. Y no son todos ni de cualquier manera.



    "Si tenemos una teoría que en ciertos ámbitos acierta un 80 % de las veces, intentaremos sustituirla por otra que acierte un 90 %."

    De acuerdo, pero creo que ese diferente porcentaje induce a buscar un factor no tenido en cuenta en la primera teoría. Podemos haber detectado alguna información pero se nos escapa parte importante. Por ejemplo, la evolución por selección es compatible con la deriva de genes neutrales y con los efectos de poblaciones pequeñas. Con respecto a lo ignorado seguimos sin poder predecir el por qué ni el cómo ni el cuándo.

    Sin embargo en algunos casos llegamos a situaciones cruciales en las que unos hechos negativos obligan a revisar la teoría desde sus bases, como el caso de la Relatividad.


    "porque las frecuencias empíricamente dadas no nos permiten INFERIR probabilidades futuras, como bien sabes."

    Por eso creo que no puedes decir que todas las consecuencias igualan la teoría. Sin teoria no hay modo de inferir.


    "Las frecuencias empíricas son útiles sólo como CONTRASTACIONES de teorías, y el valor de esa contrastación (es decir, cuánto nos parece que estamos APRENDIENDO sobre el mundo gracias a ella) depende de la probabilidad que diéramos a priori tanto a la teoría contrastada como al hecho de hallar justo esa frecuencia empírica."

    Lo primero es afirmar que el método es inevitablemente hipotético-deductivo y contrastado empíricamente, o que nuestros datos sensoriales NO SON el mundo sino representaciones vinculadas, si acaso, al mundo como sus efectos en nosotros.

    Pero pongamos a un médico tozudo de la época de Semmelweis, que daba probabilidad cero a la contaminación por gérmenes; otro que le diera 0,3; otro 0,5; y Semmelweis que se la creía del todo. Con los datos finales del experimento en su mano, ¿debían llegar a conclusiones diferentes?

    Yo diría que NO, y que las probabilidades subjetivas a priori son indiferentes.

    ResponderEliminar
  63. Lo siento, Sursum, me pierdo. No sé a qué tendría que responderte. Cada vez veo menos parecido entre tus elucubraciones y los temas de los que yo estaba hablando. Te agradecería que me expusieras en breves líneas qué es lo que ves de malo en mi modelo.

    ResponderEliminar
  64. Jesús:

    Tendrías que responderme a que el modelo debe enfrentarse a una situación tal que así:

    Pones como examen un test con preguntas que tienen n opciones para responder. Para evaluar sumas un punto por cada pregunta acertada y restas 1/(n-1) por cada una errónea. Las dejadas en blanco puntúan cero.

    Se puede responder al azar y acertar un tercio en promedio. Luego de todas las acertadas hay que eliminar las que presumiblemente no son efecto de saber la respuesta.

    En un caso experimental te encuentras casos positivos que no cuentan porque se dan en condiciones en que la regularidad no se presenta. Y quizá falsos negativos por motivos similares.

    Una investigación real tiene que lidiar con eso y postular leyes que expliquen mucho suponiendo poco y demostrando eso con apoyo experimental.

    El tratar de juzgar la probabilidad como función de la sencillez a priori de la teoría es lo que me parece confuso. La propuesta de Lamarck parecía muy simple y razonable: un ser vivo se esfuerza y sus hijos heredan lo que papá ganó. Pero no era suficiente. ¿Era más sencilla la hipótesis de Darwin? Quizá no, pero hay experimentos cruciales.

    En mi opinión la ciencia avanza a base de teorías que superan o no experimentos cruciales.

    Y que me respondieras por qué las probabilidades subjetivas con que los médicos ceporros que no creían en la hipótesis de Semmeweis no influyen a la hora de aceptarla vistos los resultados experimentales. De nuevo, experimento crucial.

    Responda primero a la segunda pregunta. Y luego lo dejamos.

    ResponderEliminar
  65. Se puede responder al azar y acertar 1/n en promedio. Luego de todas las acertadas hay que eliminar las que presumiblemente no son efecto de saber la respuesta.

    ResponderEliminar
  66. Me vo hasta la noche o mañana. Saludos.

    ResponderEliminar
  67. Sursum:
    el modelo se aplica perfectamente a situaciones como esa, no veo cuál es el problema. Al fin y al cabo, se trata de un modelo basado en el esquema bayesiano, que se ocupa precisamente de cuestiones así.
    Lo que tienes que quitarte de la cabeza es que hay algo así como "experimentos (realmente) cruciales", es decir, experimentos tales que sus resultados (R) son SUFICIENTES para establecer que una teoría determinada (T) es verdadera. La relación que hay entre las teorías y los resultados experimentales es SIEMPRE la de que, o bien T implica R, o bien R implica no-T, pero no puede haber ningún caso en el que R implique T (por muchos experimentos cuyos resultados la teoría haya predicho bien, puede haber nuevos experimentos cuyos resultados contradigan la teoría).
    Lo que explica mi modelo es PRECISAMENTE por qué, a pesar de que ningún conjunto de experimentos puede VERIFICAR una teoría, en la práctica (p.ej., en el caso de Semmelweiss) los científicos actúan COMO SI las teorías pudieran ser verificadas: como discutí hasta la saciedad con Ejecución, hay casos en los que la mejor teoría que tenemos (T) explica los hechos disponibles (E), estos hechos refutan todas las demás teorías que se nos han ocurrido (digamos, T'), y entonces consideramos que E "confirma" T, mientras que hay casos en los que, a pesar de cumplirse todo lo anterior, pensamos que E "todavía no confirma" T: según mi modelo, la diferencia depende de cuán grande pensemos en cada caso que es p(¬T/E), es decir, de cómo pensemos que es de probable que haya ALGUNA TEORÍA QUE AÚN NO SE NOS HA OCURRIDO, T", Y QUE SEA VERDADERA, que sea tal que T" también implique E. P.ej., los cartesianos se negaban a aceptar la existencia de la fuerza gravitatoria A PESAR de que todos los "experimentos cruciales" parecían dar la razón a Newton, pues les parecía SENCILLAMENTE IMPOSIBLE (por razones que diríamos "metafísicas") que los cuerpos pudieran interactuar "a distancia". Si consideras que T es la teoría newtoniana de la gravedad, y E los datos empíricos con los que Newton pensaba que la había demostrado, los cartesianos aceptaban que T implicaba E (o sea, p(E,T) = 1), pero como pensaban que p(T) = 0, no consideraban que el hecho de que E se siguiera de T otorgaba ningún "grado positivo de confirmación" a T. ¡El caso es que los cartesianos parece que tenían razón en eso: la fuerza de la gravedad no existe, si Einstein tiene razón!
    Lo mismo en el caso de Semmelweiss: para alguna persona que tuviera algún argumento que ella considerase válido, y según el cual fuera IMPOSIBLE que las enfermedades estuvieran causadas por "gérmenes", pues los experimentos de Semmelweiss simplemente no demostrarían que las enfermedades estuvieran causadas por "gérmenes": esa persona pensaría que probablemente se acabara descubriendo alguna otra explicación.
    Normalmente, la cuestión no es si las teorías son "imposibles" o no, sino cómo juzga cada cual que son de probables (en función de todas las razones DISTINTAS de los experimentos u observaciones realizadas a propósito para contrastarlas; y esas razones es cada cual quien las juzga).
    Por eso he dicho más arriba que "tener frecuencias empíricamente dadas SIN probabilidades subjetivas con las que compararlas es INÚTIL, porque las frecuencias empíricamente dadas no nos permiten INFERIR probabilidades futuras, como bien sabes. Las frecuencias empíricas son útiles sólo como CONTRASTACIONES de teorías, y el valor de esa contrastación (es decir, cuánto nos parece que estamos APRENDIENDO sobre el mundo gracias a ella) depende de la probabilidad que diéramos a priori tanto a la teoría contrastada como al hecho de hallar justo esa frecuencia empírica".

    ResponderEliminar
  68. Jesús:

    Quizá algo de lo que veo de diferente es que mi forma de concebir las teorías, todas las teorías incluidas la de qué es una cosa, que es causalidad y similares, es todo lo positivista e instrumentalista que me permite la situación. Por usar los ejemplos que citas, los experimentos de Semmeweis no prueban lo que él creyera que eran los gérmenes sino la correlación entre las medidas de higiene y las fiebres. Evidentemente R no apoyaba T en el sentido en que T podría ser T de la buena+basurilla de prejuicios. Lo que tenemos con un experimento, que yo sí creo crucial, es la prueba de alguna correlación no de todo lo que la hipótesis arrastre consigo. Y por eso hay que analizar las hipótesis cambiando supuestos y experimentando algo similar pero sin alguno de los supuestos o con otros diferentes.

    Lo mismo con la acción a distancia. Ni antes de Newton ni después ni ahora ni nunca vamos a entender el porqué -ese porqué último y metafísico que buscan otros- sino sólo el cómo. Veremos que en las condiciones experimentales, la llamada fuerza, que tampoco sabemos que sea otra cosa más que su definición física, es inversamente proporcional al cuadrado d ela distancia. Ni cómo sucede ni por qué nos lo va a revelar un experimento, a no ser que descubramos nuevas entidades y relaciones. Los experimentos sólo prueban correlaciones funcionales o estadísticas. Las "hypotheses non fingo" de Newton tienen que incluir todo lo que no aparezca en las fórmulas, como se ha comentado muchas veces con respecto a la mecánica cuántica que tan rara parece en sus supuestos.

    Si un contrario me objeta que el experimento de Semmelweis no prueba algo, aparte de la correlación, le diré que ese algo no se ha incluido en el experimento. Para descubrir los gérmenes hubo que esperar a los experimentos de Pasteur, a las observaciones con microscopio, a las pruebas con cultivos. Pero de lo que trato de afirmar no me queda ninguna duda: lo que buscamos son frecuencias suficientemente estables y que permitan diferenciar dos clases de resultados experimentales. Las frecuencias subjetivas y la imaginación de los demás me preocupan poco o nada. Y si me preocupan es porque despistan de la verdadera investigación.

    Por ejemplo, dices que R nunc apoya T porque puede haber T' que implique R. Bueno, esa es una parte central de mi forma de ver la investigación y creo que la bayesiana más "ortodoxa" antes de tu propuesta. Consideramos la frecuencia de que tengamos falsos positivos porque otra teoría T' explique la aparición de casos de confirmación y tratamos de ver qué sucede en casos experimentales en los que podamos asegurar que no se dan los supuestos de T, aunque no podamos saber si se dan los de T' a Tn'. Sabemos que puede haber curaciones espontáneas de una enfermedad y por tanto las incluimos en los grupos control mientras que el curanderismo y los milagros tienden a apuntarse las curaciones aparentes de enfermos mal diagnosticados o de curaciones espontáneas.

    sigue ->

    ResponderEliminar
  69. sigue ->

    Mi crítica, Jesús, es que si tenemos en cuenta las precauciones para evitar falsos positivos y no llamamos casos confirmatorios a todo lo que parece seguirse de T, y más aún, si previamente analizamos lógicamente la hipótesis de modo que veamos que podemos cambiar en ella sin que cambien sus predicciones, tenemos lo suficiente. No hace falta más que la inferencia bayesiana "corriente" para asegurar que podemos inferir teorías desde los datos. Eso sí, teorías como las que he expuesto: instrumentales y sin una ontología en la mochila.

    Si tenemos unos resultados de una teoría confirmada puede que ocurran casos en el futuro que sean contrarios en algún sentido, pero no pueden serlo en el que digo yo o nos cargamos la posibilidad de las leyes naturales: la regularidad de la naturaleza. Puede que se den otras condiciones, que la aparición de una nueva situación explique nuevos resultados, pero no puede ocurrir que en LOS MISMOS supuestos que permitieron verificar T ocurran casos nuevos DISTINTOS. Me decepcionó un tanto Popper cuando lo leí que el pan no necesariamente alimenta porque los casos de contaminación con hongos hicieron morir a los que comían pan contaminado. ¿en serio eso es una crítica a la regularidad dela naturales, de las leyes científicas, a la inducción.

    Incluso la "ingeniosa" historia del pavo inductivista p¡me parece una pavada. La inducción es un filtro de información; retiene lo que no cabe por sus agujeros, o sea, lo que puede captar con la precisión de sus experimentos, pero se le pasa todo lo que no ha sido capaz de detectar. el pavo detecta una regularidad, y gracias a ello los pavos han sobrevivido millones de años y han evolucionado. Pero no puede detectar un mecanismo más complejo que el que él mismo usa para detectarlo. Nuestor método científico tampoco puede detectar cosas más complejas que nuestras teorías y operativos experimentales. Pero si cogen presa, la presa está cogida para toda la eternidad.

    ResponderEliminar
  70. Sursum:
    pienso que está bastante claro que mi modelo permite hacer exactamente lo que tú dices que debería hacer.

    ResponderEliminar
  71. Yo te respondo porque me parece que en tu modelo hay un exceso de peso en lo subjetivo. Uno empieza con observaciones, hipótesis y experimentos groseros y poco a poco va afinando. El método de la ciencia es una aproximación por iteraciones: en cada una de ellas se aplica la misma plantilla pero en cada una de ellas vamos progresando, desde que el niño se toca el pie y siente que se está tocando hasta que luego de unos cuantos años, el niño descubre la vacuna del SIDA.

    Lo subjetivo me parece parte del material que construye el conocimiento, pero no su forma. Sólo puedo pensar en términos de rojo, sólido, caliente, ahora, luego, lejos, cerca, manzana, calcetines. Pero nada de eso garantiza otra cosa que lo rojo y lo negro son distintos en el aspecto mostrado, lo caliente, cerca o lejos, que unos calcetines no tienen las propiedades de la manzana al morderlos y que no te puedes calzar la manzana. Lo que sabemos es lo que nos sirve, y el resto, bla bla bla ideológico, como dije en la otra entrada de otro tema.

    ResponderEliminar
  72. Sursum:
    "exceso de peso" es tan ambiguo como "bastante". Tú te piensas que en mi modelo lo subjetivo es absolutamente determinante, o casi, pero no tiene por qué. Por otro lado, es un poco engañoso llamarlo "subjetivo": lo único que se quiere decir con ese término es que la función p representa el grado de creencia DE CADA SUJETO EN PARTICULAR, pero no se hace la hipótesis de que esos grados de creencia vayan a ser absolutamente anárquicos, o algo así; al contrario, los sujetos los suelen basar en argumentaciones que por su propio carácter suelen ser públicas y compartidas, aunque con cierto margen para la diversidad.
    .
    Además, me parece que te pasa con la subjetividad como a la paloma de Kant con el aire: piensas que estaríamos mejor sin ella, cuando es el hecho de que la gente tenga estimaciones subjetivas de probabilidad lo que permite que se ponga en marcha CUALQUIER cálculo de probabilidades "objetivas".

    ResponderEliminar
  73. No Jesús. La subjetividad es componente indispensable del conocimiento; lo objetivo es su forma. No puede haber estructura sin elementos ni modelo NUESTRO del mundo sin verlo en colores, sabores, calor, frío, o lo que pueda sentir un bicho de otra galaxia para SU modelo. Pero podríamos traducir nuestro modelo de "aquí hay tres fresas rojas" al extraterrestre de manera que distinguiera nuestra afirmación de "traete unas cervecitas y unas almendras".

    Las afirmaciones, su significado, y el contenido e importancia de las teorías es, en ambos casos, la información que permite diferenciar cosas, hechos, estados, almendras de fresas, rojo de verde, gravitación de interacción electrostática. No sabemos otra cosa, pero justo ESO es lo que nos sirve.

    Lo mismo si tratamos de justificar al extraterrestre que las bacterias nos joden la vida y que hemos descubierto que la lavarnos las manos mejora bastante nuestra situación: El extraterrestre podría decirnos que nos comprende porque a e+el le sucede lo mismo con el iridio, por ejemplo.

    La objetividad es lo que queda tras el experimento y por eso "subjetividad" me produce picores.

    ResponderEliminar
  74. No diré que la ciencia puede ser absolutamente mecánica, fría, racional, pero creo que lo es, y que, si no lo es, falla el tiro.

    Por contra, todo lo que no es ciencia puede ser flores y pájaros, bonito, emocionante, pero no informativo. No conocimiento.

    ResponderEliminar
  75. Sursum:
    me temo que hablamos de cosas distintas; la cuestión no es "subjetividad vs. objetividad", sino más bien: dados los elementos subjetivos INELIMINABLES de la función de probabilidad que representa las creencias de cada individuo, preguntemos a cada uno QUÉ PRUEBAS E (valoradas según SU función de probabilidad, o sea, p(E) y p(T)) NECESITARÍA PARA ACEPTAR QUE T ESTÁ LO SUFICIENTEMENTE CONFIRMADO POR E.

    ResponderEliminar
  76. Jesús: Claro que se trata de qué pruebas pide cada uno para cambiar de idea. De hecho, eso es algo de lo que dijo Churchill de que un fanático es alguien que no puede cambiar de idea. O el clásico "malum consilium quod mutari no potest".

    LO que define a la ciencia es que sus hipótesis pueden ser refutadas y que se especifica qué es lo que las refuta. Pero no se trata de un mecanismo psicológico, sino de evaluar qué tenemos a favor, qué datos nos contradicen y en qué medida lo que creemos a favor o en contra lo está de hecho. El modelo de Aristarco no fue aceptado porque no se veían efectos del paralaje y parecía más sencillo creer que la Tierra era el centro. Pero había la hipótesis implícita de que el paralaje podía ser observado. Sin embargo, los epiciclos, que son el efecto del paralaje sobre la trayectoria observada de los planetas, no parecían un argumento contrario aunque deberían haberlo sido siempre.

    En la ciencia hay efectos de los prejuicios, pero deben ser eliminados. Las creencias del individuo son parte del individuo y lo que uno aspira a tener en el conocimiento es información acerca del mundo, no de sus propias ideas.

    ResponderEliminar
  77. Sursum:
    no se trata de un mecanismo psicológico, sino de evaluar qué tenemos a favor,
    Error: TODOS los mecanismos de EVALUACIÓN son psicológicos, es decir, no basta con que estén en un papel, sino que alguien tiene que CREÉRSELOS MÁS O MENOS, y el resultado es también la MODIFICACIÓN DE CUÁNTO SE CREE EL EVALUADOR LO QUE HA EVALUADO. Lo que hace falta es reflexionar sobre qué propiedades deseamos que tengan esos mecanismos de evaluación INEVITABLEMENTE PSICOLÓGICOS.
    Identificas lo "psicológico" o lo "subjetivo" con los "prejuicios", cuando no es así: tanto las CREENCIAS razonables como las CREENCIAS sesgadas son creencias, es decir, actos psicológicos subjetivos, y lo que queremos es tener una SUBJETIVIDAD en la que lo primero predomine sobre lo segundo, no "pensar sin sujeto".

    ResponderEliminar