La lógica de la investigación científica

42198453694_bcd543f337.jpg

NAVEGACIÓN: Monografía independiente de la línea secuencial principal. Para salir utilice «TODAS las SECCIONES»

Material complementario disponible:


Leyendo_Popper.jpg

[…]
La corroboración, o de qué forma sale indemne de la contrastación una teoría

Las teorías no son verificables, pero pueden ser «corroboradas». Se ha hecho a menudo el intento de describir las teorías como algo que no puede ser verdadero ni falso, sino solamente más o menos probable. En especial, la lógica inductiva ha sido elaborada en el sentido de que puede adscribir a los enunciados, no solo los dos valores de «verdadero» y «falso», sirio, asimismo, grados de probabilidad: tipo de lógica que cabe llamar «lógica probabilística», Según aquellos que creen en esta lógica, la inducción debería determinar la probabilidad de un enunciado; y habría un principio de inducción que, bien nos daría la seguridad de que el enunciado inducido es «probablemente valido», bien nos daría la probabilidad que fuese acerca de ello (ya que el principio de inducción podría, a su vez, ser nada más que «probablemente valido»). Pero, en mi opinión, todo el enfoque del problema de la probabilidad de hipótesis es erróneo: en lugar de discutir la «probabilidad» de una hipótesis deberíamos tratar de averiguar que contrastaciones, que pruebas ha soportado; esto es, tendríamos que intentar la averiguación de hasta qué punto ha sido capaz de demostrar que es apta para sobrevivir ­y ello por haber salido indemne de las contrastaciones­. En resumen, deberíamos disponernos a averiguar en qué medida esta «corroborada».

Con frecuencia no se ha parado mientes en el hecho de que las teorías no son verificables. Se dice a menudo que una teoría esta verificada cuando se han verificado algunas de las predicciones deducidas de ella; quizá se admita que la verificación no es impecable desde un punto de vista lógico, o que no es posible asentar de un modo definitivo un enunciado asentando unas consecuencias suyas; pero se está dispuesto a ver en tales objeciones el resultado de escrúpulos algo exagerados. Es completamente cierto, se dice, e incluso trivial, que no podemos saber con certeza si el sol saldrá mañana; pero esta incertidumbre puede no tomarse en cuenta: el hecho de que las teorías puedan no solamente mejorarse, sino también falsarse por nuevos experimentos, presenta al científico una seria posibilidad que puede actualizarse en cualquier momento, mas hasta ahora nunca ha tenido que considerarse falsada una teoría debido a un fallo súbito de una ley perfectamente confirmada; jamás ocurre que los antiguos experimentos den un día resultados nuevos; lo único que pasa es que unos experimentos nuevos se colocan enfrente de la antigua teoría. Ésta, incluso cuando queda superada, suele conservar su validez como una especie de caso límite de la nueva: aún es aplicable, al menos con bastante aproximación, en los casos en que antes tenía éxito. Brevemente dicho: las regularidades contrastables directamente por medio de experimentos no cambian. Admitimos, sin duda, que es concebible ­o lógicamente posible­ que cambien, pero esta posibilidad no se tiene en cuenta en la ciencia empírica y no afecta a sus métodos: por el contrario, el método científico presupone la inmutabilidad de los procesos naturales, o el «principio de la uniformidad de la Naturaleza».

Pueden decirse varias cosas en favor de los argumentos anteriores, pero hay que hacer constar que estos no afectan a mi tesis: expresan la fe metafísica en la existencia de regularidades en nuestro mundo (fe que comparto, y sin la cual es difícil de concebir la actuación práctica); pero la cuestión que se nos presenta ­la que hace significativa en el contexto actual la inverificabilidad de las teorías­ se encuentra en un piano totalmente distinto, Conforme a mi actitud con respecto a otras cuestiones metafísicas, me abstendré de argumentar a favor o en contra de la fe en la existencia de regularidades en nuestro mundo; pero tratare de hacer patente que la inverificabilidad de las teorías tiene importancia metodológica; y este es el plano en que me opongo al razonamiento propuesto.

Por consiguiente, consideraré pertinente solo uno de los puntos expresados: la referencia al llamado «principio de la uniformidad de la Naturaleza». Según me parece, este principio expresa de un modo muy superficial una importante regla metodológica ­y justamente una que podría deducirse muy ventajosamente de un estudio sobre la inverificabilidad de las teorías. Supongamos que el sol no salga mañana (y que, pese a ello, continuemos viviendo, y, asimismo, tratando de dar alcance a las cuestiones científicas que nos interesan). Si tal cosa ocurriera, la ciencia tendría que explicarla, esto es, que deducirla de leyes; posiblemente habría que revisar de un modo drástico las teorías actuales; pero las teorías revisadas no tendrían que dar razón meramente de la nueva situación: también habrían de ser deducibles de ellas nuestras experiencias anteriores.

Desde el punto de vista metodológico se ve que el principio de la un uniformidad de la Naturaleza esté remplazado por el postulado de la invariancia de las leyes naturales, tanto con respecto al espacio como al tiempo. A mi entender, pues, sería un error afirmar que las regularidades naturales no cambian (y este sería un tipo de enunciado tal, que no cabe argumentar ni a su favor ni en contra suya); diríamos más bien que es parte de nuestra definición de las leyes naturales, si postulamos que estas han de ser invariantes en el espacio y el tiempo, y si postulamos, además, que no han de tener excepciones. Así pues, la posibilidad de falsar una ley corroborada no carece, en modo alguno, de importancia desde un punto de vista metodológico: nos ayuda a encontrar lo que exigimos a las leyes naturales y esperamos de ellas. Y, a su vez, el «principio de la uniformidad de la Naturaleza» puede considerarse como una interpretación metafísica de una regla metodológica (como su pariente cercana, la «ley de causalidad»).

Si se intenta reemplazar los enunciados metafísicos de esta índole por principios del método, se llega al «principio de inducción», que, según se supone, gobierna el método inductivo ­y, por ello, el de verificación de las teorías­. Pero esta tentativa fracasa, ya que el principio de inducción es en sí mismo de carácter metafísico […], el supuesto de que este principio sea empírico conduce a una regresión infinita. Por consiguiente, podría introducírsele solamente como proposición primitiva (o postulado, o axioma); lo cual tal vez no tendría demasiada importancia si no fuese porque en todo caso habría de considerársele un enunciado infalsable. Pues si este principio ­que se supone da validez a la inferencia de teorías­ fuera falsable a su vez, quedaría falsado al mismo tiempo que la primera teoría falsada, ya que esta sería una conclusión deducida valiéndose del principio de inducción: y este, como premisa, quedaría, desde luego, falsado, en virtud del modus tollens, siempre que una teoría derivada de él resultase falsada.

Pero esto quiere decir que un principio de inducción falsable quedaría falsado de nuevo con cada progreso de la ciencia. Sería necesario, pues, introducir un principio de inducción que no fuese falsable: lo cual equivaldría a la equivocada noción de un enunciado sintético valido a priori, esto es, de un enunciado irrefutable acerca de la realidad. Así pues, si tratamos de convertir nuestra fe metafísica en la uniformidad de la Naturaleza y en la verificabilidad de las teorías en una teoría del conocimiento basada en la lógica inductiva, abocarnos en el dilema de elegir entre una regresión infinita y el apriorismo.

Probabilidad de una hipótesis y probabilidad de eventos: crítica de la lógica probabilística
Incluso si se admite que las teorías nunca quedan verificadas de un modo definitivo, ¿no podemos conseguir que sean seguras en mayor o menor grado, es decir, más o menos probables? Después de todo, quizá sería posible reducir la cuestión de la probabilidad de una hipótesis a la de la probabilidad de eventos, digamos, y de esta forma podrida hacérsela susceptible de tratamiento matemático y lógico. Del mismo modo que la lógica inductiva en general, la teoría de la probabilidad de hipótesis parece haber surgido gracias a una confusión de cuestiones psicológicas y lógicas. Reconozco, desde luego, que nuestros sentimientos subjetivos de convicción tienen diferentes intensidades, y que el grado de confianza con que esperamos que se cumpla una predicción y que luego se corrobore una hipótesis dependerá, probablemente ­entre otras cosas­, del modo en que dicha hipótesis haya salido indemne de las contrastaciones hasta el momento: o sea, de su corroboración anterior. Pero hasta los creyentes en la lógica probabilitaria reconocen que estas cuestiones psicológicas no pertenecen a la epistemología ni a la metodología.

Sin embargo, razonan que es posible ­basándose en decisiones inductivistas­ adscribir grados de probabilidad a las hipótesis mismas, y, además, que cabe reducir este concepto al de la probabilidad de eventos. La probabilidad de hipótesis suele considerarse un mero caso especial del problema general de la probabilidad de un enunciado, al que, a su vez, se tiene por el problema de la probabilidad de un evento, y nada más, solo que expresado en una terminología especial. Así, leemos en Reichenbach, por ejemplo: «El que atribuyamos probabilidad a enunciados o a eventos es solamente una cuestión de terminología. Hasta ahora habíamos considerado la asignación de la probabilidad 1/6 a que salga una cara determinada de un dado como un caso de la probabilidad de eventos; pero podríamos decir exactamente igual que aquello a lo que se asigna la probabilidad 1/6 es al enunciado 'saldrá la cara marcada con 1'».

Puede quizá llegar a entenderse mejor esta identificación de la probabilidad de eventos con la de enunciados, si recordamos […] el concepto de «evento» como una clase de enunciados singulares; y, por tanto, estará permitido hablar de la probabilidad de enunciados en vez de la probabilidad de eventos. Por tanto, podemos mirar tal sustitución como un simple cambio de terminología: las sucesiones de referencia se interpretan como sucesiones de enunciados. Si consideramos representada por enunciados una «alternativa» ­o, mejor, sus elementos­, podemos describir el que salga cara por el enunciado «k es cara», y lo contrario por la negación de este enunciado; de este modo, obtenemos una sucesión de enunciados de la forma Pj, Pk, Pl, Pm, Pn…, en la que a veces un enunciado P esta caracterizado como «verdadero», y otras (en las que se coloca una raya sobre el) como «falso». Por tanto, la probabilidad dentro de una alternativa puede interpretarse como la «frecuencia veritativa» relativa de los enunciados dentro de una sucesión de enunciados (en lugar de la frecuencia relativa de una propiedad). Si nos place, podemos llamar «probabilidad de enunciados» o «probabilidad de proposiciones» al concepto de probabilidad transformado de este modo; y cabe hacer patente una conexión muy estrecha entre este concepto y el de «verdad»: pues si hacemos cada vez más corta la sucesión de enunciados, de modo que finalmente no contenga más que un solo elemento ­esto es, un enunciado aislado­, entonces la probabilidad (o frecuencia veritativa) de la sucesión puede únicamente asumir uno de los dos valores 1 y 0, según que el enunciado aislado sea verdadero o falso. Por lo cual se puede considerar la verdad o falsedad de un enunciado como un caso límite de la probabilidad; y, a la inversa, esta puede considerarse como ·una generalización del concepto de verdad, dado que incluye a este último como caso límite. Finalmente, cabe definir las operaciones con frecuencias veritativas de tal suerte que las operaciones veritativas de la lógica clásica se conviertan en casos límites de aquellas operaciones; y puede llamarse «lógica probabilitaria» al cálculo con las mismas.

Pero, ¿podemos realmente identificar la probabilidad de hipótesis con la probabilidad de enunciados que acabamos de definir, y, por tanto, indirectamente, con la de eventos?

Creo que estas identificaciones son el resultado de una confusión. La idea de que se parte es la de que la probabilidad de hipótesis debe encuadrarse bajo el rótulo de «probabilidad de enunciados» ­en el sentido que se acaba de definir­, por tratarse, sin duda alguna, de un tipo de probabilidad de un enunciado; pero esta conclusión resulta ser injustificada, y de ahí que esta terminología sea completamente inadecuada, Tal vez, en resumidas cuentas, lo mejor sería no emplear nunca la expresión «probabilidad de enunciados» si nos queremos referir a la probabilidad de eventos.

Sea esto como fuere, afirmo que las consideraciones basadas en la lógica probabilitaria no rozan siquiera los temas que surgen a partir del concepto de una probabilidad de hipótesis; y que si alguien dice de una hipótesis que no es verdadera, sino «probable», entonces este enunciado , bajo ningunas circunstancias puede traducirse por otro acerca de la probabilidad de eventos. Pues si se intenta reducir la idea de probabilidad de hipótesis a la de frecuencia veritativa ­que emplea el concepto de sucesión de enunciados­, se encuentra uno frente a frente con la siguiente cuestión: ¿con referencia a que sucesión de enunciados puede asignarse un valor probabilitario a una hipótesis?

Reichenbach identifica la misma «aserción de la ciencia natural» ­con lo cual quiere decir una hipótesis científica­ con una sucesión de referencia de enunciados: dice, «las aserciones de la ciencia natural ­que no son nunca enunciados singulares­ son, en realidad, sucesiones de enunciados, a las cuales, hablando rigurosamente, no hemos de asignar el grado de probabilidad 1, sino otro más pequeño; por tanto, solamente la lógica probabilitaria nos proporciona la forma lógica capaz de representar el concepto de conocimiento propio de la ciencia natural». Tratemos ahora de seguir la sugerencia de que las hipótesis mismas son sucesiones de enunciados. Una forma de interpretar esto sería tomar como elementos de tal sucesión a los diversos enunciados singulares que pueden estar en contradicción con la hipótesis, o conformes con ella; entonces la probabilidad de dicha hipótesis estaría determinada por la frecuencia verítativa de los enunciados contenidos en la misma que estuvieran de acuerdo con ella. ¡Pero entonces la hipótesis adquiriría la probabilidad 1/2 si, por término medio, la refutase un enunciado singular de esta sucesión sí y otro no!

Con objeto de eludir esta conclusión devastadora podemos ensayar otros expedientes. Atribuiríamos a la hipótesis cierta probabilidad —quizá una no muy precisa— basándonos en una estimación que hiciésemos de la razón de todas las contrastaciones superadas por ella a las que aún no se han llevado a cabo. Pero este camino no lleva a ninguna parte, pues lo que ocurre es que es posible calcular semejante estimación de modo absolutamente preciso: y el resultado es siempre que la probabilidad es cero.

Finalmente, podríamos tratar de apoyar nuestra estimación en la razón entre las contrastaciones que llevan a un resultado favorable y las que conducen a uno indiferente, esto es, las que no dan lugar a una decisión clara (con lo cual podríamos verdaderamente obtener algo que se parecería a la sensación subjetiva de confianza con que el experimentador mira sus resultados). Pero tampoco valdría este último expediente, incluso si no tenemos en cuenta el hecho de que con semejante tipo de estimación nos desviaríamos sobremanera del concepto de frecuencia verítativa y del de probabilidad de eventos (pues estos conceptos se basan en la razón de los enunciados verdaderos a los falsos, y —como es natural— no hemos de igualar un enunciado indiferente con uno objetivamente falso); la razón del fracaso de esta última tentativa es que la definición que hemos sugerido convertiría la probabilidad de una hipótesis en algo tan subjetivo que echaría todo a perder: dependería más de los conocimientos y la habilidad del experimentador que de resultados objetivamente reproducibles y contrastables.

Pero entiendo que es enteramente imposible aceptar la sugerencia de que haya que tomar una hipótesis por una sucesión de enunciados. Sería posible tal cosa si los enunciados universales tuviesen la forma, «para todo valor de k es verdadero que en el lugar k ocurre esto y lo otro»: entonces podríamos considerar los enunciados básicos (aquéllos que estuvieran en contradicción o en conformidad con el enunciado universal) como elementos de una sucesión de enunciados —que sería la que habría que tomar como enunciado universal—.

Pero, según hemos visto […], los enunciados universales no poseen tal forma: los enunciados básicos no son jamás deducibles de enunciados universales solos, y, por ello, estos últimos no pueden considerarse como sucesiones de aquellos. Mas si pretendemos tomar en consideración la sucesión de aquellas negaciones de enunciados básicos que sean deducibles de enunciados universales, entonces la estimación de toda hipótesis coherente conduciría a la misma probabilidad, a saber, 1; pues, en tal caso, habríamos de tener en cuenta la razón entre los enunciados básicos negados no falsados que pueden deducirse (o bien otros enunciados deducibles) y los falsados; lo cual quiere decir que, en lugar de considerar una frecuencia de verdad, tendríamos que atender al valor complementario de una frecuencia de falsedad: pero este valor sería igual a la unidad, ya que tanto la clase de los enunciados deducibles como, incluso, la clase de las negaciones ­deducibles de enunciados­ básicos, son infinitas; y, por otra parte, no puede haber más que un número finito de enunciados básicos falsadores aceptados.

Así pues, aun en caso de que no tengamos en cuenta el hecho de que los enunciados universales no son nunca sucesiones de enunciados, y de que hasta tratemos de interpretarlos como una cosa de esta índole y de coordinarlos con sucesiones de enunciados singulares completamente decidibles, no llegamos a conseguir un resultado aceptable. Tenemos que examinar todavía otra posibilidad ­enteramente diferente­ de explicar la probabilidad de una hipótesis a base de sucesiones de enunciados. Puede recordarse que hemos llamado «probable» a un acontecimiento singular dado (en el sentido de un «enunciado probabilitario formalmente singular») si es un elemento de una sucesión de acontecimientos que tienen cierta probabilidad; podría intentarse análogamente llamar «probable» a una hipótesis si es un elemento de una sucesión de hipótesis con una frecuencia veritativa determinada. Pero esta tentativa vuelve a fracasar ­independientemente de la dificultad de establecer la sucesión de referencia (que puede elegirse de muchas maneras […]-¬, pues no podemos hablar de una frecuencia veritativa dentro de una sucesión de hipótesis, por el simple hecho de que no podemos saber nunca si una hipótesis es verdadera: si pudiéramos saberlo, apenas necesitaríamos para nada el concepto de probabilidad de una hipótesis.

Ahora podemos intentar, como hemos hecho más arriba, tomar como punto de partida el complemento de la frecuencia falsitativa dentro de una sucesión de hipótesis. Pero si, digamos, definimos la probabilidad de una hipótesis valiéndonos de la razón de las hipótesis de la sucesión no falsadas a las falsadas, entonces ­lo mismo que antes­ la probabilidad de toda hipótesis dentro de toda sucesión de referencia infinita ha de ser igual a 1. E incluso si elegimos una sucesión de referencia finita no nos encontramos en mejor situación: pues supongamos que, de acuerdo con este procedimiento, podamos atribuir a los elementos de cierta sucesión de hipótesis (finita) un grado de probabilidad comprendido entre 0 y 1, por ejemplo, el valor 3/4; podremos hacer esto si llegamos a informarnos de que tal o cual hipótesis de la sucesión ha quedado falsada; pero entonces, en la medida en que estas hipótesis falsadas son elementos de la sucesión, hemos de adscribirles —debido a la información obtenida— no el valor 0, sino 3/4; y, en general, la probabilidad de una hipótesis habría de decrecer en 1/n a consecuencia de la información de que es falsa (en donde n es el número de hipótesis de la sucesión de referencia).

Todo esto contradice de un modo palmario el programa, que nos habíamos propuesto, de expresar por medio de una «probabilidad de hipótesis» el grado de seguridad o confianza que tendríamos que atribuir a una hipótesis a la vista de los datos que la apoyan o la quebrantan. Con lo cual me parece que quedan agotadas las posibilidades de basar el concepto de probabilidad de una hipótesis en el de frecuencia de enunciados verdaderos (o en el de frecuencia de enunciados falsos), y, por tanto, en la teoría frecuencial de la probabilidad de eventos.

A mi entender, hemos de considerar la tentativa de identificar la probabilidad de una hipótesis con la probabilidad de eventos como un completo fracaso. Esta conclusión es enteramente independiente de si aceptamos la pretensión (de Reichenbach) de que todas las hipótesis de la física no son, «en realidad», o «cuando se las estudia detalladamente», sino enunciados probabilitarios (acerca de ciertas frecuencias medias dentro de sucesiones de observaciones, en las que siempre se observan desviaciones con respecto a un valor medio), o de si nos sentimos inclinados a establecer una distinción entre dos tipos diferentes de leyes naturales: las leyes «deterministas» o «precisas», por un lado, y las «leyes probabilitarias» o «hipótesis frecuenciales», por otro. Pues ambos tipos son asunciones hipotéticas que nunca pueden hacerse «probables» a su vez: lo único que pueden hacer es quedar corroboradas, en el sentido de que pueden «demostrar su temple» bajo el fuego (el fuego de nuestras contrastaciones).

¿Cómo explicaremos el hecho de que los creyentes en la lógica probabilitaria han llegado a la tesis opuesta? ¿Dónde se oculta el error cometido por Jeans cuando escribe —al principio en un sentido con el que puedo estar completamente de acuerdo— que «…no sabemos nada… con seguridad» y continúa: «En el mejor de los casos podemos tratar tan sólo de probabilidades; [y] las predicciones de la nueva teoría cuántica se encuentran en tanta conformidad [con las observaciones], que la verosimilitud de que este esquema tenga cierta correspondencia con la realidad es enorme: en realidad, podemos decir que es casi seguro que sea cuantitativamente verdadero…»?

Sin duda alguna, el error más corriente consiste en creer que las estimaciones hipotéticas de frecuencias —esto es, las hipótesis acerca de las probabilidades— pueden ser, a su vez, solamente probables; o —dicho de otro modo— en atribuir a las hipótesis probabilitarias cierto grado de una supuesta probabilidad de hipótesis. Podemos llegar a construir un argumento muy persuasivo en favor de esta errónea conclusión si recordamos que las hipótesis acerca de las probabilidades no son verificables ni falsables, en lo que a su forma lógica se refiere, e independientemente de nuestro requisito metodológico de falsabilidad […]: no son verificables por ser enunciados universales, y tampoco estrictamente falsables debido a que nunca pueden contradecirlas enunciados básicos algunos. Son, pues (según lo expresa Reichenbach), completamente indecidibles.

Ahora bien, como hemos tratado de mostrar, pueden estar mejor o peor «confirmadas», es decir, pueden estar de mayor o menor acuerdo con los enunciados básicos aceptados: y éste es el punto en que, según puede parecer, entra la lógica probalilitaria. La simetría entre la verificabilidad y la falsabilidad aceptada por la lógica inductivista clásica sugiere la creencia en que ha de ser posible coordinar tales enunciados probabilitarios «indecidibles» con cierta escala de grados de validez, algo así como «grados continuos de probabilidad, cuyos límites superior e inferior, inalcanzables, son la verdad y la falsedad» (por citar de nuevo a Reichenbach).

Sin embargo, según mi tesis, los enunciados probabilitarios, precisamente por ser completamente indecidibles, son metafísicas —a menos que nos decidamos a hacerlos falsables aceptando una regla metodológica—; por tanto, el sencillo resultado de su infalsabilidad no es que puedan estar mejor o peor corroborados, sino que no pueden estar corroborados empíricamente en medida alguna: pues, de otro modo —y teniendo en cuenta que no excluyen nada y que, por ello, son compatibles con todo enunciado básico—, podría decirse que estaban «corroborados» por todo enunciado básico arbitrariamente elegido (de un grado de composición cualquiera), con tal de que describiera un acontecimiento pertinente.

Creo que la física sólo emplea los enunciados probabilitarios del modo que he estudiado extensamente al tratar de la teoría de la probabilida; y, más en particular, que utiliza las asunciones probabilitarias como enunciados falsables, exactamente lo mismo que hace con las demás hipótesis. Pero rehusaría participar en ninguna discusión acerca de cómo proceden, «en realidad», los físicos, ya que ello tendrá que ser siempre, en gran medida, una cuestión de interpretación. Tenemos aquí un ejemplo bastante claro del contraste entre mi tesis y lo que he llamado en el apartado 10 la tesis «naturalista»: puede hacerse ver, en primer término, la coherencia lógica interna de mi teoría, y, en segundo, que está libre de las dificultades que cercan a otras. Reconozco, naturalmente, que es imposible demostrar que mi tesis sea exacta, y que, probablemente, sería fútil una controversia con quienes mantienen otra lógica de la ciencia: todo lo que cabe poner de manifiesto es que el modo en que abordo este problema particular es consecuencia de la concepción de la ciencia que he estado defendiendo.

Lógica Inductiva y lógica probabilitaria
No es posible reducir la probabilidad de hipótesis a la de eventos: esta es la conclusión que surge del examen llevado a cabo en el apartado anterior. Pero, ¿no podría llevar un modo distinto de enfrentarse con la cuestión a una definición satisfactoria de la idea de una probabilidad de hipótesis?

No creo que sea factible un concepto de esta última que pueda interpretarse en el sentido de que exprese el «grado de validez» de la hipótesis, de un modo análogo a como ocurre con los de «verdadero » y «falso» (y que, además, se encuentre en una relación suficientemente estrecha con el concepto de «probabilidad objetiva» ­esto es, de frecuencia relativa­ como para justificar el empleo de la palabra «probabilidad») 1. Sin embargo, adoptare con fines dialecticos la suposición de que se haya construido realmente semejante concepto, de suerte que se pueda plantear la cuestión sobre de qué modo afectaría tal cosa al problema de la inducción.

Supongamos que se ha reconocido que cierta hipótesis ­digamos, la teoría de Schrödinger­ es «probable» en un sentido determinado: ya sea «probable en este o aquel grado numérico» o meramente «probable», sin especificar grado. Podemos llamar evaluación de la teoría de Schrödinger al enunciado que la describe como «probable». Desde luego, una evaluación tiene que ser un enunciado sintético ­una aserción acerca de la realidad­ dcl mismo modo que lo serían los enunciados «La teoría de Schrödinger es verdadera» y «la teoría de Schrödinger es falsa».

Es evidente que todos ellos dicen algo acerca de la adecuación de la teoría, y que, por tanto, sin duda alguna, no son tautológicos: dicen que una teoría es adecuada o inadecuada, o que tiene cierto grado de adecuación. En segundo lugar, toda evaluación de la teoría de Schrödinger ha de ser un enunciado sintético inverificable, exactamente lo mismo que la teoría misma: pues la «probabilidad» de una teoría —esto es, la probabilidad de que ésta continúe siendo aceptable— no puede deducirse de un modo definitivo de enunciados básicos, como es patente. Nos vemos obligados a preguntar, pues: ¿cómo puede justificarse una evaluación?; ¿cómo puede contrastársela?, con lo cual surge de nuevo el problema de la inducción […].

En cuanto a la evaluación misma, podríamos afirmar que es «verdadera» o que es, a su vez, «probable». Si se la considera «verdadera» tiene que ser un enunciado sintético verdadero que no ha sido verificado empíricamente, esto es, un enunciado sintético verdadero o priori; y si se la toma como «probable», necesitamos una nueva evaluación, como si dijéramos una evaluación de la evaluación, y, por tanto, una evaluación de orden superior: pero esto quiere decir que estamos cogidos en una regresión infinita. La apelación a la probabilidad de la hipótesis es incapaz de mejorar la precaria situación de la lógica inductiva.
La mayoría de los que creen en la lógica probabilitaria sostienen la tesis de que se llega a la evaluación por medio de un «principio de inducción», que adscribe probabilidades a las hipótesis inducidas.

Pero si vuelven a atribuir una probabilidad a este principio, entonces continúa el regreso infinito; y si, por el contrario, le atribuyen la «verdad», entonces se enfrentan con el dilema de elegir entre la regresión infinita y el apriorismo. «De una vez para siempre —dice Heymans—la teoría de la probabilidad es incapaz de explicar los razonamientos inductivos: pues exactamente el mismo problema que se encuentra latente bajo éstos lo está bajo aquélla (en la aplicación empírica de la teoría de la probabilidad). En ambos casos, la conclusión va más allá de lo que está dado en las premisas».

Así pues, no se gana nada con sustituir la palabra «verdadero» por «probable», ni la palabra «falso» por «improbable». Sólo si se tiene en cuenta la asimetría entre verificación y falsación —la asimetría que procede de la relación lógica existente entre las teorías y los enunciados básicos— es posible evitar las celadas del problema de la inducción. Los creyentes en la lógica de la probabilidad pueden tratar de frustrar mis críticas afirmando que provienen de una mentalidad «atada al marco de la lógica clásica», e incapaz —por tanto— de seguir los métodos de razonar que se emplean en la lógica probabilitaria; admito, desde luego, que soy incapaz de seguir tales métodos.

Teoría positiva de la corroboración: Cómo puede «demostrar su temple» una hipótesis
¿No podrán volverse, quizá, contra mi propia tesis las objeciones que acabo de plantear a la teoría probabilitaria de la inducción? Podría muy bien ocurrir que así fuera, ya que están basadas en la idea de una evaluación: y —sin duda— tengo que emplear yo también esta idea. Yo hablo de la «corroboración» de una teoría, y ésta sólo puede expresarse como una evaluación (a este respecto no existe diferencia alguna entre corroboración y probabilidad). Además, también yo mantengo que no puede afirmarse que las hipótesis sean enunciados «verdaderos», sino solamente «conjeturas provisionales» (o algo semejante): tesis que también puede sólo expresarse en forma de evaluación de las hipótesis.

Es fácil responder a la segunda parte de esta objeción. La evaluación de hipótesis que, ciertamente, me veo obligado a emplear, y que las describe como «conjeturas provisionales» (o algo análogo), tiene el estatuto de una tautología: por tanto, no da lugar a dificultades del tipo originado por la lógica inductiva. Y ello porque tal descripción solamente parafrasea o interpreta la aserción (a la que por definición es equivalente) de que los enunciados estrictamente universales —esto es, las teorías— no pueden deducirse de enunciados singulares.

La situación es parecida en lo que respecta a la primera parte de la objeción, que se refiere a las evaluaciones que enuncian que una teoría está corroborada. La evaluación corroborante no es una hipótesis, sino que puede deducirse en cuanto se nos den la teoría y los enunciados básicos aceptados: aquella evaluación afirma el hecho de que estos enunciados no contradicen a la teoría, y su afirmación tiene debidamente en cuenta el grado de contrastabilidad de ésta y la dureza de las contrastaciones a que se la ha sometido —hasta un momento determinado.

Decimos que una teoría está «corroborada» mientras sale indemne de dichas contrastaciones. La evaluación que afirma a saber, la compatibilidad y la incompatibilidad. Consideramos a esta última como equivalente a falsación de la teoría; pero la compatibilidad por sí sola no puede hacer que atribuyamos un grado positivo de corroboración a aquélla: el mero hecho de que una teoría no haya sido falsada aún no puede considerarse suficiente, como es claro; pues no hay nada más fácil que construir una cantidad cualquiera de sistemas teóricos que sean compatibles con un conjunto dado de enunciados básicos aceptados (y esta observación es aplicable, asimismo, a todos los sistemas «metafísicos»).

Podría sugerirse tal vez que debería concederse un grado positivo de corroboración a una teoría si es compatible con el sistema de los enunciados básicos aceptados y si, además de esto, cabe deducir de ella parte de dicho sistema. O bien —si se considera que los enunciados básicos no son deductibles de un sistema puramente teórico (aun cuando sus negaciones sí pueden serlo) — podría sugerirse que se adoptara la regla siguiente: ha de concederse a una teoría un grado positivo de corroboración si es compatible con los enunciados básicos aceptados y si, además, una subclase no vacía de estos últimos es deductible de la teoría en conjunción con los demás enunciados básicos aceptados.

No tengo objeciones series que hacer a esta última formulación, salvo que me .parece insuficiente para caracterizar adecuadamente el grado positivo de corroboración de una teoría. Pues queremos decir que unas teorías están mejor o peor corroboradas; ahora bien, su grado de corroboración, sin duda alguna, no puede establecerse sin más que contar el número de casos corroboradores (o sea, el de enunciados básicos aceptados que sean deductibles del modo indicado): pues puede ocurrir que una teoría resulte estar mucho peor corroborada que otra, aun cuando hayamos deducido muchísimos enunciados básicos con la primera y solo unos pocos con la segunda.

Como ejemplo podemos comparar las hipótesis «todos los cuervos son negros» y «la carga del electrón tiene el valor determinado por Millikan»: aunque es de presumir que hayamos encontrado muchos más enunciados básicos corroboradores de la primera hipótesis, juzgamos que la hipótesis de Millikan es la mejor corroborada de las dos. Esto hace ver que lo que determina el grado de corroboración no es tanto el número de casos corroboradores cuanto la dureza de las diversas contrastaciones a las que puede someterse ­o se ha sometido­ la hipótesis en cuestión. Pero dicha dureza depende, a su vez, del grado de contrastabilidad, y, por tanto, de la sencillez de la hipótesis: la que es falsable en un grado más alto ­0 sea, la hipótesis más sencilla­ es también la corroborable en grado más elevado 1.

Como es natural, el grado de corroboración alcanzado de hecho no depende solamente del de falsabilidad: un enunciado que sea falsable en gran medida puede estar corroborado solo muy ligeramente, e incluso puede estar falsado en realidad; y quizá ­sin que se le haya falsado­ pueda estar superado por una teoría mejor contrastable, de la cual podría deducírsele ­u otro enunciado suficientemente aproximado a él­ (y, en este caso, su grado de corroboración disminuiría).

Del mismo modo que el grado de falsabilidad, el de corroboración de dos enunciados puede no ser comparable en todos los casos: no podemos definir un grado de corroboración calculable numéricamente, sino solo hablar aproximadamente de grades positivos o negativos de corroboración, etc. Pero podemos asentar varias reglas: por ejemplo, la de que no seguiremos atribuyendo un grado positivo de corroboración a una teoría que haya quedado falsada en virtud de un experimento contrastable intersubjetivamente y basado en una hipótesis falsadora […] (pero podemos, con todo, conceder bajo ciertas circunstancias un grado positivo de corroboración a otra teoría que siga un modo de pensar cercano al de aquélla: tenemos un ejemplo en la teoría einsteiniana del fotón, con su cercanía a la teoría corpuscular de la luz de Newton).

En general, consideramos que una falsación contrastable intersubjetivamente es definitiva (suponiendo que esté bien contrastada): éste es el modo en que se hace sentir la asimetría entre la verificación y la falsación. Cada una de estas cuestiones metodológicas contribuye de un modo peculiar al desarrollo histórico de la ciencia, que sigue un proceso de aproximaciones sucesivas: una evaluación corroborativa realizada posteriormente —esto es, una evaluación hecha tras haber añadido nuevos enunciados básicos a los ya aceptados— puede remplazar un grado positivo de corroboración por uno negativo, pero no viceversa—. Y aunque creo que en la historia de la ciencia es siempre la teoría y no el experimento, la idea y no la observación, lo que abre paso a nuevos conocimientos, creo también que es siempre el experimento lo que nos saca de las sendas que no llevan a ninguna parte —lo que nos ayuda a salir del atolladero y nos desafía a que encontremos una nueva ruta.

Así pues, el grado de falsabilidad o de sencillez de una teoría cuenta para la evaluación del grado en que está corroborada; evaluación que podemos considerar como una de las relaciones lógicas existentes entre la teoría y los enunciados básicos aceptados, y que tiene en cuenta la dureza de las contrastaciones a que ha sido sometida aquélla.

Karl R. Popper, La lógica de la investigación científica, Editorial Tecnos, 1980, págs. 234-250.


IMPORTANTE: Acerca de la bibliografía.
Toda referencia no detallada en el texto o en nota a pie, se encuentra desarrollada en su integridad en la Bibliografía General.

Navegar_centuria_2.gif



Envía un comentario



Si no se indica lo contrario, el contenido de esta página se ofrece bajo Creative Commons Attribution-NonCommercial-NoDerivs 3.0 License