Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Sir Karl Raimund Popper (1902-1994) fue uno de los filósofos más influyentes del siglo XX. Nacido en Austria y nacionalizado británico, su obra dejó una profunda huella en disciplinas como la filosofía de la ciencia y la filosofía política. Entre sus aportaciones más destacadas se encuentran el desarrollo del falsacionismo como criterio de cientificidad y su férrea defensa de la democracia liberal frente a los totalitarismos. Además, Popper fue protagonista de algunos de los debates filosóficos más significativos de su tiempo, reflexionando sobre temas como el progreso científico, la naturaleza de la probabilidad o la tensión entre sistemas políticos abiertos y cerrados. Diversos investigadores e investigadoras examinan, con rigor y claridad, las múltiples facetas de su pensamiento y ofrecen una guía tanto para adentrarse por primera vez en su obra como para profundizar en aspectos específicos de su propuesta: cuestiones de gran relevancia como la demarcación entre ciencia y pseudociencia, el criterio de progreso científico, el papel de la predicción en la contrastación de hipótesis, las controversias en torno a la teoría cuántica y el modelo de organización de la actividad científica. No solo se recogen las principales propuestas de Popper, sino que también se estudia su influencia en debates y propuestas contemporáneas.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 576
Veröffentlichungsjahr: 2025
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Esta publicación no puede ser reproducida, ni total ni parcialmente, ni registrada en, o transmitida por, un sistema de recuperación de información, de ninguna forma ni por ningún medio, sea fotomecánico, fotoquímico, electrónico, por fotocopia o por cualquier otro, sin el permiso de la editorial.Diríjase a CEDRO (Centro Español de Derechos Reprográficos, www.cedro.org) si necesita fotocopiar o escanear algún fragmento de esta obra.
© Del texto: los autores, 2024
© De la presente edición: Universitat de València, 2024
Publicacions de la Universitat de València
http://puv.uv.es
Coordinación editorial: Amparo Jesús-María
Maquetación y diseño de la cubierta: Celso Hernández de la Figuera
Corrección: Letras y Píxeles, S. L.
ISBN: 978-84-1118-481-6 (papel)
ISBN: 978-84-1118-482-3 (ePub)
ISBN: 978-84-1118-483-0 (PDF)
Edición digital
Introducción. Karl Popper: debates, propuestas e influencia, Víctor J. Luque, Saúl Pérez-González y Joan Gimeno-Simó
LALOGIK DER FORSCHUNGCOMO CONSTITUCIÓN CIENTÍFICA, Jesús Zamora Bonilla
LOS EMPIRISTAS LÓGICOS Y LA JUSTIFICACIÓN A PRIORI DE PRINCIPIOS NORMATIVOS, Jordi Valor Abad
CIENCIA Y PSEUDOCIENCIA: POPPER Y NUEVOS ENFOQUES, Germán Guerrero Pino y J. Isaac Racines C
LA REVUELTA HISTORICISTA FRENTE A POPPER, María Caamaño Alegre
PREDICCIÓN Y ACOMODACIÓN EN LA TRADICIÓN POPPERIANA, Valeriano Iranzo
EL INTERÉS DE POPPER POR LA FILOSOFÍA PRESOCRÁTICA, Sergi Rosell
POPPER Y LA INTERPRETACIÓN PROPENSIVISTA DE LA PROBABILIDAD, Charles H. Pence
EL OBSERVADOR EN LA TEORÍA CUÁNTICA, Vicent Picó
POPPER SOBRE LOS SINTÉTICOS A PRIORI EN BIOLOGÍA, Lorenzo Baravalle
Karl Popper (1902-1994) es uno de los pensadores más importantes e influyentes del siglo XX. El pensador vienés es conocido principalmente por sus aportaciones a diversas áreas de la filosofía de la ciencia. La más notable, sin duda, es la formulación de la metodología conocida como falsacionismo, cuya principal función consiste en trazar una separación clara, concisa y de carácter universal, entre lo que es ciencia y lo que no lo es. No obstante, el falsacionismo pertenece a un marco más amplio de pensamiento popperiano, conectado a las ideas de falibilidad y crítica. Toda actividad humana conlleva errores y la ciencia no es una excepción. Por tanto, no podemos aspirar a una certeza absoluta respecto al conocimiento que aportan las teorías científicas. Teniendo en cuenta que el error, el fallo, es inherente a los humanos, debemos centrarnos en buscarlo y corregirlo. Es este ejercicio crítico el que permite mejorar y progresar, obteniendo mejores y más precisas teorías. No obstante, es importante remarcar que esta faceta académica se desplegó en paralelo a una faceta más comprometida desde un punto de vista político y social, marcada por el rechazo a los totalitarismos y la defensa de las democracias liberales. Lejos de ser actividades ortogonales, Popper aplicó los elementos anteriores (falsacionismo, falibilismo, falta de certezas absolutas, crítica) tanto a su conceptualización de la ciencia como de la política y la sociedad, estableciendo la contraposición entre sociedades democráticas (sociedades abiertas) y sociedades totalitarias (sociedades cerradas).
El trabajo filosófico de Popper se enmarca dentro de la tradición de pensamiento germánico de principios del siglo XX. Esta corriente, aunque cuestiona la relevancia de la historia de la ciencia para la reflexión filosófica, estuvo fuertemente conectada con los desarrollos científicos contemporáneos. Las primeras décadas del siglo XX vieron el nacimiento de dos de las mayores revoluciones científicas de la historia: la aparición de la teoría de la relatividad (especial y general) y de la mecánica cuántica. En su elaboración, los científicos de las áreas germánicas (Max Plank, Albert Einstein, Erwin Schrödinger, Werner Heisenberg, etc.) o de su área de influencia (Niels Bohr, John von Neumann, Leó Szilárd, Eugene Wigner, etc.) jugaron un papel decisivo. Estos avances científicos tuvieron una gran relevancia en el surgimiento y desarrollo temprano de la filosofía de la ciencia contemporánea. En concreto, el positivismo lógico –cuyos autores fundamentales (Moritz Schlick, Rudolf Carnap, Otto Neurath, etc.) formaron el famoso Círculo de Viena– estuvo fuertemente influenciado por los desarrollos contemporáneos en el campo de la física. Uno de los aspectos fundamentales de su propuesta fue la elaboración de un pensamiento claro y preciso mediante el uso de las herramientas formales (lógica, matemáticas), conectado y en armonía con los últimos avances científicos. Aunque Popper nunca llegaría a formar parte del Círculo, haría suyos gran parte de los aspectos mencionados. A su vez, la teoría de la relatividad general será un ejemplo recurrente para mostrar la diferencia entre una buena teoría científica (una que postula predicciones nuevas y sorprendentes de forma precisa sobre el mundo, que podrían ser falsadas) frente a otras que no (marxismo, psicoanálisis, etc.). No obstante, Popper se distanciaría radicalmente del positivismo lógico en algunos elementos fundamentales y plantearía acercamientos propios y originales respecto de la naturaleza y metodología de la ciencia.
Este volumen expone, analiza y discute las contribuciones de Popper a algunos de los principales debates en el campo de la filosofía de la ciencia. Estas contribuciones abarcan desde cuestiones propias de la filosofía de la ciencia general, como la demarcación entre ciencia y pseudociencia, hasta cuestiones acotadas a determinadas disciplinas científicas. A continuación, expondremos brevemente la estructura y contenido del volumen.
El capítulo «La Logik der Forschung como constitución científica», a cargo de Jesús Zamora Bonilla, examina las implicaciones de una propuesta de interpretación de la filosofía popperiana formulada por el filósofo Ian Jarvie, quien propuso invertir la forma en la que tradicionalmente se había leído la relación entre la obra política de Popper y sus contribuciones a la filosofía de la ciencia. Frente a la idea tradicional según la cual sus planteamientos políticos son el resultado de aplicar sus principios de metodología de la ciencia al funcionamiento de la sociedad, Jarvie argumenta que son sus ideas sociales las que llevan a Popper a formular sus tesis metodológicas. Así, las normas mediante las cuales juzgamos la idoneidad de una teoría científica serían el resultado de una especie de acuerdo ideal, al estilo de Rawls, llevado a cabo por un conjunto de sujetos racionales –la comunidad científica– capaces de ver (trascendentalmente, al modo kantiano) las reglas que esta práctica exige. Estaríamos hablando, en la metáfora empleada por Jarvie y el propio Zamora Bonilla, de una «constitución de la República de la Ciencia». Tras presentar esta tesis, Zamora Bonilla procede a realizar una detallada crítica de esta desde diversos frentes. Señala, en primer lugar, algunos problemas interpretativos y seguidamente formula varias objeciones al papel central que Popper atribuye a la contrastabilidad. Señala que nada garantiza que las normas popperianas siempre den como resultado teorías más contrastables, y de hecho cuestiona la idea misma de que la contrastabilidad deba ser el valor central de la ciencia. A continuación, Zamora Bonilla avanza una importante tesis: si la ciencia está hecha por científicos de carne y hueso, es razonable suponer que estos persiguen objetivos diversos que no siempre tienen que ver con la maximización de la contrastabilidad o con la aproximación a la verdad (prestigio, acceso a recursos, etc.), y estos objetivos podrían requerir normas distintas a las propuestas por Popper. El capítulo concluye examinando la posibilidad de emplear la economía política constitucional –una rama de la microeconomía encargada de estudiar la toma de decisiones acerca de la elección de normas– para el análisis de las reglas de la ciencia, entendidas como una constitución de la República de la Ciencia popperiana.
El siguiente capítulo, «Los empiristas lógicos y la justificación a priori de principios normativos», a cargo de Jordi Valor, explora el criterio empirista del significado y las críticas formuladas contra este por Popper y otros autores. Los empiristas lógicos concibieron la elucidación del significado como un discurso de carácter normativo (prescriptivo) que tenía como objetivo establecer una distinción entre los discursos capaces de dotar de contenido a sus oraciones y los que no, partiendo de la premisa según la cual toda oración, para ser significativa, debe seguirse lógicamente de un conjunto coherente de oraciones observacionales –el llamado «principio de verificación»–. Entre los diversos problemas que se plantearon a esta concepción del significado, Valor destaca dos. En primer lugar, cabe plantearse qué estatus tiene el propio principio de verificación, puesto que, al aplicar a dicho principio lo que él mismo prescribe, lo que obtenemos es que este carece de significado –un problema análogo al que Wittgenstein plantea acerca de su propia obra al final del Tractatus–. El segundo problema, formulado inicialmente por Popper, tiene que ver con la significatividad del discurso científico, y más concretamente de las leyes naturales: dado que estas tienen forma de proposición universal («todo P es Q»), resulta imposible derivarlas deductivamente a partir de una serie coherente y finita de oraciones observacionales. Los empiristas lógicos no solo respondieron a Popper planteándole un problema análogo a la concepción falsacionista del significado defendida por este (los enunciados existenciales del estilo «hay un P que es Q» también interesan a la ciencia, pero no es posible falsarlos), sino que también esbozaron una forma de resolver las dos dificultades arriba mencionadas: tanto las proposiciones analíticas como las leyes naturales debían ser vistas no como aseveraciones fácticas, sino como una propuesta acerca de cómo emplear correctamente los términos contenidos en ellas, esto es, como la expresión de una regla; en última instancia, constituirían una invitación a adoptar un marco lingüístico determinado. Valor concluye explicando que, aunque los empiristas lógicos logran de este modo escapar a las críticas ya mencionadas y a otras que se les formularon más adelante, no lograron resolver otro problema más básico que les planteó Austin: jamás llegaron a explicar en qué consiste el significado de una oración entendida como una propuesta.
En el capítulo «Ciencia y pseudociencia: Popper y nuevos enfoques», Germán Guerrero Pino y J. Isaac Racines abordan el problema de la demarcación entre ciencia y pseudociencia. El texto persigue diversos objetivos, entre los que destacan reivindicar la importancia de la demarcación, estudiar el criterio de demarcación propuesto por Popper y contribuir a definir un marco para el análisis satisfactorio de las relaciones entre ciencia y pseudociencia. Guerrero y Racines empiezan presentando la noción de pseudociencia y explicando la importancia de distinguirla de la ciencia genuina. Dentro de las pseudociencias, podemos distinguir entre pseudoteorías (p. ej. cienciología) y negacionismo científico (p. ej. negación de la relación causal entre el consumo de tabaco y el cáncer de pulmón). Los autores señalan que tanto las pseudoteorías como el negacionismo pueden tener importantes consecuencias económicas, sociales y médicas. Posteriormente, Guerrero y Racines centran su análisis en el criterio de demarcación entre ciencia y no ciencia propuesto por Popper. El autor austriaco considera que las leyes científicas son enunciados especiales susceptibles de un único valor de verdad, a saber, la falsedad. Dado su carácter universal, las leyes no pueden ser probadas mediante observaciones singulares; sin embargo, sí pueden ser contradichas por dichas observaciones. Sobre esta base, Popper caracteriza las ciencias empíricas como aquellas disciplinas que son susceptibles de ser falsadas. Una teoría es falsable cuando existen enunciados básicos incompatibles con ella. En el ámbito de la no ciencia, encontraríamos, entre otras, a las pseudociencias. Estas, además, se caracterizarían por una actitud dogmática que trata de evitar las posibles falsaciones. Sin embargo, la propuesta falsacionista ha sido considerada como inadecuada para caracterizar y delimitar las pseudociencias. Se ha argumentado que ser falsable no es ni condición necesaria ni condición suficiente para ser pseudociencia. Finalmente, sobre la base del análisis previo de la teoría popperiana, Guerrero y Racines señalan algunos requisitos que una propuesta demarcacionista debería satisfacer. En este sentido, se considera crucial identificar criterios de cientificidad que, sin ser necesarios o suficientes, están a menudo presentes en la ciencia y la distinguen de la pseudociencia. Algunos criterios de cientificidad serían la precisión empírica, la coherencia interna y la aplicabilidad experimental. También se plantea la importancia de extender el proyecto sobre la demarcación para dar cuenta de aquellas doctrinas que, aunque no pretenden ser científicas, socavan el conocimiento humano (p. ej., la teoría de los chakras).
En el capítulo «La revuelta historicista frente a Popper», María Caamaño Alegre estudia la relación entre las propuestas de Popper, Thomas S. Kuhn y Paul Feyerabend. Caamaño Alegre trata de ir más allá de las habituales representaciones caricaturescas y considera la complejidad de las relaciones entre estos autores. En primer lugar, el texto identifica y discute algunas discrepancias aparentes que a menudo pueblan dichas representaciones. La habitual contraposición entre criticismo (Popper), dogmatismo (Kuhn) y anarquismo (Feyerabend) se revela como demasiado simple. En este sentido, por ejemplo, el falsacionismo planteado por Popper requeriría de la aceptación dogmática de un paradigma para ser adecuadamente aplicado. Además, los acercamientos descriptivos y normativos al proceder científico no son excluyentes, sino complementarios. El análisis de la práctica científica permite refinar las propuestas normativas. Posteriormente, Caamaño Alegre presenta y analiza desacuerdos genuinos entre Popper, Kuhn y Feyerabend. La autora presta especial atención al reconocimiento de la problematicidad de la base empírica. El falsacionismo de Popper descansa sobre el presupuesto de que los enunciados empíricos son aproblemáticos. Los autores historicistas, sin embargo, argumentan que a menudo resulta cuestionable si un hecho (contrario a cierta teoría) se ha establecido correctamente. Finalmente, Caamaño Alegre explora, a la luz del trabajo de Kuhn y Feyerabend, los límites de la propuesta popperiana. Argumenta que el método falsacionista de Popper difícilmente puede ser integrado en la práctica científica. La ciencia normal involucra requisitos y limitaciones incompatibles con el falsacionismo.
En el capítulo «Predicción y acomodación en la tradición popperiana», Valeriano Iranzo aborda el debate en torno al predictivismo y la noción de novedad en la tradición popperiana. En primer lugar, Iranzo introduce el predictivismo y caracteriza la posición de Popper al respecto. Como es bien sabido, las teorías científicas tratan de acomodar la evidencia ya conocida y, en algunos casos, también de predecir la ocurrencia de hechos desconocidos hasta el momento. El predictivismo es la posición, defendida por autores como Descartes, Leibniz o Duhem, que establece que la predicción novedosa tiene mayor valor que la acomodación. Popper, abrazando una versión radical del predictivismo, defendió que solo la evidencia novedosa predicha proporciona apoyo a la teoría y que la evidencia acomodada no es relevante en este sentido. Tras presentar el predictivismo, Iranzo se centra en el debate en torno a la noción de novedad. En primer lugar, analiza la postura de Popper, quien defiende el valor derivado de la novedad. Popper considera que las teorías científicas tienen que asumir riesgos y que la novedad de las predicciones realizadas es la principal fuente de riesgo. En este marco, la novedad es entendida en términos temporales, es decir, como prioridad temporal de la teoría respecto de la evidencia. A continuación, Iranzo contrasta el acercamiento de Popper con los de Lakatos y Worrall. Ambos autores plantean nociones alternativas de novedad a la cual atribuyen un valor intrínseco. Lakatos vincula la novedad no al momento de elaborar la teoría, sino al contexto teórico. En este marco, una predicción cuenta como novedosa para una teoría cuando se sigue de ella, pero no de las teorías alternativas disponibles. Por su parte, Worrall entiende la novedad en términos de uso. Una evidencia es considerada novedosa respecto de cierta teoría cuando no ha sido utilizada en la elaboración de esta. Finalmente, Iranzo considera y valora la influencia de las propuestas analizadas en el debate actual en torno al predictivismo. A este respecto, destaca cuestiones como el abandono del predictivismo radical, la situación dominante de la novedad de uso o la diversidad de propuestas antipredictivistas.
A lo largo del capítulo «El interés de Popper por la filosofía presocrática», Sergi Rosell analiza las contribuciones de Popper a la comprensión de la filosofía presocrática. El interés popperiano por esta etapa de la filosofía se mueve, de acuerdo con Rosell, en torno a dos objetivos: presenta, por un lado, un interés genuino por la comprensión de las ideas de los autores de la época, a los que interpreta como instauradores de un racionalismo crítico afín al popperiano, mientras que por otro los emplea instrumentalmente para vindicar sus propias ideas. Rosell da inicio a su exposición presentando la forma en que Popper concebía la tarea del historiador de la filosofía: en lugar de tomar la crítica textual como base para la formulación de teorías, propone una metodología según la cual el objetivo del historiador consistiría en formular conjeturas interpretativas interesantes, aunque no estén basadas directamente en la evidencia textual –esta solamente serviría para refutarlas–. De acuerdo con este principio metodológico, Popper interpreta a los filósofos presocráticos como prefiguradores de una racionalidad crítica similar a la suya propia, puesto que procederían formulando hipótesis no observacionales de gran poder explicativo que serían más adelante sometidas a refutación, hecho que llevaría a la formulación de nuevas conjeturas del mismo tipo. A modo de ilustración, el capítulo presenta brevemente la interpretación popperiana de diversos autores presocráticos –Anaximandro, Heráclito, Parménides, Jenófanes y los atomistas–. Seguidamente, Rosell procede a una evaluación crítica de las contribuciones de Popper: por un lado, su propuesta resta excesivo valor al componente observacional en los autores presocráticos y resulta, por tanto, inadecuada en tanto que interpretación histórica; pero, por otro, Rosell sí que considera la contribución de Popper como valiosa si la vemos desde la óptica de su segundo objetivo, esto es, el de presentar la filosofía presocrática como un antecedente histórico de un determinado modelo de racionalidad. Rosell concluye señalando que, si bien relajar la exigencia de precisión exegética, tal como Popper propone, puede sumar plausibilidad a su propuesta interpretativa, dicha relajación también resta apoyo a la idea de que la filosofía presocrática puede servir como precedente del tipo de racionalidad por el que Popper abogaba.
Charles Pence, por su parte, analiza en «Popper y la interpretación propensivista de la probabilidad» las diferentes concepciones de la probabilidad que pueden encontrarse en la literatura especializada y su uso en la obra popperiana. A pesar de que Kolmogorov proporcionó una axiomatización de la probabilidad, no dispuso a su vez una interpretación unívoca de esta. Así, aparecieron dos escuelas principales: la interpretación subjetivista de la probabilidad y la interpretación objetiva de la probabilidad. Para Popper esta doble visión contradictoria, y su posible uso conjunto en ciencias como la mecánica cuántica o la mecánica estadística, planteaban un grave peligro en el razonamiento científico. Por ello, Popper desarrolló una visión propia dentro de la interpretación objetiva de la probabilidad: la denominada interpretación propensivista. Así, los objetos del mundo tendrían ciertas disposiciones a producir ciertos resultados y podrían ser medidos mediante la frecuencia de sus resultados. Pence analiza las diversas interpretaciones de la probabilidad y muestra, en detalle, la conexión entre la interpretación propensivista popperiana y las aproximaciones que entienden la probabilidad como frecuencias a largo plazo. Además, recorre las posibles objeciones a la interpretación propensivista y la relación de las propensiones con los axiomas de la probabilidad de Kolmogorov. Esta relación es compleja en tanto que los axiomas restringen el uso de la probabilidad y su relación con otros campos; a su vez, una definición demasiado vaga de propensión invalida buena parte de su utilidad en el discurso científico. Por último, Pence muestra cómo la interpretación propensivista de Popper ha sido utilizada en campos como la biología evolutiva, y específicamente sobre el concepto de eficacia biológica.
La problemática de la probabilidad la reencontramos en el siguiente capítulo, «El observador en la teoría cuántica», donde Vicent Picó analiza las cuestiones ontológicas y epistemológicas planteadas por las diversas interpretaciones (subjetivistas o idealistas, por un lado, y realistas por otro) de la mecánica cuántica. En particular, Picó se centra en cómo se ha postulado el papel del observador y de la observación en general respecto al acto de medida de un sistema cuántico (además de la preparación del estado de dicho sistema). En este sentido, Popper defenderá (frente a la posición ortodoxa o de Copenhague) una visión realista y objetiva de la teoría cuántica, donde el observador no realizaría ningún papel y el acto de medida nos daría el estado objetivo del sistema. Con ello, Popper distinguirá la noción de medida de la noción de predicción. Picó recorre la postura popperiana respecto a la cuántica desde la publicación de su primera obra importante, La Lógica de la Investigación Científica (1934), hasta sus escritos de madurez de los años 80 del siglo pasado. Estas obras encontraron defensores y detractores entre los físicos de su época, especialmente a partir de la década de 1960. Picó muestra cómo esta influencia derivó en la elaboración de experimentos científicos concretos, cuya validez y discusión llega hasta la actualidad.
En el último capítulo del presente volumen, «Popper sobre los sintéticos a priori en biología», Lorenzo Baravalle trata la, en muchas ocasiones ambigua, relación que mantuvo Popper con la biología evolutiva. En primer lugar, en varias ocasiones el pensador vienés negó el estatus científico de la teoría de la selección natural de Darwin, considerándola unas veces tautológica y otras veces un programa metafísico, en tanto que no encajaba fácilmente en su epistemología de tipo falsacionista. A su vez, el éxito de la biología evolutiva del siglo XX (y su marco teórico, la síntesis moderna) hizo que Popper intentara diversas estrategias argumentativas para amoldarla a su propia epistemología. De este modo, Baravalle analiza dichas estrategias y se centra, especialmente, en lo que denomina la «fase metafísica» de la interpretación popperiana de la teoría de la selección natural. Lejos de la excepcionalidad respecto al resto de teorías científicas que planteó Popper para salvaguardar su cientificidad, Baravalle señala que todas las teorías científicas maduras (especialmente en física) contienen los mismos elementos conceptuales y teóricos que la teoría de la selección natural. Más concretamente, sería la existencia de leyes sintéticas a priori (en la tradición de pensamiento kantiano) lo que caracteriza a dichas teorías científicas. Ciertas leyes (la segunda ley del movimiento de Newton, el principio de evolución por selección natural, etc.) funcionarían más como principios-guía que como leyes puramente empíricas, ofreciendo a la investigadora un esquema explicativo o heurístico. Dicho esquema permite encontrar regularidades empíricas. Sin embargo, contrariamente a la concepción tradicional popperiana, no es falsable en tanto que no dicen nada específicamente empírico respecto al mundo, sino que establecen la condición de posibilidad de su conocimiento. Nos dicen qué debemos buscar y qué tipos de leyes más específicas (las cuales sí tienen contenido empírico) podemos elaborar. Toda teoría científica madura, por tanto, contendría elementos a priori (no falsables) y especializaciones empíricas (falsables), garantizando así su papel explicativo y predictivo.
El trabajo de Víctor J. Luque ha sido financiado por el Ministerio de Ciencia e Innovación (Gobierno de España) a través del proyecto PID2021-128835NB-I00 y por la Conselleria d’Innovació, Universitats, Ciència i Societat Digital (Generalitat Valenciana) a través del proyecto CIGE/2023/16. El trabajo de Saúl Pérez-González ha sido financiado por el Ministerio de Ciencia e Innovación (Gobierno de España) a través del proyecto PID2021-125936NB-I00 y por la Conselleria d’Innovació, Universitats, Ciència i Societat Digital (Generalitat Valenciana) a través del proyecto CIGE/2023/16.
Víctor J. Luque, Saúl Pérez-González y Joan Gimeno-Simó
Universitat de València
Jesús Zamora Bonilla
UNED, Madrid
Tratándose de uno de los pensadores más influyentes del siglo pasado, la evolución del pensamiento de Karl Popper, así como la historia de sus escritos, publicaciones y debates con otros autores, dejan a estas alturas muy poco espacio para descubrimientos historiográficos realmente novedosos. No pretendo, por tanto, ni tampoco lo permitiría mi escasa competencia como historiador de las ideas, aportar algunos datos nuevos sobre el desarrollo de las ideas de Popper, ni sobre la influencia que otros autores pudieron ejercer sobre él o viceversa. El propósito de este artículo es más bien comentar y discutir una sugerente interpretación filosófica de la evolución de la filosofía popperiana durante los años treinta y cuarenta del siglo XX, y con ella, del pensamiento popperiano en su conjunto. Digamos que mi esfuerzo se enmarca, pues (y si se me permite el uso de un concepto no muy habitual en el terreno de la filosofía analítica), más en el campo de la hermenéutica que en el de la historiografía propiamente dicha. La interpretación a la que me refiero fue presentada, hace aproximadamente dos décadas, por un discípulo directo de Popper, el filósofo británico radicado en Canadá Ian Jarvie, en una época en la que tuve la oportunidad de colaborar extensa e intensamente con él en varios proyectos filosóficos. Desgraciadamente, esta tesis de Jarvie no ha generado, al parecer, demasiado interés entre los intelectuales que podrían estar más involucrados en esta clase de debates (tanto los expertos en Popper como otros filósofos de la ciencia o especialistas en filosofía política), por lo que, a pesar del tiempo transcurrido, me parece importante aprovechar la oportunidad de esta publicación para darla a conocer a los lectores españoles.
Enunciada con brevedad, la tesis consiste en afirmar que, contra la interpretación establecida sobre la evolución del pensamiento popperiano en la época a la que nos estamos refiriendo, interpretación según la cual sus dos grandes obras sobre teoría política (La miseria del historicismo –1944– y La sociedad abierta y sus enemigos –1945–) consisten en una especie de aplicación al ámbito de la política y de la sociedad del «falsacionismo –y falibilismo– metodológico» que Popper había desarrollado previamente como fundamentación epistemológica del método de la ciencia en La lógica de la investigación científica –1935–, en realidad, el proceso de desarrollo conceptual sería más bien el inverso: es «la concepción popperiana sobre el funcionamiento de la sociedad», o sobre el fundamento racional de dicho funcionamiento, concepción que luego se desarrollaría con más detalle en las obras escritas durante la Segunda Guerra Mundial, la que ya está presente en su obra «metodológica» de principios de los años treinta, y la que inspira sus ideas sobre «cómo funciona (y debe funcionar) la ciencia».1 La interpretación de Jarvie nos exige, pues, leer La lógica de la investigación científica como una obra que se refiere fundamentalmente al carácter institucional de la ciencia, es decir, «a la ciencia entendida como una institución». En otras palabras: «es el falsacionismo popperiano el que estaría basado en una cierta concepción sobre la sociedad y la política, y no tanto la concepción popperiana de la democracia la que estaría “basada” en su filosofía de la ciencia». El orden cronológico en el que las tres obras citadas fueron escritas no representaría, pues, según Jarvie, el verdadero orden de «fundamentación conceptual», sino que ambas ramas del árbol de las teorías de Popper (la epistemológica y la política) surgirían más bien de un mismo tronco: el de su visión, en el fondo kantiana, sobre lo que demanda una comunidad de sujetos racionales pero falibles, si queremos considerarla «democrática», o con un término quizás más apropiado, una comunidad auténticamente «republicana». A lo que nos invita Ian Jarvie, por tanto, es a considerar La lógica de la investigación científica como un ensayo expresamente dedicado a elaborar algo así como la constitución de «la República de la Ciencia». No es extraño, pues, que el título de la obra de Jarvie sea precisamente The Republic of Science: The Emergence of Popper’s Social View of Science, 1935-1945.
En lo que sigue, mi artículo estará dividido en tres secciones. En primer lugar (sección «Las reglas metodológicas como conversaciones y la protoconstitución de la ciencia»), expondré sucintamente la visión del falsacionismo popperiano entendido como un «prototratado constitucional» de la institución que llamamos «ciencia», siguiendo las sugerencias de Ian Jarvie, poniendo el foco en la idea (tantas veces repetida como malinterpretada) de que, para Popper, las normas metodológicas no son principios lógicos, sino convenciones. En segundo lugar (sección «Crítica a la constitución falsacionista»), formularé algunas críticas a la «constitución falsacionista de la ciencia», tal como habría sido concebida por Popper. Y en tercer lugar (sección «Para una economiapolítica constitucional de las instituciones y normas científicas»), intentaré mostrar, desde lo que se conoce como «teoría económica de la constitución» (constitutional economics), de qué modo una sociedad con ciudadanos y científicos «de carne y hueso» preferirían racionalmente establecer una «constitución científica» que se apartaría de modo sustancial de las (en mi opinión) demasiado estrictas normas formuladas por Karl Popper, de manera no muy diferente a como las leyes y costumbres de una república realmente existente tenderán a ser menos rigurosas e inflexibles que las que Immanuel Kant habría podido derivar de su famoso «imperativo categórico».
A pesar de la palabra con la que comienza el título de su gran obra sobre el método científico (Logik der Forschung), la afirmación más fundamental de Popper a propósito de esa cuestión es que las «reglas metodológicas» no constituyen una «lógica» en el sentido de, por ejemplo, la «lógica de enunciados» o la «lógica de predicados», sino más bien como «la lógica del ajedrez» (Popper, 1934/59, sección 11). Un sentido importante en el que esto es así es el de que las reglas del método científico son las que son, pero podrían haber sido otras; es decir, han sido elegidas entre otras posibles, y son, por tanto, el resultado de una convención o un acuerdo. No se nos dice claramente entre quién y cuándo se llevó a cabo dicha convención, sino que se habla genéricamente de «los científicos» (o del «hombre de ciencia», ibíd., sección 85), y la impresión que uno saca de la lectura de la obra es que estamos hablando de una especie de acuerdo ideal, en el que, al modo kantiano, un sujeto racional cualquiera podría ver (eligiendo, por así decir, «tras el velo de la ignorancia» de sus circunstancias particulares, esto es, de su concreta posición en el desarrollo histórico de la ciencia) cuáles son las normas o reglas exigidas de manera «trascendental» por la propia razón.
Ahora bien, las convenciones, por su propia naturaleza, no pueden ser demostradas como teoremas lógicos o matemáticos, ni confirmadas mediante una investigación empírica (de modo que, por ejemplo, el estudio histórico de la ciencia real no podría más que informarnos acerca de cuáles han sido las reglas metodológicas que los científicos de carne y hueso han elegido de hecho, pero no que tales reglas sean las que tendrían que haber elegido en caso de haber sido racional esta elección). Ahora bien, pese a depender de una decisión voluntaria, tampoco son algo totalmente «arbitrario», en el sentido de que «dé igual» qué convención sea la elegida: habrá convenciones más apropiadas y convenciones menos apropiadas, y será necesaria alguna clase de argumentación racional para decidir cuál es la «convención que más conviene» en cada caso. Por supuesto, el convencionalismo como interpretación de la ciencia no es una innovación de Popper, y él mismo dedica gran parte de La lógica... a criticar otra filosofía de la ciencia conocida con ese nombre: el convencionalismo (o instrumentalismo), según el cual las teorías científicas que son aceptadas lo son porque son las que «más convienen», y no porque de alguna forma sean «las más verdaderas» o las que contamos con más razones objetivas para pensar que representan la realidad tal y como es. Ernst Mach y Henri Poincaré serían defensores clásicos de una postura similar a esta en las generaciones anteriores a Popper. Nuestro autor, en cambio, da un giro radical en la concepción del «convencionalismo» que nos invita a asumir, haciendo que no sean «las teorías o leyes científicas» las que son el objeto de la convención o decisión convencional, sino «las reglas metodológicas» mediante las que juzgamos cómo de apropiadas son aquellas teorías.
Sea como sea, el caso es que, para decidir si una convención es adecuada, es necesario tener en cuenta las razones por las que tenemos un interés en adoptar alguna convención sobre el asunto, y estas razones no pueden ser otras salvo «los fines que perseguimos» al elegir entre las convenciones posibles. Digamos, pues, que «el objetivo del proceso de investigación científica» debería ser el que nos iluminase a la hora de decidir cuáles deben ser las reglas metodológicas que consideraremos óptimas. ¿Cuál es, pues, el «objetivo de la ciencia», la razón por la que decidimos llevar a cabo la actividad que llamamos «ciencia» en vez de otras diferentes? Aquí, por desgracia, el argumento de Popper parece un tanto discutible, pues afirma que «las reglas están construidas con el objetivo de asegurar la aplicabilidad de nuestro criterio de demarcación» (ibíd., sección 11; cursivas mías). Naturalmente, «nuestro criterio de demarcación» no es otro que el de la falsabilidad:
En otras palabras: no requeriré de un sistema científico que sea capaz de ser escogido de una vez por todas en un sentido positivo; pero requeriré que su forma lógica sea tal que pueda ser escogida, por medio de tests empíricos, en un sentido negativo: debe ser posible para un sistema científico empírico el ser refutado por la experiencia (ibíd., sección 6).
Antes de comenzar a discutir en qué medida la demanda de falsabilidad (o de la máxima falsabilidad posible, como veremos en seguida) es un fin suficiente para construir sobre él todo un sistema de reglas metodológicas, veamos cuáles son las «normas» que el propio Popper tenía en mente, al menos según la reconstrucción que hace Jarvie. Un aspecto desalentador de La lógica de la investigación científica para un lector contemporáneo consiste en que, una vez que Popper ha formulado como uno de los objetivos principales de la obra ofrecer una peculiar visión de las normas científicas, el libro no procede a formular de modo sistemático tales reglas, sino que entra de manera casi inmediata a discutir otros problemas filosóficos de gran interés en su época (como los de la inducción o la demarcación), lo cual, por supuesto, solo muestra que, como toda obra interesante, el libro es hijo de su tiempo. Esta falta de sistematicidad respecto al análisis de las reglas científicas condujo a Jarvie a examinar en profundidad el texto intentando encontrar en él todas y cada una de las reglas que Popper fue, por así decir, «dejando caer». La lista completa puede verse en Jarvie (2001: 39 y ss.); aquí me limitaré a presentar las más importantes, suficientes para hacernos una idea del tipo de «reglas del método científico» que tenía Popper. Esta enumeración comienza con lo que Jarvie denomina «la regla suprema» (RS):
(RS) Las demás reglas del proceder científico deben ser diseñadas de tal modo que no protejan ningún enunciado en la ciencia contra la refutación.
A continuación, vendrían las reglas siguientes:
(R1) El juego de la ciencia, en principio, es un juego sin fin. Quien un día decide que algunos enunciados científicos no deben someterse a ninguna otra contrastación, y deben considerarse como finalmente verificados, se retira del juego.
(R2) Una vez que una hipótesis ha sido propuesta y contrastada, y ha probado su temple, no debe permitirse eliminarla sin alguna «buena razón».
(R3) No debemos abandonar la búsqueda de leyes universales y de un sistema teórico coherente, ni cejar en nuestros intentos de explicar causalmente cualquier tipo de evento que podamos describir.
(R4) No deben usarse conceptos indefinidos como si estuvieran definidos implícitamente.
(R5) Solo son aceptables aquellas hipótesis auxiliares cuya introducción no disminuye el grado de falsificabilidad o contrastabilidad del sistema en cuestión, sino que, por el contrario, lo incrementan.
(R7) Los experimentos intersubjetivamente contrastables deben ser o bien aceptados, o bien rechazados, a la luz de contraexperimentos.
(R9) Después de haber hecho alguna crítica de una teoría rival, debemos siempre intentar aplicar formalmente la misma crítica a nuestra propia teoría.
(R10) No debemos aceptar enunciados básicos sueltos (o sea, desconectados lógicamente de otros), sino que debemos aceptarlos en el curso de la contrastación de teorías; o bien debemos sugerir preguntas de investigación sobre esas teorías, que puedan ser respondidas mediante la aceptación de enunciados básicos.
(R11) Hay que dar preferencia a aquellas teorías que puedan ser contrastadas más severamente, es decir, aquellas teorías que tengan el mayor contenido empírico posible.
La lista completa de estas reglas es lo que Jarvie denomina la «protoconstitución popperiana de la ciencia», es decir, algo así como el «contrato social» mediante cuya «firma» se constituye la actividad que denominamos «ciencia», y que cada uno aceptaría implícitamente al decidir convertirse en un «científico».
Discutiré ahora algunos problemas importantes que encuentro en esta «constitución falsacionista de la ciencia», aparte de su evidente, y ya citada, falta de sistematicidad (lo que, de por sí, no es un problema grave). La primera dificultad importante está en la propia naturaleza de las reglas formuladas por Popper: ¿las propone como una sugerencia, como una especie de «invitación» a practicar el juego de la ciencia según esas reglas en vez de según otro conjunto de normas diferente? ¿O acaso piensa que estas reglas forman algo así como la esencia de la investigación científica, de modo que, si se jugase el juego con otras reglas, no deberíamos llamar «ciencia» a lo que hacemos? Creo que la mayoría de los lectores estarían de acuerdo más bien en atribuir a Popper la segunda interpretación, aunque no sería una cuestión completamente cerrada. Otra forma de plantear esta misma cuestión es preguntarse si, para Popper, alguien que no siguiera estas reglas, o que las desobedeciera parcialmente, debería ser calificado como un mal científico, o más bien no debería ser calificado como científico en absoluto. La cuestión se complica si pensamos que cada norma no solo puede ser obedecida o desobedecida, sino también obedecida y desobedecida en mayor o menor medida: ¿qué grado exactamente de incumplimiento tendría alguien que alcanzar para que considerásemos que lo que hace no es ciencia en absoluto, en vez de que hace «mala ciencia»? El problema es que La lógica de la investigación científica, con su insistencia en el problema de la demarcación (y, no menos importante, por su posición histórica en los debates iniciales sobre el positivismo lógico), está escrita de tal manera que una lectura, digamos, «categórica» de las reglas metodológicas parece más coherente con las intenciones de Popper que una interpretación más «laxa»: si desobedeces mínimamente cualquiera de las reglas falsacionistas esparcidas por el texto de la obra, no serías un «verdadero científico». Pero esto parece demasiado estricto: quizás alguien pueda preferir algunas veces, por motivos justificados, alguna teoría con un poquito menos de contrastabilidad, y aun así poder considerarse un «científico», incluso un científico falsacionista, de modo similar a como un buen atleta profesional puede ocasionalmente saltarse algún entrenamiento. Quizás sea mejor, y más coherente con el trasfondo filosófico del pensamiento popperiano, interpretar esta «constitución metodológica» como un «tipo ideal» weberiano, o mejor aún, como una «idea regulativa» kantiana (dicho sea de paso: la ética formalista de Kant, con gran seguridad una de las fuentes últimas del enfoque elegido por nuestro autor para abordar el problema epistémico de la ciencia, sufre un problema normativo similar al que estamos señalando en Popper: cualquier acción contraria al imperativo categórico, ya sea una vulgar mentirijilla, ya sea un asesinato con premeditación, solo puede ser juzgada como «exactamente igual de inmoral» que las demás acciones que lo contradicen).
Pero incluso esta interpretación como «tipo ideal» o como «idea regulativa» no resuelve del todo el problema de si debemos interpretar las normas metodológicas popperianas como una sugerencia sobre cómo hacer ciencia, o como una definición de lo que consiste hacer ciencia. Según la tesis, que hemos venido explorando, de que las normas metodológicas poseen en realidad la naturaleza de «convenciones» (y no la de «verdades lógicas»), quizás podría parecer más natural la primera opción, aunque quizás el debate filosófico de los años treinta (al contrario que el de muchas décadas después) no era en el que mejor podría haber fructificado una opción como esta. En todo caso, y como ya hemos visto, la interpretación de las reglas como acuerdos o convenciones nos lleva de cabeza a plantearnos una pregunta más fundamental: ¿por qué deberías tú seguir esas normas, en vez de otras alternativas, tal vez muy similares, o tal vez no tanto? La respuesta inmediata de Popper pienso que sería, naturalmente, que debes seguir esas normas para alcanzar el fin de que tus teorías sean lo más contrastables posible, pero esto no hace más que llevarnos a otras preguntas:
1. Seguir las reglas popperianas, tal y como están formuladas, ¿nos llevará de hecho a maximizar el grado de contrastabilidad de nuestras teorías? Es decir, ¿no es posible que este objetivo pueda ser alcanzado de manera más eficiente a través de otras reglas más o menos distintas?
2. ¿Por qué tiene que ser la contrastabilidad el objetivo más importante y quizás incluso único de la práctica científica? Después de todo, la propia noción de «contrastabilidad» (testability) suena intuitivamente (al menos a quien esto escribe) como algo que es un medio para obtener algunas cosas más valiosas, como algo que debería tener un valor instrumental, y no tanto como un fin que tenga valor «por sí mismo».
Al fin y al cabo, Popper habla a menudo en el libro sobre «el progreso de la ciencia», «el progreso del conocimiento» e incluso del «progreso» a secas, como el premio que lograremos obtener obedeciendo sus consignas. Así pues, ¿por qué debería ser la contrastabilidad (y solo la contrastabilidad) el único medio para fomentar el progreso científico? ¿Qué ocurre si los objetivos de la ciencia (y de los científicos) son en realidad más diversos y complejos que lo que Popper parece presuponer, y si existen medios más laberínticos de alcanzarlos o aproximarse a ellos que una obtusa fijación con la contrastabilidad?
A propósito de la primera cuestión, una manera sencilla en la que las reglas popperianas podrían no ser lo bastante eficientes sería si la maximización de la contrastabilidad de un segmento particular de la compleja red de proposiciones involucradas en cualquier proceso de investigación real pudiera en ocasiones implicar una reducción significativa en la contrastabilidad de otros tales segmentos. Tal vez, para lograr que una teoría en concreto resulte altamente contrastable no tengamos más remedio que aceptar, de manera más o menos dogmática (o sea, muy poco contrastable), algunas otras hipótesis teóricas, bien sean más generales y profundas (por ejemplo, relacionadas con los presupuestos generales del campo científico en cuestión), bien sean más bien técnicas (como, por ejemplo, las relativas a los procedimientos de medición o a hipótesis estadísticas básicas). Tengo serias dudas de que el sistema popperiano permita ofrecer algo así como una medida global de contrastabilidad (si es que el hecho de desarrollar una medida local de contrastabilidad para fragmentos teóricos muy pequeños no es ya un reto lo bastante difícil de por sí), de tal manera que, en casos como este, pudiéramos obtener algún tipo de recomendación clara y practicable sobre cómo «maximizar la contrastabilidad de la ciencia en su conjunto». Tal vez Popper insistiría en que sus normas deben solo leerse como consejos para el científico individual, que tiene siempre la obligación de maximizar la contrastabilidad de «su» parcela de investigación. Pero creo que, incluso en este caso, es una cuestión completamente abierta la de si un elevado número de científicos individuales, procediendo cada uno según estos consejos, llevarían a que la ciencia maximizase globalmente el grado de contrastabilidad de las teorías puestas sobre la mesa (así como cualquier otra medida de «progreso científico» que podamos considerar), o si tal vez no existirían algunos mecanismos complejos, a modo de «retroalimentación negativa», que hicieran que la maximización del progreso global fuese realizada más eficazmente a través de algún proceso que podríamos llamar «mandeviliano» (por la idea de Bernard Mandeville de que los «vicios privados conducen a virtudes públicas»), en vez de conduciéndose cada uno de ellos de un modo completamente «honesto» (en el sentido de obedecer a rajatabla el falsacionismo popperiano). Por poner un ejemplo: imaginemos que los científicos individuales pueden elegir entre desarrollar sus teorías preferidas según estrictas normas falsacionistas o hacerlo de un modo más «verificacionista», o sea, «protegiendo» a menudo aquellas teorías contra la falsación. ¿Hay alguna garantía de que la primera estrategia conduzca necesariamente a un nivel de progreso científico global mayor que la segunda (que, por supuesto, no sería otra cosa sino la «metodología de los programas de investigación» de Imre Lakatos)?
A propósito de la cuestión segunda, es bien sabido que, en La lógica de la investigación científica, Popper evitó mencionar «la verdad» como el objetivo de la ciencia (al contrario de lo que hizo años más tarde, gracias, según él, a la «rehabilitación» del concepto de verdad llevado a cabo por Alfred Tarski). Podemos preguntarnos el aspecto que habría tenido dicho libro si ya en los primeros años treinta Popper hubiese optado explícitamente por afirmar que el progreso hacia la verdad es el objetivo último de la ciencia. Quizás sus tesis metodológicas no habrían cambiado en ese caso sustancialmente, pues, al fin y al cabo, Popper introdujo en los años sesenta el concepto de verosimilitud, o aproximación a la verdad, de tal manera que una metodología falsacionista se derivase de forma natural a partir de dicho concepto, o al menos de manera coherente con él. Recuérdese que, para Popper, una teoría X es al menos tan verosímil como otra teoría Y, si y solo si todo enunciado verdadero que se siga de Y también se sigue de X, y todo enunciado falso que se siga de X también se sigue de Y; y a partir de esta definición se deduce que, bajo la hipótesis (o «metahipótesis») de que «X es al menos tan próxima a la verdad como Y», todas las predicciones verificadas de Y lo serán también de X, y todos los errores verificados de X lo serán también de Y. Es decir, la «metaconjetura» de que X está al menos tan cerca de la verdad como Y permite derivar la «metapredicción» de que las predicciones contrastadas de X serán siempre al menos tan buenas como las de Y, de tal modo que la corroboración provisional –en el sentido popperiano– de esta «metapredicción» contará como una corroboración provisional de la citada «metaconjetura». En palabras del Popper de Conjeturas y refutaciones:
No sugiero que la introducción expresa de la idea de verosimilitud conduzca a ningún cambio en la teoría del método. Al contrario, pienso que mi teoría de la contrastabilidad o corroboración mediante tests empíricos es la contrapartida metodológica apropiada de esta nueva idea metalógica [la de verosimilitud, JZB]. La única mejoría es una mera clarificación. Así, he dicho a menudo que preferimos una teoría t2 que ha pasado ciertos tests severos a otra teoría t1 que ha fracasado ante esos mismos tests, porque una teoría falsa es ciertamente peor que una que, por lo que sabemos, puede ser verdadera.
A esto podemos añadir que, incluso aunque t2 haya sido refutada a su vez, podemos aún afirmar que es mejor que t1, pues, aunque se haya mostrado que ambas son falsas, el hecho de que t2 haya superado tests que t1 no ha pasado puede ser una buena indicación de que el contenido-de-falsedad de t1 sobrepasa el de t2, mientras que su contenido-de-verdad no lo hace. Por tanto, podemos dar preferencia a t2, incluso después de haber sido falsada, porque tenemos razones para pensar que está más de acuerdo con los hechos que t1 (Popper, 1963: 235).
Por desgracia, y como es bien sabido, el sueño popperiano de apoyar su metodología falsacionista sobre la base de una teoría formal de la aproximación a la verdad recibió un golpe fatal cuando se demostró, en los años setenta, que ninguna teoría falsa podía ser más verosímil que otra teoría falsa según la definición de Popper (aunque no así según otros conceptos de «verosimilitud» más o menos relacionados).2 La cuestión, por lo tanto, sería si algunas otras reconstrucciones formales del «objetivo epistémico de la ciencia» (alternativas a las nociones popperianas de maximización de la contrastabilidad o de la verosimilitud) conducirían o bien a normas metodológicas coincidentes con las del falsacionismo estricto, es decir, las de la «protoconstitución» que hemos examinado, o bien a otras reglas distintas. En otros escritos he argumentado que una estrategia interesante sería, en lugar de comenzar proponiendo un argumento filosófico sobre cuál debería ser el objetivo de la ciencia, y derivar lógicamente a partir de ahí las normas metodológicas que sirvieran mejor para alcanzarlo, tal vez deberíamos seguir una estrategia más empírica o «abductiva», examinando en primer lugar cuáles son las normas metodológicas que los científicos de carne y hueso siguen realmente, para conjeturar después cuál podría ser el objetivo u objetivos que esos científicos están tratando de alcanzar, de tal modo que las reglas que ellos y ellas siguen en la práctica resulten procedimientos eficientes para alcanzar o aproximarse a esos objetivos. Dejaré los detalles de este asunto para la sección siguiente, y mencionaré ahora tan solo que seguramente podremos observar, en caso de seguir esta estrategia más «empírica», que los científicos utilizan algunas veces unas reglas más bien «verificacionistas» y a veces otras más «falsacionistas», y no porque sean irracionales, sino porque esa combinación de reglas puede que sea el mejor «juego científico» que pueden jugar, cuando se tienen en cuenta a la vez sus objetivos reales y los recursos limitados que tienen a su disposición.
Esto último puede ser conectado con un problema diferente: la ciencia, en general, no está hecha por robots y algoritmos, sino por seres humanos e instituciones, y cada individuo tiene por lo general más de un objetivo en cada cosa que hace. Incluso si la maximización de la contrastabilidad y la aproximación a la verdad (es decir, a verdades profundas, útiles e interesantes) fueran los únicos objetivos sustanciales de «la ciencia», los individuos que la llevan a cabo podrán tener, y de hecho tendrán, otros fines y valores que perseguir. Estos otros objetivos irán desde diversas preferencias epistémicas sobre las cualidades de las teorías, modelos, procedimientos, etc., hasta cosas más prácticas, como buenas condiciones de trabajo, acceso a recursos y prestigio intelectual. Tal vez suceda que el arreglo institucional que de verdad maximizaría la contrastabilidad de las teorías fuese algo así como un sistema en el que todas las conjeturas y resultados fuesen publicados de manera absolutamente anónima, pero el hecho es que, siendo los seres humanos como son, es probable que mucha gente que ahora se dedica a la ciencia prefiriese optar por otras carreras en las que obtener un mayor grado de reconocimiento. También sería muy contraproducente para el «hambre de gloria», que parece mover a tantos científicos, si en la ciencia nunca pudiera darse por «definitivamente establecido» ningún resultado (como parece sugerir el falsacionismo en su lectura más puritana). En estas circunstancias, tal vez unas reglas metodológicas menos estrictas, que permitan otorgar un cierto «toque verificacionista», al modo en el que los científicos y el resto de la sociedad consideran los «descubrimientos», no sean más que el mínimo precio que es preciso pagar para tener un sistema científico potente y, por lo tanto, un elemento básico de cualquier constitución realista de la República de la Ciencia.
En la sección anterior me he centrado básicamente en el contenido de la «protoconstitución» popperiana de la ciencia, arrojando alguna luz sobre la cuestión de si la contrastabilidad (o la maximización del «grado de contrastabilidad») puede ser razonablemente considerado como el único ideal regulador normativo de la arquitectura del método científico. En pocas palabras, mi conclusión ha sido que, si esa contrastabilidad no la vemos como el único fin constitutivo de la ciencia y de los científicos, entonces será concebible que, bajo algunas circunstancias (más o menos realistas), tuvieran que admitir algún grado de compromiso (lo que los economistas llaman trade-off) entre la maximización de ese fin y la de otros igual de legítimos o deseables, de modo que se estuviese dispuesto a sacrificar un cierto grado de contrastabilidad a cambio de obtener un mayor grado de satisfacción de otros fines. Ahora me ocuparé, por último, de una cuestión diferente, que no se refiere tanto al contenido de las normas científicas, sino a «cuáles son las mejores herramientas teóricas para iluminar el proceso de elección (o de emergencia) de tales normas». Popper, en general, era bastante escéptico sobre el estado epistémico en el que se encontraban las ciencias sociales de su época, debido tanto a la falta de contrastabilidad de las teorías más populares en esos campos como por la facilidad con la que dichas teorías podían ser usadas con fines ideológicos. Fue una pena que Popper no se molestara casi nunca en tomar en consideración el trabajo de autores como el sociólogo de la ciencia Robert Merton y sus seguidores, que podrían haberle ofrecido un punto de vista enriquecedor desde el que discutir sus propias teorías sobre los aspectos normativos e institucionales de la ciencia. En cambio, en vez de eso, Popper tuvo mucho más presentes, en relación con este asunto, enfoques como la sociología del conocimiento de Mannheim y otros de igual inspiración marxista. Nunca sabremos, por lo tanto, si las ideas de Popper sobre la «constitución de la ciencia» podrían haberse desarrollado explícitamente, o incluso si hubieran cambiado sustancialmente en el caso de haberse dedicado algo más de atención al trabajo de Merton, y especialmente a sus ideas sobre el «ethos de la ciencia» (Merton, 1942).
Tal como Jarvie explica en su obra ya citada, The Republic of Science, la concepción popperiana de la sociedad y de las instituciones, así como su visión de la ciencia social, estaba fuertemente influida por pensadores y economistas de orientación liberal, como por ejemplo la de Friedrich Hayek (a quien se debió la invitación para ser contratado en la London School of Economics al acabar la guerra). También se ha argumentado (e. g., Caldwell, 2006) que la influencia fue bidireccional, aunque más probablemente fueron las ideas de Hayek sobre la estructura y el desarrollo de la sociedad las que más influyeron sobre las tesis popperianas relativas al «historicismo» y a la «sociedad abierta» en la segunda mitad de los años treinta y principios de los cuarenta, mientras que las ideas de Popper sobre la metodología de la ciencia influyeron más a su vez sobre las tesis epistemológicas que Hayek desarrolló a partir de la década siguiente. Pese al hecho indudable de que Popper tuvo una enorme influencia sobre generaciones de economistas y de que posiblemente esta fue la disciplina científica sobre la que más se hizo notar la influencia del falsacionismo (debido en parte al hecho de que Popper estuviese radicado en una escuela de economía, y a través del éxito de obras tales como el manual de teoría económica de 1963 de su discípulo Richard Lipsey, y aunque la idea sobre el «falsacionismo» que llegaron a tener muchos economistas era en el fondo una fusión con las tesis de Milton Friedman acerca de la importancia del éxito predictivo en la evaluación de las teorías económicas), lo cierto es que las ideas de Popper sobre la naturaleza y el método de las ciencias sociales no parecen haber ido mucho más lejos de lo que se limitó a esbozar bajo el epígrafe de «análisis situacional» en La miseria del historicismo, y en ese sentido Popper habría compartido siempre las prevenciones de la escuela austríaca de economía (representada por Hayek) sobre la posibilidad de desarrollar una ciencia social basada en el cálculo matemático. Esta postura podía ser más o menos razonable hacia la época de la Segunda Guerra Mundial, cuando incluso las ramas de la economía más formalizadas (como, por ejemplo, los modelos macroeconómicos de Hicks y de Tinbergen) eran bastante menos complejos que como empezaron a ser una década más tarde a partir del trabajo de autores como Samuelson, Arrow o Nash. En particular, el desarrollo de la teoría de juegos podría haber sido visto por Popper y sus discípulos como una oportunidad para concretar el esquema ciertamente abstracto e impreciso de la «lógica situacional» popperiana, que podría ser fácilmente entendida como una descripción ingenua de la propia idea de analizar interacciones sociales mediante herramientas de teoría de juegos (véase, por ejemplo, Hands (1992), a favor de esta posibilidad, y Morgan (2012), en un tono más escéptico).
Una posible razón del rechazo de Popper a un desarrollo más formalista de su «análisis situacional» pudieron ser sus dudas acerca de la posibilidad de la existencia de «leyes» en las ciencias sociales. Pero lo cierto es que la aplicación más o menos exitosa de la teoría de juegos (y de la teoría económica en general) a casi todos los campos de la ciencia social en las últimas décadas no se ha llevado a cabo con la intención de «descubrir leyes universales», sino más bien con el objetivo de construir una panoplia de modelos «locales» alternativos, que puedan ser aplicados a situaciones específicas, algo que no dejaría de ser coherente con el gusto popperiano por una «ingeniería social gradual» (piecemeal), más que por grandes teorías con la pretensión de reproducir y manipular la sociedad en su conjunto (como, por ejemplo, intentarían hacer las teorías marxistas, según Popper). Hay incluso toda una rama de la teoría de juegos aplicada, conocida como diseño de mecanismos, que podría fácilmente ser interpretada como la versión más científica y desarrollada de algo así como una «ingeniería social gradual».
En relación con esa parte de la sociedad que llamamos «la ciencia», he defendido en otros escritos3 que una rama específica de la teoría económica, conocida como «economía política constitucional», podría ser especialmente útil para aplicar con detalle la idea popperiana de una «constitución de la ciencia». Dicha rama de la economía fue inaugurada por el libro de Buchanan y Tullock El cálculo del consenso (1962), y su idea fundamental es que podemos aplicar las herramientas conceptuales de la microeconomía y de la teoría de juegos a aquellos casos en los que un grupo de personas están no solo tomando decisiones en el marco de una situación regida por ciertas normas, sino también a aquellos en los que la decisión que tienen que tomar no es otra sino la de elegir las normas por las que se van a regir sus interacciones a partir de entonces. Buchanan y sus seguidores han aplicado este tipo de análisis a cuestiones como la elección de procedimientos de votación y de otros sistemas de representación política, y a los posibles efectos económicos que cabe esperar de las diversas decisiones sobre estos temas. Pero este método puede ser aplicado en principio al estudio de la elección de cualquier tipo de normas; ¿por qué no, entonces, al de las normas de la ciencia?
Pienso que un obstáculo tan importante como inconsciente para que Popper y sus discípulos hubieran considerado seriamente la posibilidad que acabo de mencionar era una cierta desconfianza, entre los filósofos de raigambre popperiana, hacia la propia «comunidad científica», sobre todo después del debate de los años sesenta a propósito de la teoría de Thomas Kuhn sobre las revoluciones científicas y la «ciencia normal». Si a los científicos «normales» se les diera la oportunidad de elegir las reglas de la práctica científica, probablemente habrían preferido reglas que les hubieran hecho la vida un poco más fácil, digamos, en lugar de reglas que obligasen a la búsqueda más austera y rigurosa posible de normas lo más contrastables que fuera posible y de sus posibles refutaciones, o algo así puede ser lo que sospechara el propio Popper en su fuero interno. El científico de carne y hueso, como el humano de carne y hueso, no está siempre a la altura de los ideales de la razón. Pero, además de que esta posibilidad no sería demasiado indeseable si tenemos en cuenta que la ciencia, después de todo, ha de ser practicada por personas reales organizadas en comunidades reales y alrededor de instituciones reales, y no solo por genios heroicos individuales, es importante también tener en cuenta que la elección de las normas es una decisión muy diferente de las decisiones que se toman bajo unas normas dadas. En el primer caso, dado que las reglas es de esperar que estén en vigor durante un tiempo muy prolongado, en el que no sabemos cómo van a afectarnos en concreto (en comparación con cómo afectarán a nuestros «competidores», digamos; es decir, no podemos estar seguros de si en el futuro estaremos en el lugar de los «beneficiados» o de los «perjudicados» por esas normas), las normas suelen ser elegidas en cierta medida «tras el velo de la ignorancia» (por usar la metáfora de John Rawls en su teoría de la justicia), esto es, suele ser una elección más imparcial que las decisiones que se toman una vez que las normas están vigentes, y requieren por ello una justificación pública menos basada en los intereses particulares. De este modo, la elección constitucional de las normas más generales de la ciencia, realizada por una comunidad compuesta por científicos «normales», no sería tal vez demasiado diferente de la elección que haría un grupo de científicos «heroicos» o «revolucionarios».