Sobre la filosofía contra la ciencia. Molinos de viento y delirios especulativos.

La historia de la relación entre filosofía y ciencia no es nueva, de hecho, remite a los inicios de la filosofía como tal, donde “la ciencia” no era una rama separada de ella. Para ilustrarlo, Platón señalaba que quien no supiese geometría tenía el ingreso a la Academia vedado. Hoy sería impensable que un filósofo esté obligado a estudiar geometría o matemática para acceder al pensamiento filosófico, más allá de que ambas disciplinas son muy parecidas en la manera de proceder. Por ejemplo, comparten un enfoque preciso que, en el caso de la filosofía, pasa por la construcción de conceptos y, en el caso de la matemática, por la construcción de descripciones relacionales (funciones) de elementos constituyentes de aquello que llamamos “realidad”.

Durante muchísimo tiempo hubo una relación de sororidad entre ambas, de hecho, sin distinción alguna. Claro que uno puede tomar un manual de historia de la ciencia y dirá, precisamente, que los descubrimientos de Arquímedes nada tienen que ver con la filosofía. Pero cabe destacar que cuando se habla de filosofía y de “ciencia” hablamos de enfoques, métodos. Por eso la distinción en la Antigüedad clásica no es posible. Platón y Aristóteles serán los pilares epistemológicos a partir de los cuales dicho enfoque se construirá de forma paulatina, pero no lineal, hasta nuestros días. Pero no es posible tratar todo el desarrollo histórico de la filosofía y de la “ciencia”. Debemos conformarnos con señalar que no siempre hubo una relación conflictiva.

Hoy en día dicha sororidad está rota. Durante el siglo XIX y el XX hubo desarrollos interesantes y relevantes en filosofía de la ciencia. Solo por nombrar unos cuantos exponentes, en el siglo XIX tenemos a los positivistas Auguste Comte (1798-1857), Charles Pierce (1839-1914) y Henrí Poincaré (1854-1912). Luego, llegará el positivismo lógico a comienzos del siglo XX y el círculo de Viena. Los referentes, entre otros, serán Moritz Schlick (1882-1936), Ludwig Wittgenstein (1889-1951) y Hans Reichenbach (1892-1953). Finalmente, tenemos a Rudolf Carnap (1891-1970), Karl Popper (1902-1994), Thomas Kuhn (1922-1996), Imre Lakatos (1922-1974), Paul Feyerabend (1924-1994) y Mario Bunge (1919-2020), cuyas mayores preocupaciones eran los cimientos epistemológicos de las disciplinas científicas y sus postulados lógico-filosóficos.

Ahora bien, del lado de la filosofía continental, no dedicada a la epistemología, el siglo XVIII y XIX tuvo exponentes como Georg Wilhelm Friedrich Hegel (1770-1831), Friedrich Schelling (1775-1854), Arthur Schopenhauer (1788-1860), Søren Kierkegaard (1813-1855), Friedrich Nietzsche (1844-1900), y en el siglo XX, Edmund Husserl (1859-1938), Martin Heidegger (1889-1976), Maurice Merleau-Ponty (1908-1961), Jean-Paul Sartre (1905-1980) y Michel Foucault (1926-1984). Tomando la base descripta hasta aquí, para no ahondar demasiado en la historia de la filosofía y los caminos de lo que se llama “ciencia”, cabe destacar algunas cuestiones para señalar qué sucedió para que la filosofía se convierta en algo que odia a la ciencia. Hoy hay autores como Byung-Chul Han (1959-) que piden un espiritualismo vacío, autores que denuncian los peligros de internet y la IA, como Éric Sadin (1973-), o filósofos como Markus Gabriel (1980-) que intentan una nueva forma de realismo filosófico, como Maurizio Ferraris (1956-), pero sin novedades en el horizonte, a saber, no proponen nada original. Por supuesto, en el medio, como condición de posibilidad de las posturas más recientes, tenemos a Sigmund Freud (1856-1939), Jacques Lacan (1901-1981), Jacques Derrida (1930-2004), todo el estructuralismo y una historia infinita de pensamiento.

¿Qué sucede hoy con la filosofía y la “ciencia”? Bien, a partir del distanciamiento que produjo la crítica de principio y mediados del siglo XX con Husserl y Heidegger, y el remate definitivo de la filosofía de la posguerra, llegamos a un punto donde la filosofía ha perdido relevancia social y se ha sumido en una crítica infinita en contra de la “ciencia”. Uno de los mayores inconvenientes de la filosofía actual es que pocos se ocupan de conocer a fondo y con precisión cada concepto, al menos en su denotación y extensión, una tradición heredada de la confusión alemana y sostenida por cierta tradición francesa que supone solo coherencia interna del lenguaje. Esto implica que le quede sólo designación y sintaxis a la filosofía. Por eso mismo, hoy se indica que la forma es tan importante como el contenido: sintaxis perfecta, semántica insuficiente. Tiene sentido si se piensa en la mediocridad de las ideas “actuales” de autores como Gabriel, Sadin, Han, y compañía, quienes reducen la filosofía a un mero aspecto divulgativo. En rigor sigue siendo un problema de método, a saber, hay coherencia interna de los enunciados, pero solo eso. La filosofía suele tratar problemas que remiten a entidades sin denotación, pero no formales de modo que no es formal ni fáctica, pero tiene pretensión de formalidad. Ciertamente carece del lenguaje para esto último ya que las proposiciones formales son tautológicas. Así, busca deducir con un lenguaje inadecuado y por eso la filosofía permite este tipo de expresiones: “la autotemporalización mediante la de presentación tiene su análogo en mi auto enajenación de presentación de mi presencia primigenia meramente presentificada”. La frase pertenece a Husserl y Mario Bunge la utiliza para exponer el sinsentido de una posición hermética, cuando, en realidad, el conocimiento debe transmitirse de forma clara. Además, la expresión es del orden de la contingencia, pero pretende un nivel formal, no pragmático ya que es imposible. De modo que no es ni una cosa ni la otra: no se demuestra y no se confirma, entonces creer o reventar. Hoy en día tenemos mera forma y un contenido que ya no le habla a nadie. Deberíamos volver a las cosas, expresión husserliana que jamás puso en práctica. Esta desconexión de la filosofía con el entorno es lo que da lugar a la posmodernidad y a la posverdad.

Partamos de Husserl y Heidegger, por su cercanía respecto de nosotros, para ilustrar el panorama de la relación filosofía-ciencia. Husserl en el § 9 de La crisis de las ciencias europeas y la fenomenología trascendental denuncia un problema capital de nuestros días al poner de manifiesto la existencia de una crisis de las ciencias europeas, la cual consiste en una crisis de sentido de la humanidad toda. El proceso por el cual se llega a dicha crisis comienza, para Husserl, con Galileo y con la matematización de la naturaleza, más precisamente con la aritmetización de la geometría. En dicho parágrafo comienzan las apreciaciones sobre el proceso de matematización y objetivación omniabarcante de la ciencia, la cual, según Husserl, reemplaza el sentido originario de todo lo que es y a su vez reemplaza el sentido originario de lo que la misma ciencia significa. De este modo, el proceder científico objetivante termina postulándose como la única verdad a ser tenida en cuenta. En rigor, hablar de “sentido originario” ya implica una distinción arbitraria: la idea de que hay tal cosa. Pero eso a Husserl no le molesta aparentemente.

Partiendo de la base, en el apartado a del § 9, de que la geometría euclidiana y la alta matemática general sólo conoce un a priori finitamente cerrado, Husserl describirá el proceso por el cual se comienza a concebir una tarea infinita en un a priori sistemático universal idealizado y cerrado en sí mismo, cuya idealidad reemplaza con su verdad objetiva a las verdades subjetivo-relativas del mundo-de-la-vida. Aquí debemos aceptar, de facto, que hay efectivamente “verdades” subjetivo-relativas.

 Para Husserl, “el gran ideal de una ciencia racional, omniabarcadora” y “la ciencia natural matemática” consiste en que: “la totalidad infinita de lo existente en general sea en sí una unidad total, que correlativamente debe ser totalmente dominada mediante una ciencia universal” (2008: 65). Aquí aparece una confusión: la ciencia no domina, la técnica lo hace.

Husserl explica, en el comienzo del apartado a, que aquello que experienciamos son “cuerpos” en el sentido subjetivo-relativo de la orientación abstractiva de la mirada que supone una gradación de lo oscilante en lo meramente típico y que conlleva a un estilo global empírico de lo circundante. Lo efectivamente experienciado y el efectivo contenido de la experiencia. Por contraposición, los cuerpos geométricos ideales, de los cuales hace uso la ciencia objetivante, no pueden ser experienciables ya que refieren a formas-límite producto de una praxis de perfeccionamiento concebible que tiene su punto de apoyo en la gradación típica de lo mayor y menor. De este modo, se puede concebir, siguiendo a Husserl: “un mundo infinito y sin embargo en sí cerrado, de objetividades ideales como campo de trabajo”, que sería el mundo de la “ciencia”.

Así, la actitud geométrica reporta una serie de problemas que refieren al hecho de que el elemento subjetivo-relativo no puede ser obviado en tanto dicha operación idealizante es posible por estar referida a las formas de una materia empíricamente dada con un contenido sensible y, por lo tanto, cualidades sensibles específicas, que arroja como resultado que la operación idealizante sea una mera abstracción. 

Aquí, Husserl confunde terriblemente cómo opera la “ciencia”, la cual vengo usando entre comillas ya que no existe, lo que existen son disciplinas científicas. La “ciencia” no opera bajo dichas determinaciones, si no que, en rigor, si bien todo experimento supone la “verdad” de la teoría que está implicada en dicho experimento, Husserl pierde de vista que debido a que el mundo es como es, la teoría puede no adaptarse. Los resultados experimentales, como bien señala Chalmers, están determinados por cómo funciona el mundo y no por las visiones teóricas de dicho mundo. ¡Es precisamente por esto que una teoría se puede probar o no!

Por otro lado, Heidegger, en la “Época de la imagen del mundo”, señala que la investigación se encuentra definida a partir de que el conocer se constituya como un proceder anticipador instalado en una parcelación de lo real. Heidegger dice que para que pueda haber un proceder anticipador debe primero producirse la apertura de un ámbito de lo ente proyectada sobre rasgos fundamentales. No puede haber, entonces, un proceder en estos términos si antes no se determina un área específica, adecuando un sector de objetos. La apertura de dicho sector se produce por un proyecto determinado, el cual determina a su vez un rasgo de lo real y condiciona el modo en el cual se da el vínculo entre el proceder anticipador y el sector abierto. Hay dos opciones con esta idea, señalar nuevamente la postura de Chalmers o señalar que esto sucede en cualquier expresión cultural, incluida la filosofía misma.

En efecto, Heidegger propone esto con relación a la matemática y a la aplicación de la matemática en la física. La aplicación matemática al ámbito de lo real implica la conformación de ciertos aspectos de la naturaleza que sean reductibles al método mismo. Por esto: “esta decisión (scil. la matematización) afecta nada menos que al proyecto de lo que a partir de ese momento deberá ser naturaleza en aras del conocimiento de la naturaleza que se persigue: la cohesión de movimientos, cerrada en sí misma, de puntos de masa que se encuentran en una relación espacio-temporal”. La imposición de un elemento que constituye lo real como formal define la naturaleza a conocer en términos de que aquello a conocer se constituye como lo ya conocido, en tanto está determinado de antemano como una relación espacio-temporal. 

El problema es que, puesto que las ecuaciones matemáticas tienen semántica, no son meras reducciones parciales de objetos. Además, la relación espacio-temporal hoy es determinante, pero no por su formalidad, sino por su realidad luego de la relatividad general de Einstein. Obviamente, a Heidegger esto no le interesa y por eso supone espacio y tiempo como una reducción ideal, por no haberse informado mejor (dicha teoría es de 1915-1916).

Según Heidegger, la ciencia es investigación gracias al proyecto y el rigor matemático que se encuentra en el proceder anticipador, rigor que es exactitud, no porque la naturaleza sea exacta, sino porque la vinculación se encuentra determinada en dichos términos: “El rigor de las ciencias matemáticas de la naturaleza es la exactitud. Aquí, todos los procesos que quieran llegar a la representación como fenómenos de la naturaleza, han de ser determinados de antemano como magnitudes espacio-temporales de movimiento”. En efecto, si no se pudiera establecer que lo real se manifiesta a través de relaciones cuantificables compartidas por lo objetos a estudiar, la previsibilidad de la ciencia quedaría en entredicho. Una función matemática no es más que esto: la interrelación de variables idealizadas de modo que la previsibilidad es total porque es un sistema cerrado con las condiciones iniciales predeterminadas. 

Una función matemática, claramente, no es eso. Obviamente que está en el campo de lo ideal o, incluso de la ficción, pero una ecuación matemática es determinación de variables en juego que son efectivamente reales, sobre todo en la física que Heidegger critica. La idea de que hay una idealidad absoluta no forma parte de las disciplinas científicas, sólo forma parte de la matemática pura (matemática que estudia la matemática).

Ahora bien, Heidegger señala que el proceso que se describe implica una determinada concepción de lo ente y de la verdad, presupuestos en el método y que hace posible la ciencia en tanto investigación.  En resumen, que la verdad se constituya como certeza de la representación es posible por el proyecto que, al determinar al ente en términos formales en dimensiones espacio-temporales, permite la previsibilidad de la investigación y este fenómeno se encuentra posibilitado por la matematización de la naturaleza.

El problema con esto es que la previsibilidad de la física, por más que haya matematización de la naturaleza, no es absoluta, sino que es probable y contrastable y al ser probable debe haber variables aleatorias y es por eso por lo que una teoría es desechada o no, porque el mundo nos devuelve cómo funciona y en dicho funcionamiento las idealizaciones se descartan. Además, el argumento le cabe a Heidegger, ya que su filosofía también depende e implica una determinada concepción de lo ente y de la verdad, presupuestos en el método y que jamás se pone a prueba y está incluida en la conclusión y en las premisas, es una petición de principio y, por lo tanto, una falacia material.

Estas posturas dieron lugar a toda una tradición francesa y alemana cuya posición respecto de la ciencia fue y es crítica. Comencemos por distinguir ciencia y técnica, que no son lo mismo. No se puede hablar tecnocentrismo cientificista ya que la combinación es fuente de confusión y errores. No son lo mismo y de hecho hay diferencias en tres niveles ontológico gnoseológico y axiológico/praxiológico (siguiendo a Bunge). La ciencia (básica) se encarga de objetos naturales o sociales, de su comprensión y sin valoración del objeto de estudio. La técnica se encarga de objetos artificiales, valora la utilidad práctica e interviene en cosas o procesos que tengan dicha utilidad. La ciencia básica es financiada por el estado y no pretende rentabilidad. Es fundamental rechazar la inversión privada en el área. La técnica o la ciencia aplicada es financiada por el sector privado y pretende utilidades económicas. Obviamente hay disciplinas mixtas como la agronomía o la economía, pero ¿contra qué pelea la filosofía? 

El llamado tecnocentrismo cientificista es una reducción violenta de la ciencia la técnica y la técnica es, en todo caso, polivalente: tanto positiva como negativa si podemos meter a la fuerza consideraciones morales. La conclusión es que mientras atacamos una forma de cultura nos olvidamos de los intereses detrás de ella. La ciencia no nos modifica en los términos en que los autores actuales de filosofía plantean, lo que nos modifica el entorno y a nosotros es el sistema. Un quark no cambia la ética, hay que diferenciar niveles ya que si no caemos en expresiones como “la ciencia intenta controlarnos” cuando es obvio que el problema no es la ciencia, sino el modelo productivo actual que interfiere en ella a través de la técnica. La “tecnociencia” es un constructo social que pretende amalgamar ciencia y tecnología sin distinciones y a los fundamentalistas de la crítica a la tecnociencia habría que mandarlos a leer Bunge, Feyerabend, Polanyi, etc. para arrancar con la discusión. Ahora bien, tecnoliberalismo es un término más adecuado de análisis. ¿Por qué? Porque tecnoliberalismo implica la conjunción inevitable entre técnica y un enfoque económico específico o técnica y capital, con todo lo que eso implica.

Finalmente cabe preguntarse si la filosofía discute con la “ciencia” del siglo XIX o la actual. La separación que mencionaba al principio ha llevado al desinterés de los científicos en la filosofía de la ciencia y a la filosofía a asumir una posición extraordinariamente crítica respecto de la “ciencia”. La filosofía, al evaluar la “ciencia” ha caído en vicios, tradiciones y dificultades para un abordaje serio a causa de dicha lejanía y de las posiciones de Husserl y de Heidegger, quienes no atacan a la ciencia, sino al aspecto de la técnica que implica dominación de lo real. Por ejemplo, se confunden estructuras descriptivas con prescriptivas, se asume que hay una ciencia o un método y se confunde ciencia y técnica con frecuencia. Un claro ejemplo son autores como Markus Gabriel y Eric Sadin. Tanto Gabriel como Sadin atacan una ciencia que no existe, asumen la imposibilidad de disociar la ciencia de la técnica y de la tecnología y realizan un reduccionismo brutal de cómo operan las disciplinas científicas y lo que dicen, en el caso de Gabriel con el neurocentrismo específicamente. El error más frecuente es considerar la unicidad de la ciencia tanto en método como disciplinarmente y el no reconocer los matices con los cuales se trabaja hoy en día.

Ahora bien, ¿es válida una crítica sin interdisciplinaridad? Si pensamos que la mayoría de las críticas toman a la ciencia como un todo y critican la matematización y cuantificación de la naturaleza como lo hace la fenomenología en general, sin tener en cuenta los aspectos cualitativos, entonces se da por hecho el apriorismo o el relativismo epistemológicos, ya que supone facilidad de objeción. Entonces debemos tener en cuenta que dichas críticas tienen más de medio siglo en algunos casos y en otros la crítica simplemente no da en el objeto. Dicho enfoque, seductor, por cierto, no explica muchas cosas. Por ejemplo: los resultados beneficiosos de las vacunas no pueden considerarse relativistas a nivel epistemológico o mera construcción social, las vacunas son efectivas independientemente de sociedades y culturas específicas.

Por otro lado, la crítica fenomenológica hay que revisarla, ya que medir un electrón libre o calcular los niveles de energía de un átomo, como bien señala Bunge, implica describir propiedades que no están siendo observadas. Allí el fenómeno se cae y la interpretación operacionista de Copenhague también.

Claramente hay un fracaso del análisis filosófico serio respecto de la ciencia. Ahora por suerte la interdisciplinaridad con respecto a la filosofía y la ciencia está volviendo de a poco, pero claramente hay una tradición relativista, sociologista y constructivista, sobre todo francesa, que deja en ridículo a filósofos actuales y los científicos ni se enteran de lo que estos autores dicen. Esto no quiere decir que la ciencia no sea históricamente determinada en ciertos aspectos o que la sociología de la ciencia no tenga aportes fundamentales. Solo significa que una tradición relativista, constructivista y subjetivista extrema se autorrefuta. También implica desconocer cómo se hace ciencia actualmente: lo que se ataca es el reduccionismo de la aritmetización de la geometría que permitió cuantificar la realidad sin importar la cualidad, un tipo de ciencia que fue una utopía y desapareció hace 100 años y cuyos fundamentos se hunden en el siglo XIX. Con lo cual, no hace falta ser filósofo, físico, matemático, biólogo, todo al mismo tiempo, pero si es necesario salir del armario filosófico y consultar, asesorarse y aprender seriamente sobre cuestiones que exceden hoy en día a la filosofía.

Así, la filosofía actual ataca pseudoproblemas. Cabe destacar que la historia de los pseudoproblemas es larga y es compleja. Ya Rudolf Carnap abordó este tema en contra de la metafísica tradicionalista, pero lo hizo señalando que la filosofía hacía uso inadecuado del lenguaje. Carnap era miembro del círculo de Viena, esas personas con fe ciega en el lenguaje formal. No hay una sola manera de definir un pseudoproblema, lo que sí no depende de gustos ni inclinaciones personales sino de elementos que permitan definir las características esenciales que un problema debe contener, con lo cual un pseudoproblema es aquel problema que intencionalmente, o no, se hace pasar por un problema verdadero siendo un falso problema. Para cumplir con la característica de ser un verdadero problema, y poder tener algún criterio de distinción, su relevancia debe estar dada por contexto espacio-temporal y debe contribuir en al menos un aspecto al estado actual del saber, manteniendo coherencia externa (no solo interna), es decir, con el resto de los saberes. Para ejemplificar la cuestión del contexto, hace 65 años la formalización de la inducción era un problema de primera línea. Hoy sería un pseudoproblema. En ese momento era indispensable para el avance del conocimiento poder determinar si el razonamiento inductivo podía ser calculado con base en la probabilidad estadística. De ser posible la mayoría de las disciplinas llamadas blandas entraban en el panteón de la cuasi exactitud. Hoy sería un pseudoproblema, parafraseando a Bunge, la inducción no es formalizable y ha quedado demostrado que las proposiciones no tienen valor de probabilidad empírica y que por lo tanto cualquier formalización que intente justificar la inducción como probabilidad conlleva supuestos equivocados: asignar probabilidades a proposiciones, lo cual no es posible ya que no son elementos aleatorios, de modo que atribuirles probabilidad es arbitrario. No existen reglas objetivas para determinar probabilidad en una proposición y, como consecuencia, no es posible determinar propiedades semánticas en base con la probabilidad. El idealismo absoluto y la fenomenología hoy podrían catalogarse como métodos que incluyen pseudoproblemas ya que no tienen distinciones serias fenómeno-objeto y no toman en serio los aportes de neurobiología y el neurodesarrollo para explicar la percepción que el ser humano tiene de lo que lo rodea. 

De modo que pseudoproblema no hace referencia a si algo es un problema para A o para B, ahí ya estamos en el plano de relativismo, el psicologismo, etc. Un pseudoproblema es un problema que hace que su resolución no modifique absolutamente nada, dependiendo del contexto. Así las cosas, hay problemas que exigen respuestas decía Raymond Boudon, y dichas respuestas serán más o menos válidas. El problema es que pueden ser válidas por lo siguiente: están constituidas por un conjunto más o menos complejo de enunciados, todos ellos aceptables por ser enunciados psicológicos triviales, como la filosofía hoy en día, que ataca molinos de viento y se pierde en delirios especulativos cuando habla de “ciencia”.