/ Cultura

Sobre la (tal vez imposible) universalidad del conocimiento

Por | 1 noviembre 2023

La filosofía moderna, desde Kant, ha encarado de diversos modos y con distintas estrategias los problemas en la fundamentación del conocimiento. En este sentido, en el proyecto general de la Crítica del juicio Kant declaraba de modo implícito el fracaso de su propio proyecto de fundamentación universalista del conocimiento racional, presentado en su Crítica de la razón pura, en la medida en que se ve obligado a renunciar a la noción de objetividad conceptualizada a favor de la idea de una “universalidad sin objeto”, en su esfuerzo por comprender cómo individuos racionales pueden llegar a ponerse de acuerdo sobre algo que es verdadero o válido, en particular sobre la belleza de una gran obra de arte. Se trata de un problema que es más relevante hoy en día que en el pasado, porque una buena parte de lo que consideramos ahora conocimiento verdadero, por causas de los actuales desarrollos de la inteligencia artificial, el machine learning o las redes sociales, sin ser enteramente falsos, están sesgados, en detrimento de lo que pudiera ser importante y relevante para nosotros.

Homenaje a Carl Sagan. Imagen de una galaxia lejana obtenida con inteligencia artificial. ©Trópico Absoluto 2023

La generalidad del conocimiento como proyecto filosófico

Lo primero que digo a mis estudiantes de los primeros semestres de la Escuela de Filosofía de la Universidad Central de Venezuela es que la tarea del filósofo es el análisis de conceptos básicos, como pensaba Ludwig Wittgenstein, el gran filósofo del siglo XX. Un estudiante de Wittgenstein de Cambridge, Peter F. Strawson, en su libro Análisis y Metafísica, y quien después llegaría a ser uno de los filósofos más destacados de su generación, define los conceptos básicos como aquellos conceptos de los cuales ya tenemos un dominio implícito, inconsciente pudiéramos también decir, y que se expresan, a la vez que posibilitan, nuestras distintas transacciones con el mundo. Y agrega, a modo de ilustración: “por lo tanto, por ejemplo, todos sabemos, en un sentido, perfectamente bien qué es conocer antes de que oigamos hablar (si es que alguna vez lo hacemos) de la existencia de una Teoría del Conocimiento” (Strawson, Analysis and Metaphysics, 1992, p. 6).

Los conceptos básicos, pues, de acuerdo con esto, hacen posible que nosotros nos relacionemos con la realidad, entendida o bien en sentido físico-material, o como un mundo poblado por otros seres humanos y animales. Estos conceptos, de hecho y en sentido estricto, posibilitan que tengamos sobre todo algo así como una realidad a la que podemos referirnos todo el tiempo. Por esta razón, y al mismo tiempo, los conceptos básicos se supone que establecen los cimientos de todos los otros desarrollos teóricos, científicos o incluso empíricos, como cuando tenemos una teoría para hacer un pastel de carne, para arreglar un bote de agua o concebir una teoría del universo. Esto lo expresa Wittgenstein también, de modo incomparable, en una conferencia dictada en la década de los 30 del siglo XX que discurría precisamente sobre la tarea o el quehacer específico de los filósofos. En esa conferencia, que duró sólo cuatro minutos, afirmaba: “La filosofía se define como todas aquellas proposiciones primitivas que son asumidas como verdaderas, sin prueba, por las diversas ciencias”.

Siguiendo, pues, el ejemplo de estos filósofos, los científicos, los cocineros y los plomeros saben qué es el conocimiento sin que hayan oído hablar previamente de una teoría del conocimiento, una teoría de cómo podemos conocer la realidad. Elucidar qué entendemos por conocimiento, a secas, es justamente una de nuestras tareas como filósofos. El concepto básico de conocimiento forma parte de aquellas proposiciones primitivas de fundamentación de las ciencias que todos hemos asumido como verdaderas sin prueba porque expresan un dominio conceptual que manejamos ya de modo intuitivo y auto-evidente.

Entre nuestros presupuestos primitivos de lo que sería el conocimiento, esos presupuestos que, como decía San Agustín, todo el mundo entiende pero nadie puede explicar hasta que alguien, un filósofo, desarrolla una teoría del conocimiento con carácter sistemático o en sentido estricto, se encuentra la idea de que el conocimiento ha de ser portado siempre por enunciados verdaderos. Aunque uno puede saber algo de modo privado, como cuando alguien guarda un secreto, conocer algo siempre viene asociado con la posibilidad de enunciar ese conocimiento de forma explícita para ser asumido por otros como verdadero. Nadie dirá “conocí un centauro que me dijo que su nombre era Neso”, por ejemplo, a menos que esté hablando en serio. De otro modo, sólo puede decir “soñé con un centauro llamado Neso”, o “imaginé que me encontraba con el centauro Neso”. El verbo conocer viene asociado siempre al hecho de que lo que conocemos lo creemos verdadero, realmente el caso cuando nos referimos a ello.

la pregunta filosófica sobre los cimientos del conocimiento verdadero (valga la redundancia) se ha vuelto de candente actualidad con el advenimiento de sistemas de inteligencia artificial como el ChatGPT, un sistema procesador del lenguaje natural capaz de crear contenidos que parecen verdaderos pero que pudieran no serlo

Si el conocimiento ha de expresarse siempre a través de enunciados verdaderos, es natural que la cuestión de la fundamentación del conocimiento presione, entonces, a la filosofía desde sus inicios. Pero ahora resulta que la pregunta filosófica sobre los cimientos del conocimiento verdadero (valga la redundancia) se ha vuelto de candente actualidad para todo el mundo con el advenimiento de sistemas de inteligencia artificial como el ChatGPT, un sistema procesador del lenguaje natural capaz de crear contenidos que parecen verdaderos pero que pudieran no serlo, que serían “alucinaciones” de sistemas que articulan de modo coherente y elocuente cualquier contenido que se les ponga por delante, por más absurdo que sea. El problema de cómo sabemos que el conocimiento en general, cualquier forma de conocimiento, es realmente verdadero se vuelve, entonces, relevante.

Pero podemos preguntar todavía ¿qué queremos decir cuándo decimos que algo es verdadero? En principio, podemos decir que si algo es verdadero debe poder ser comunicado a otros y entendido por nuestros interlocutores como significativo o pleno de sentido. Esto equivale a decir que el conocimiento es racional, es decir, razonable para una comunidad de hablantes. Declarar ante una audiencia que uno “conoció a un centauro que dijo que su nombre era Neso” seguramente no tendrá mucho sentido para ella a menos que uno lo diga en el contexto de una obra de teatro o uno modifique la oración diciendo que, en realidad, imaginó todo el asunto.

Dicho de otro modo, la dimensión social o intersubjetiva del conocimiento es muy importante desde los inicios de la filosofía porque todo individuo ha hecho o puede hacer la experiencia de equivocarse en algo que creía conocer bien. Yo pienso que ese tipo de experiencia personal está precisamente en el origen del enigmático poema de filósofo Parménides, quien fuera maestro de Sócrates, y quien, caminando seguramente por los senderos de sus vastas propiedades, se da cuenta de que aquello que no es verdadero conocimiento de la realidad no tiene sentido, no significa nada: “Es necesario –le dice una diosa a Parménides en su poema– que lo que sea posible decir y pensar, sea, porque aquello que no es, no se puede ni pensar ni decir” (Palmer, Parmenides, The Stanford Enciclopaedia of Philosophy, 2020). El poema advierte sobre la gente que anda confundida pensando que da igual que algo sea o no sea para ponerse a pensar sobre ello o para comunicarlo a los demás. Parménides sugiere, como lo hará Wittgenstein milenios después, que sobre aquello que no se puede comunicar nada al otro, dado que careceríamos de la posibilidad de proyectar sobre lo que decimos las distinciones lógicas y semánticas que hacen posible que el enunciado tenga sentido para los demás –entre las cuales tienen un papel muy preponderante la identidad y continuidad ontológica del objeto– es mejor no ocuparse para nada, como aconseja la diosa del poema a Parménides.

No sabemos cuáles fueron las experiencias subjetivas que llevaron a Parménides a darse cuenta de que este punto era importante. Una de ellas tal vez fue la sensación de impotencia que produce en aquel que profiere una convicción no poder convencer a los demás de algo que conoce, que sabe que es realmente el caso. Aunque es posible que alguien se resigne a mantener en un ámbito privado aquello que sabe o cree saber, su convicción no nace nunca tampoco en soledad ni se conforma con ser una convicción de carácter privado. Sin ir más lejos, mi mamá me contaba que, durante la primera mitad del siglo XX en Venezuela, algunos pacientes en zonas rurales se negaban a ser atendidos por jóvenes mujeres profesionales de la medicina porque no estaban convencidos de que las muchachas fueran realmente médicos graduados. Sin embargo, es claro que la convicción de las muchachas de que conocían su profesión, y la de sus empleadores, no era privada, sino que nacía de haber obtenido un título de médico en alguna universidad del país. Que una forma de conocimiento esté restringido a un ámbito no significa que sea privado. Por lo tanto, no tener la posibilidad de convencer a alguien de que uno sabe realmente algo, por ejemplo medicina, ni tener la posibilidad de ser convencido por otros, es la negación del conocimiento que se dice tener. De allí la índole categórica de la exhortación de Parménides: sólo se puede pensar y decir aquello que es el caso, aquello que es verdad.

Por esta razón, desde tiempos muy antiguos, los primeros filósofos se preocuparon por definir los modos cómo un enunciado respecto de algo puede convencer a los demás o convencerlo a uno de que algo es el caso. Por supuesto, también desde antiguo se es consciente de la tensión que existe entre aquello que uno piensa que es verdad y aquello que uno cree porque lo dice alguien que tiene poder, incluso si se trata de un poder de tipo retórico, o de un poder real, como el del monarca cuya palabra dicha es incuestionable. Trasímaco le discute a Sócrates, en el diálogo La República de Platón, que alguien pueda dejarse convencer sinceramente de la verdad de un enunciado si no hay un poder por detrás que le de fuerza a la convicción o presione a los interlocutores a aceptarla. Ecos de esa sospecha están dispersos por doquier a lo largo de toda la filosofía y desembocan en el pensamiento sistemático de Michel Foucault, que pasa por Nietzsche.

Racionalidad del conocimiento científico

El problema de la racionalidad del conocimiento, pues, depende de modo crucial de nuestra capacidad de convencer a otro de que lo que enunciamos como verdadero es realmente el caso. En su libro Los Analíticos Posteriores, Aristóteles, un discípulo de Platón, afirma que los acuerdos intersubjetivos respecto de la racionalidad de lo que creemos conocer sólo son posibles sobre fondo de una realidad común que es compartida por todos de modo intuitivo o auto-evidente, en la forma de los conceptos básicos, que él denomina “axiomas”. Estos axiomas pueden entenderse precisamente como los definió Wittgenstein en aquella conferencia que duró cuatro minutos y en la que decía que los filósofos estudiamos las proposiciones primitivas que los científicos aceptan sin pruebas: ellos son las intuiciones auto-evidentes que deben necesariamente, así lo creía Aristóteles, sostener la validez de proposiciones empíricas o teóricas más complejas, que no tendrían el menor sentido para un interlocutor si no compartiéramos ese mundo en común.

Por ejemplo: el concepto empírico de “termo” (un objeto con una determinada estructura interna que aísla un líquido de la temperatura ambiente para mantener su contenido caliente o frío por más tiempo) no podría siquiera haber sido concebido, ni mucho menos inventado, por un ser humano que no entendiera nada en relación a lo que significa mantener el café o el té caliente o frío en un entorno templado o caluroso. Por esta razón, Aristóteles piensa que toda forma de conocimiento, desde el más empírico al más sistemático, tiene que levantarse sobre nociones más primitivas que “anclan”, por decirlo así, o que al menos parecen anclar, todo lo que uno cree que es el caso en la realidad. Esto es lo único que garantiza que lo que creo sea racional y, por tanto, susceptible de ser objetivado, compartido con otros.

La recomendación que hace Aristóteles de levantar el edificio de una ciencia en un sistema ordenado de axiomas que todo el mundo debería compartir la sigue Euclides en sus Elementos de geometría, cuyos teoremas y reglas de demostración se apoyan en cinco axiomas intuitivos o auto-evidentes que supuestamente no necesitarían de explicación ulterior. Tales como, por ejemplo, que a través de dos puntos sólo puede pasar una línea recta, etc. Siguiendo a Aristóteles, Euclides piensa que su geometría es una forma de conocimiento legítimo porque estaría firmemente asentada en la realidad gracias al sistema axiomático que la sostendría.

Este paradigma de conocimiento es tan importante que en el año 1900 el matemático David Hilbert, al presentar a sus colegas una lista de los problemas científicos que debían poderse resolver en el siglo que comenzaba, coloca como uno de los desafíos planteados la definición de un sistema axiomático completo para la matemática, un problema en el cual estaban trabajando muchos lógicos en el cambio del siglo, lo que habría permitido cimentar sobre bases firmes todo aquello que se podría conocer en el ámbito de la física teórica, cuyas demostraciones más impresionantes habían sido formuladas ya en el lenguaje de la geometría analítica, como en el caso de la mecánica clásica. La idea era poder resolver el así llamado problema de la “decidibilidad” o Entscheidungsproblem, de acuerdo con el cual todas las fórmulas de un sistema teórico son decidibles si es posible encontrar una solución exacta para todas ellas. Dado que la física teórica de su tiempo, la mecánica clásica, podía modelar exitosamente un aspecto del mundo (la trayectoria de un objeto) en un plano geométrico de tres dimensiones y analizarlo con una función matemática, del mismo modo un sistema axiomático completo para la matemática podría decirnos cuáles son todas las otras demostraciones analíticas que son sintácticamente posibles llevar a cabo y con ello ayudarnos a construir un modelo acabado de nuestro mundo físico.

Cuando los lógicos estaban buscando, con el cambio del siglo, un sistema axiomático completo para la matemática que pudiera resolver el problema de la consistencia de las operaciones de tipo lógico que sostenían la sintaxis matemática a la base de las funciones analíticas que modelaban el comportamiento de objetos físicos, otros filósofos, más escépticos en relación con la fecundidad de este camino, ya estaban apuntando para otro lado. Entre ellos, son muy importantes los filósofos neo-kantianos, que no le tenían mucha fe a la lógica formal por razones que Kant esboza en la Crítica de la razón pura, los fenomenólogos y, sobre todo, los discípulos de Ernst Mach. En efecto, el proyecto de Hilbert se planteó cuando otros novedosos desarrollos en la física (la teoría termodinámica y la electrodinámica), y en la biología, la química y la fisiología, comenzaban a poner ya en duda la pretensión de que la mecánica clásica, que podía modelar de modo analítico el movimiento de objetos en un espacio geométrico, ofrecería un único modelo válido de conocimiento verdadero universal (Moulines, El desarrollo moderno de la filosofía de la ciencia, 2011, p. 20). De hecho, como lo mostrará Albert Einstein en 1905, el espacio y tiempo absolutos, un marco de trabajo ideal pensado así por Isaac Newton y asumido de modo acrítico por Kant, impiden la representación de objetos en todo sistema posible de coordenadas, en particular en aquel sistema de coordenadas que serviría para modelar el universo. Muy importante para Einstein en el desarrollo de estas intuiciones es el programa previsto por Ernst Mach para la fundamentación del conocimiento, quien no confiaba que las representaciones matemáticas del mundo serían suficientes para explicar nuestros acuerdos intuitivos sobre la realidad y aboga más bien por el desarrollo de una teoría entre neurológica y fisiológica, o un análisis fenoménico-sensorial, que explique por qué algunas intuiciones son auto-evidentes para todos.

El programa de Mach influyó enormemente en las teorías de la verdad científica de los primeros filósofos de la ciencia del siglo XX y también en Albert Einstein, cuyo especial interés en la epistemología de la ciencia impulsó sin duda alguna su desafío al modelo newtoniano de la física teórica y le infundió el valor necesario para atreverse a pensar la realidad con otras intuiciones. En este sentido, es notable su “principio de equivalencia”, con el que interpreta la gravedad no como una fuerza que “atrae” algo, sino como la aceleración de un marco de referencia observado por alguien que se encuentra dentro de este. Este principio, que no es otra cosa que una interpretación filosófica de aquello que sucede en la realidad, fue al inicio fundamental para el desarrollo de su teoría de la gravedad general. Einstein, quien envió a Mach con entusiasmo juvenil los primeros resultados de sus teorías, debió haber sentido que había logrado una fundamentación del conocimiento no simplemente en un sistema axiomático de tipo lógico, sino en las verdaderas intuiciones auto-evidentes que Aristóteles había entendido como axiomas, logrando además, su plena integración en un marco racional de tipo matemático.

La importancia que Einstein le otorga al apoyarse en intuiciones evidentes para todos es tal, que su artículo de 1905 comienza con esta idea: “Imagínese que está sentado en una estación de tren mirando el reloj”. De acuerdo con la filósofa e historiadora de la ciencia Lorraine Daston, este artículo no habría sido publicado hoy precisamente a causa de esta frase, que apela a las intuiciones básicas del lector, un soporte de índole “filosófica” y no “científica”. Pero si fue publicado en su momento fue porque se sabía ya de una corriente entre los editores de las revistas académicas que debía ser escéptica respecto del programa de Hilbert, en cuanto ese programa buscaba demostrar que un sistema lógico-axiomático acabado podría demostrar desde abajo, por decirlo así, la consistencia puramente lógica de las ecuaciones matemáticas de una teoría física y, con ello, ofrecer de modo directo y no intuitivo la evidencia que sostenía la validez de una teoría, como sucedió con la mecánica clásica.

De este problema de fundamentación de las teorías físicas en intuiciones auto-evidentes era tan consciente el mismo Einstein que después de la publicación de su artículo de 1915 sobre la relatividad general, impartió algunas conferencias de epistemología o filosofía de la ciencia sobre su propia teoría, en el que él mismo esboza la demostración intuitiva que llevaría a una prueba indirecta o empírica de la relatividad general, a saber, la idea de que la curvatura de la luz que emiten estrellas distantes durante un eclipse solar mostraría que su teoría era verdadera. Einstein parecía ser consciente de que las ecuaciones matemáticas que conformaban su teoría, por sí solas, no iban a convencer a la comunidad de científicos de su época de la validez de su síntesis de la teoría de la gravedad para todos los marcos de referencia espacio temporales y que, por ello, necesitaba una prueba empírica de índole indirecta o intuitiva. Por esta razón, en sus conferencias posteriores a 1915, en donde explica en qué consisten sus teorías de la relatividad especial y general, predice también el grado exacto de curvatura o distorsión de la luz que llegaría a nosotros de las estrellas visibles durante un eclipse de sol, en el que un cuerpo celeste de gran envergadura la obstruiría, efecto que se conoce como el “lente gravitacional”, y que todos pudimos ver recientemente en la emocionante fotografía tomada por el telescopio James Webb de la luz de las galaxias lejanas que llega hasta nosotros. Esta predicción es la que Arthur Eddington comprueba en Sudáfrica en 1919, catapultando a Einstein de inmediato a la fama mundial.

El efecto del “lente gravitacional” predicho por Einstein. Obsérvese aquí la curvatura de la luz que emiten galaxias enteras (fotografía tomada por el telescopio James Webb (NASA) en 2022).

No será hasta 1931 cuando el lógico y matemático Kurt Gödel demostrará, con su teorema de la incompletitud, que la validez de una teoría científica no puede demostrarse con la consistencia de los axiomas lógicos que subyacen a sus enunciados matemáticos. Gödel muestra que ningún sistema lógico es perfectamente consistente, en el sentido de que no violará el principio de no contradicción entre fórmulas o enunciados, si pretende ser completo para todos los enunciados o fórmulas que conforman el sistema. En idioma palatino, esto significaría que la validez de ninguna teoría de la física puede demostrarse a partir de la pura consistencia lógica de sus enunciados de base (un asunto que, por cierto, tiene implicaciones para el posible desarrollo de una inteligencia artificial general).
Con ello, la aspiración de Aristóteles de encontrar un fundamento epistemológico seguro para las ciencias en la consistencia y completitud de su sistema axiomático llega a su fin. Pero, desde luego, esto no significará que debamos abandonar la búsqueda de un fundamento fiable para los enunciados de base de una ciencia. Significa que hay que ir a buscarlo por otro lado.

La importancia de los acuerdos universales en las ciencias y en la vida social

Como he señalado antes, la aspiración de una fundamentación de las ciencias naturales tiene como motivación el disminuir toda posible controversia respecto de su validez universal, sobre su capacidad de ser comunicada a otros y comprendida por ellos sin restricciones. Y no se trata simplemente de poder convencer a otros de la verdad de una teoría, sino de poder ofrecer a nuestros interlocutores, en una comunidad científica, evidencia incuestionable a favor de una teoría. Nadie que no pueda presentar un tipo de evidencia como la que ofreció Eddington en 1919 a favor de las teorías de Einstein puede aspirar a ganarse un premio Nobel. Los jurados de este premio, en el que se encuentran muchos filósofos de la ciencia por cierto, tienen mucho cuidado de poder constatar que existe evidencia empírica, es decir, claramente comprensible o visible para todo el que quiera asomarse a ella, a favor de una teoría dada. Es por ello que Peter Higgs y colaboradores reciben el premio Nobel de física nada menos que 50 años después de que se predice la existencia de su bosón y cuando se cuenta con los medios técnicos para poder verlo clara e inequívocamente en un acelerador de partículas. Poder ver lo que una teoría ha postulado es, prácticamente, garantía de obtener el premio Nobel, cosa de la que se quejó siempre el gran físico teórico Stephen Hawkins, quien murió sin haberse comprobado con evidencia empírica, por falta de medios técnicos, lo que él había predicho sobre los agujeros negros.

La preocupación por contar con los medios para comprobar teorías no es sólo importante para las ciencias naturales. De ello dependen nuestros acuerdos racionales sobre la realidad en general, sea esta física o social. Necesitamos estos acuerdos en todos los ámbitos de nuestra vida, no precisamente para que la gente se gane premios, sino para poder convivir con un sistema de normas sociales y obligaciones recíprocas que todos aceptan como razonable, y con expectativas comunes de todo tipo. Un mundo en el que no todos comparten las mismas convicciones y expectativas sería un mundo cognitiva y socialmente fragmentado, un mundo en un estado de zozobra permanente que pudiera conducir a la guerra de grupos contra otros grupos. En suma, un mundo que, a ratos, se acerca peligrosamente a la imagen que tenemos del nuestro. Un mundo de aspiraciones en pugna que se parece al que hemos experimentado nosotros en años recientes en Venezuela.

Los filósofos de las ciencia, cuando lidian con estos problemas de fundamentación de la física, tratan de reconstruir racionalmente los distintos tipos de razonamiento que emplean los científicos para realizar la tarea de integrar la evidencia dentro de una teoría. Entre las preguntas que la epistemología se hace al respecto se encuentran: ¿qué es una explicación, o cuando una teoría puede decirse que reemplaza o reduce otra dentro de su síntesis más amplia que la integra? Se trata de preguntas de tipo metodológico que conciernen a la cuestión de la universalidad del conocimiento o a su validez general.

Desafortunadamente, sin embargo, la comprensión científica a veces consigue ampliar el ámbito de acuerdo racional alrededor de una teoría al precio de tener que usar métodos que eliminan detalles que de otro modo aumentarían la precisión del fenómeno. Una teoría escoge los detalles o dimensiones (o variables o parámetros de interés) del fenómeno que se va a analizar, sus condiciones iniciales y restricciones o límites, en caso de que se examine su evolución, y ello es lo que las ecuaciones van a definir. De estas ecuaciones se deriva la integración de la evidencia. Pero eso mismo las hace insuficientes desde un punto de vista explicativo para todos los hablantes y en todos los contextos. En muchas teorías, las dimensiones que no forman parte del fenómeno analizado constituyen ruido que hay que limpiar cuando se aplican las ecuaciones de base y, por lo tanto, se eliminan o dejan de lado.
Las ecuaciones que gobiernan el análisis formal de un fenómeno definen un tipo de comportamiento que los físicos teóricos llaman, como los filósofos de la ciencia también los llamarían, patrones “universales”. La esencia de este sentido de universalidad, de acuerdo con Robert W. Batterman (Batterman, The Devil in the Details. Asymptotic Reasoning in Explanation, Reduction, and Emergence, 2002), es poder definir el comportamiento sistemático o analítico de fenómenos físicos que pudieran tal vez ser muy diferentes en el fondo. Por ejemplo, en termodinámica, las transiciones de fase en sistemas dinámicos buscan definirse analíticamente siempre del mismo modo, sea que uno trabaje con fluidos, con virutas de metal o con partículas. Métodos en mecánica cuántica, dice Batterman, como el así llamado “grupo de re-normalización” tratan precisamente de explicar cómo es esto posible al diseñar un aparato formal que permite investigar sistemáticamente los cambios de un sistema físico desde el punto de vista de las variables cuánticas más importantes (como energía y momento de una partícula), de modo que pueda establecerse cómo su simetría, o auto-similaridad, se mantiene en todas las escalas o marcos de referencia.

Los grupos de re-normalización son muy importantes en mecánica cuántica porque las transformaciones algebraicas, que permiten definir un objeto en cualquier sistema de coordenadas geométricas, no son tan aparentes aquí como lo serían en el campo clásico de tres dimensiones. De este modo, en mecánica cuántica, a una escala dada, los parámetros fundamentales que conforman un sistema (por ejemplo, los átomos, partículas elementales, spins, etc.) deben poder ser descritos conservando las interacciones típicas entre los elementos a lo largo de todas sus transformaciones, de modo que conserven su simetría en todas las escalas, es decir, tanto si se observan a distancias cortas o largas. Dado que a distintas escalas el sistema pudiera exhibir características distintas, el valor de los parámetros relevantes puede definirse de modo preciso con ayuda del grupo de re-normalización.

Aunque la idea del grupo de re-normalización de distintas transformaciones se pensó para definir la ontología que gobierna las propiedades de los objetos de la mecánica cuántica, ahora se usa también para definir estados invariantes, simétricos o auto-similares en la física de la materia condensada, la mecánica de fluidos o la cosmología. Aspira, pues, a convertirse en un modelo de lo que significa un conocimiento universal de la realidad.

En Batterman, el concepto de grupo de re-normalización llama la atención sobre el papel que las explicaciones asintóticas desempeñan no sólo aquí, sino también cuando se define cualquier función que reduce el comportamiento de un fenómeno a una serie restringida de parámetros, variables o dimensiones relevantes. Recordemos que la asíntota de una función derivada describe una recta, que se extiende al infinito, y que se aproxima siempre a la gráfica de la función, de modo que puede interpretarse como el crecimiento medio o lineal que ha de esperarse de la gráfica cuando se proyecta al infinito. Como método, las explicaciones asintóticas permitirían reducir el análisis de un fenómeno a sus ecuaciones de base o funciones analíticas fundamentales y, con ello, relacionar entre sí distintas explicaciones de un determinado fenómeno. Esto es especialmente importante en el caso de la mecánica cuántica, porque no se sabe cómo esta gobierna los fenómenos emergentes en el mundo clásico y, por ende, la teoría de la física que uniría en un mismo paradigma el modelo estándar de partículas y la teoría de la relatividad general de Einstein no se ha concebido todavía (es el problema, por cierto, que fascina a Sheldon Cooper en la serie cómica de ‘TV The Big Bang Theory’). Para Batterman, los límites asintóticos definen un dominio en donde, por decirlo así, “habita” la teoría que explica el fenómeno en su totalidad y, por lo tanto, posibilitan interpretaciones filosóficas que la vinculan con otras teorías posibles en tanto que en ese dominio se encuentran los fenómenos emergentes que requieren nuevas escalas de medición o nuevos marcos de referencia. Universalidad, en este sentido, se refiere a la posibilidad de encontrar una explicación del fenómeno que se produzca, por decirlo así, en el límite asintótico que sirve de puente a su observación en, o transformaciones a, otros marcos de referencia u otras escalas.

Sin embargo, se puede observar aquí que la clave de esta idea de universalidad reside en la capacidad que tiene para justificar el reducir un fenómeno a unos pocos parámetros, algo que se encuentra implícito en la propia definición de crecimiento asintótico de la función. En la Crítica de la razón pura, Kant asumió con entusiasmo también este tipo de universalidad, típica de la representación matemática de fenómenos físicos, como el modelo por excelencia de la presunción de universalidad de las ciencias naturales, que incorpora dentro del marco más amplio de un concepto de razón que sostendría, con sus capacidades para el entendimiento común del mundo dado, el conocimiento racionalmente comunicable en general. No obstante, el problema de Kant es el de la fundamentación filosófica de ese tipo de conocimiento dentro del marco de las facultades racionales más amplias del ser humano, en donde la capacidad de modelar matemáticamente un objeto en un marco referencial espacio-temporal es sólo una parte de lo que debería ser posible para el hombre. En este sentido, Kant apela también a la existencia de una serie de categorías básicas que cumplen el mismo papel que las categorías de Aristóteles en la constitución de una realidad compartida en común.

De este modo, era claro para Kant, desde el inicio de su teoría de la razón humana, que no todo lo que se comparte en común se refiere al mundo de los objetos, a la realidad objetivamente dada. También un discurso racional puede referirse a objetos no dados como Dios, el alma y la libertad, respecto de los cuales la humanidad suele discurrir, por lo general, sin ponerse nunca de acuerdo. Kant considera que estos, y otros objetos análogos, como la belleza estética o lo moralmente correcto, pueden aspirar a encontrar una definición racional y satisfactoria dentro del marco del uso práctico de la razón, que se distingue del uso teórico por cuanto no determina objetos dados sino que, como él mismo dice, los “crea”, o los concibe de la nada.

Ahora bien, es evidente que algo creado por la mente humana no puede ser determinado dentro de un marco de referencia geométrico, no sólo porque no está dado de antemano a la intuición humana, sino también porque, por esta misma razón, no puedo someterlo a un proceso analítico que abstraiga sus atributos y los reduzca a unos pocos parámetros, como en el caso de las funciones derivadas de la mecánica clásica. Su universalidad tiene que venir de otro lado. Es por ello que Kant sugiere, como lo afirma Onora O’Neill (en Constructions of Reason: Exploration of Kant’s Practical Philosophy, 1989) que, en definitiva, la apelación a la universalidad es lo característicamente racional de un enunciado o juicio. Es como si dijera que lo característicamente racional de un enunciado es su pretensión de universalidad, pretensión que atraviesa todo el espectro de la razón humana desde su uso teórico a su uso práctico, que se confirma en las ecuaciones básicas de la física teórica de su tiempo, y desemboca en el Imperativo Categórico, en la idea de que la racionalidad práctica es, en definitiva, la posibilidad de actuar como si la regla que guía una acción fuese susceptible de asentimiento racional universal. Es posible trasladar esa regla práctica también al pensamiento teórico y decir que el asentimiento racional debería producirse cuando creemos que un enunciado es válido para todo individuo, es decir, de manera universal.

Inteligencia artificial y la inevitabilidad del sesgo

Esta pretensión de universalidad del conocimiento racional es importantísima para la filosofía del siglo XX, como ya lo he señalado, al igual que lo fue para la filosofía antigua, pero también plantea un problema al interior de los desarrollos científicos actuales. Karl Popper consideraba que las universidades y la academia científica eran las únicas comunidades autorizadas para sancionar esta universalidad, mientras que, en la segunda mitad del siglo, Jürgen Habermas amplia esa comunidad, como Kant, al espectro de todos los seres racionales que pueden hablar y actuar de forma pública, es decir, en foros convocados más allá de las universidades y de las academias. Sin negar la pertinencia del conocimiento especializado, sobre todo en problemas de tipo práctico, todo individuo capaz de habla y acción sería, según esto y al menos en principio, capaz de elegir de forma desprejuiciada y libre la mejor opción posible de entre las muchas que pretenden ser fieles a la realidad, a lo que realmente es el caso. O por lo menos, así se pensaban que eran las cosas a inicios de nuestro siglo.

Ahora bien, con el auge de aplicaciones de machine learning o aprendizaje automático es ahora posible, como no lo era hace apenas unos 20 años, representar el conocimiento compartido en común como una función matemática que de facto elige, bien sea por diseño o por defecto, cuáles son los atributos semánticos, parámetros o variables relevantes de un modelo de la realidad que se supone mejor representan los contenidos susceptibles de ser generalizados.

Con ello, los sistemas de inteligencia artificial basados en el aprendizaje automático, en la medida en que tienen acceso a redes inmensas de datos, a la opinión de miles de millones de usuarios, se enfrentan a un nuevo problema que es, justamente, un resultado de su creciente complejidad.

la comunidad universal de hablantes, cuando se comunica de verdad, parece que no llegará ni puede llegar jamás, ni por asomo, a verdades universales. Al contrario, se fragmenta.

En efecto, el problema planteado por la reducción de teorías y el problema de una posible unidad entre ellas en una visión coherente del mundo, bien sea en un límite asintótico o en otro lugar, desde inicios del siglo XXI se topa con el hecho de que nuestro conocimiento de la realidad se organiza en sistemas complejos sumamente densos, por el número de datos a la disposición de los desarrolladores e ingenieros de sistemas, dando lugar a sistemas de conocimiento que pueden ser completamente diferentes entre sí, incluso contradictorios entre ellos, dependiendo de las propiedades o componentes del sistema que un sujeto de conocimiento (entendido como la comunidad de responsables del sistema automatizado, o de lo que Habermas llamaba una “comunidad de argumentación”) considera salientes o relevantes. Dicho de otro modo: así como cada cabeza es un mundo, cada grupo de argumentación puede llegar a conclusiones sobre la realidad opuestas a las de otro, y esto no porque uno esté equivocado y el otro tenga razón, sino porque la realidad, como es natural, es más compleja a medida en que uno la puede estudiar con mayor detalle y no se deja modelar alrededor de una función analítica que destaque o derive el comportamiento físico de sólo dos o tres dimensiones salientes.

Como ya he señalado, esto se ve ahora con claridad con el surgimiento de programas de aprendizaje automático, que aprovechan el crecimiento de nuestra capacidad técnica para hacer computaciones más rápidas y complejas, para trabajar con programas paralelos o simultáneos, con algoritmos más astutos, y, sobre todo, para recoger los datos que los usuarios dejan en sus interacciones con todo tipo de redes sociales; en suma, para representar la realidad también de modo más complejo.

Sin embargo, así y todo, nuestra capacidad para representar de modo intuitivo ese conocimiento complejo con ayuda del álgebra lineal, el aprendizaje profundo o simulando lo que se supone sucede en el nivel cuántico, no puede evitar tener que reducir la complejidad a una función que modela la realidad del modo más generalizable posible. Y lo que me parece que la actual situación social y política de fragmentación y polarización muestra es que, dependiendo del ángulo de visión que uno tenga, o del grupo o red a la que uno pertenezca, la perspectiva que es válida para uno no lo será para el otro en el ágora de comunicaciones públicas que son las redes sociales online. Desaparecida la posibilidad de que una sola comunidad de argumentación científica, como pensaba Popper que era la tarea de las universidades y academias, se convierta en árbitro absoluto de lo que no se puede falsear todavía, la comunidad universal de hablantes, cuando se comunica de verdad, parece que no llegará ni puede llegar jamás, ni por asomo, a verdades universales. Al contrario, se fragmenta.

¿Cómo es esto posible? Desde el Trasímaco de Platón hasta Michel Foucault la tesis ha sido que la verdad es siempre confiscada por intereses ajenos al conocimiento, tales como los de un grupo de presión política. Pero la pretensión de universalidad podía convivir sin problemas con esta sospecha. Más bien pienso que, cuando se abre la posibilidad de representar nuestro conocimiento tomando en cuenta atributos complejos de la realidad, la cuestión de la relevancia del conocimiento se vuelve más importante que su universalidad y atenta contra la misma.

Si suponemos que el conocimiento, en general, se aproxima del mejor modo posible a un segmento de la realidad, la conclusión no puede ser sino que distintos ángulos de visión y distintas formas de conocimiento rendirán resultados muy diferentes en el espacio total de perspectivas del objeto que, al ser multidimensional, es difícilmente manejable por una única función analítica. Esto hace que el criterio de validez universal tenga que ser sustituido por una suerte de criterio de validez pragmática, lo que pudiera considerarse un criterio de relevancia para el sujeto de conocimiento. Por ello, Charles Sanders Peirce pedía ya en 1883 sustituir el razonamiento lógico por el cálculo de probabilidades respecto de cuáles son las oportunidades que tenemos de tener razón cuando asentimos a la verdad de un enunciado (Peirce, A Theory of Probable Inference. Studies in Logic by Members of the John Hopkins University, 1983). Y así es como los programas de machine learning modelan en redes sociales las discusiones entre actores sociales.

Pero esto no es todo. La posibilidad de representar eficazmente las discusiones sobre la realidad de millones de hablantes ha traído como consecuencia que se pueda poner en cuestión la universalidad de los criterios con los cuales aquella comunidad científica y universitaria de argumentación, que Popper había erigido como árbitro de la verdad al interior de su epistemología, sancionaba la verdad de una teoría. Por ejemplo, en medicina, resulta que mucha de la evidencia que se trae a favor de una u otra teoría puede mostrarse estar inevitablemente sesgada por los métodos y los criterios que atribuyen una probabilidad dada a un modelo determinado de enfermedad o de curación y a los atributos o parámetros que se consideran relevantes en cada modelo dado (Stegenga, Medical Nihilism, 2018). Esto implica que, en un mundo de comunicaciones complejas en la que se intercambian miles de millones de datos sobre el mundo, el conocimiento se ofrecería siempre de modo sesgado, y esto por razones sistemáticas, es decir, a causa de nuestra creciente capacidad para manejar computacionalmente modelos de la realidad con muchas dimensiones diferentes, no las dos o tres que caracterizaban el modelo analítico de la mecánica clásica e incluso el de la relatividad general. Profundizo sobre el problema de cómo explicar de modo sistemático este tipo de complejidad en mi artículo “Rational consensus and deliberative democracy in complex societies dominated by online social media interactions” (Revista Episteme NS, Vol. 42, 2022).

Por esta razón, la objeción que dice que si un grupo de individuos racionales conociera todos los hechos que animan la convicción de otro grupo, por ejemplo, si aquellos que están convencidos de que la tierra es plana conocieran todos los hechos que informan nuestra convicción de que la tierra es redonda, de modo que el enunciado “la tierra es redonda” sería universalizable en un sentido en que el enunciado “la tierra es plana” no lo es, pudiera no resultar a la postre muy convincente. El problema es que aquí lidiamos con dos atributos nada más: plano y redondo, dos atributos que definen un modelo de la realidad que no es complejo. Nadie discute, como lo señalaba más arriba, que se puedan alcanzar acuerdos racionales universalizables con las funciones analíticas que definieron la investigación científica durante gran parte de la época moderna. El problema surge cuando tenemos que lidiar computacionalmente con múltiples dimensiones o atributos. Entonces parece inevitable que el sujeto de conocimiento, o la comunidad de argumentación, al atribuir probabilidades a atributos que considera salientes, importantes o relevantes, de acuerdo con sus intereses, introduzca un sesgo.

La filosofía moderna, desde Kant, ha encarado de diversos modos y con distintas estrategias estos problemas en la fundamentación del conocimiento. En este sentido, pienso que en el proyecto general de la Crítica del juicio Kant declaraba de modo implícito el fracaso de su propio proyecto de fundamentación universalista del conocimiento racional, presentado en su Crítica de la razón pura, en la medida en que se ve obligado a renunciar a la noción de objetividad conceptualizada a favor de la idea de una “universalidad sin objeto”, en su esfuerzo por comprender cómo individuos racionales pueden llegar a ponerse de acuerdo sobre algo que es verdadero o válido, en particular sobre la belleza de una gran obra de arte. Kant era sin duda un genio, porque este curioso giro en su pensamiento indica la profundidad de su comprensión de las reales dificultades del problema.

Se trata de un problema que es más relevante hoy en día que en el pasado, porque una buena parte de lo que consideramos ahora conocimiento verdadero, por las razones esbozadas, sin ser enteramente falso, está sesgado, en detrimento de lo que pudiera ser importante y relevante para nosotros. El modo como se recoge y ofrece evidencia a favor de lo que ahora se consideran ciencias duras, para no hablar de las disputas de tipo político, parece estar inevitablemente sesgado y gran parte de la incapacidad para verlo la tienen modelos desfasados de la filosofía de la ciencia y de la filosofía en general, con su insistencia en que debiera existir un modo normativo o único de ver la realidad y de evaluar nuestro mundo.

©Trópico Absoluto

Luz Marina Barreto (Caracas, 1960) es profesora titular de la Escuela de Filosofía de la Universidad Central de Venezuela. Licenciada en Filosofía por la UCV, posee una maestría en Ciencias de la Computación (UCV), y un doctorado en Filosofía por la Universidad Libre de Berlín. Fue Directora del Instituto de Filología Andrés Bello de la UCV y directora del doctorado y postgrado de filosofía de la Facultad de Humanidades y Educación. Ha publicado artículos sobre ética, teoría de la racionalidad y filosofía política. Entre sus últimas publicaciones se encuentran: “Una exploración de la semántica del concepto de derechos en Twitter”, “Sobre la universalidad y relevancia del conocimiento”, “Consenso racional y democracia deliberativa en las sociedades complejas” y “Marianne Kohn Beker, lectora de Levinas”. Actualmente trabaja sobre formación de consensos, racionalidad e información en sociedades complejas.

0 Comentarios

Escribe un comentario

XHTML: Puedes utilizar estas etiquetas: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>