Resulta evidente que el capitalismo tiene una veta antinatalista o como Raúl Fernández Vítores señala, una tendencia tanatopolítica. Las máquinas desplazan continuamente el trabajo humano y el paro se hace cada vez más abundante y más crónico. En resumen, sobra población. También he leído comentarios similares en mi amigo Zarpax, José María Rodríguez Vega y en el escritor Juan Manuel de Prada a propósito de los derechos de bragueta. La tanatopolítica no sólo estaría representada por los nazis alemanes en su pretensión simple, directa y contundente de eliminar a los inservibles, locos, marginales, lisiados, judíos, enfermos incurables, etc, para garantizar la pervivencia y la sostenibilidad del Estado social o del Bienestar alemán ario, la tendencia eugenésica proviene de los países protestantes del Norte de Europa a partir de Galton, primo de Darwin.
Se nos ocurre que la eugenesia, la eutanasia, el aborto, la disolución del matrimonio y de la familia, el fomento de la homosexualidad, del animalismo, de las tendencias hedonistas e individualistas configuran los dispositivos tanatopolíticos para reducir la población amén de por otros motivos emic y etic que favorecen el desarrollo de las fuerzas productivas y el tener una mayor disponibilidad de la mano de obra.
lunes, 29 de enero de 2018
viernes, 19 de enero de 2018
El atomismo
El atomismo es una respuesta al eleatismo, surge por la necesidad que hay de postular el vacío, un cierto no ser para así poder garantizar el movimiento. Tiene que haber vacío para poder explicar el movimiento. Hay materia prima real y con plena existencia que existe en forma de partículas distintas entre sí. La materia es eterna y el movimiento de partículas garantiza la permanencia de los cuerpos.
Con esto se mantiene la plena realidad de lo corpóreo y su homogeneidad. En segundo lugar, los átomos, partículas indivisibles, son tan pequeños que no son visibles, aunque Demócrito llegó a sostener la existencia de átomos gigantes. En tercer lugar, los átomos son indivisibles e indestructibles. Esto es algo fáctico, no de principio ni racional. En cuarto lugar los átomos sólidos son infinitos en número y figura y están dispersos por el vacío infinito cuya existencia afirma el atomismo. El vacío permite el movimiento y la unión de los átomos. En quinto lugar el vacío sólo existe donde no hay átomos. En Sexto lugar los átomos difieren entre sí no por su materia, sino sólo por su disposición y figura; todas las diferencias cualitativas de los objetos, que son conglomerados de átomos, dependen, en consecuencia de diferencias cuantitativas y locales solamente.
Los átomos se mueven en línea recta y a velocidad uniforme.
Si los átomos son la única realidad, entonces, colores, olores, sabores son apariencias fenoménicas. Además, en un espacio infinito hay cabida para infinitos universos. Los universos se están formando y destruyendo continuamente. Cada universo es el resultado de un remolino o vórtice que agrupa en el vacío a una gran cantidad de átomos. No existe la finalidad, sino la necesidad o azar, to autómaton. En un vórtice los átomos tienden a agruparse con sus semejantes. Los átomos más grandes se congregan en el centro y los más pequeños son lanzados fuera.
Con esto se mantiene la plena realidad de lo corpóreo y su homogeneidad. En segundo lugar, los átomos, partículas indivisibles, son tan pequeños que no son visibles, aunque Demócrito llegó a sostener la existencia de átomos gigantes. En tercer lugar, los átomos son indivisibles e indestructibles. Esto es algo fáctico, no de principio ni racional. En cuarto lugar los átomos sólidos son infinitos en número y figura y están dispersos por el vacío infinito cuya existencia afirma el atomismo. El vacío permite el movimiento y la unión de los átomos. En quinto lugar el vacío sólo existe donde no hay átomos. En Sexto lugar los átomos difieren entre sí no por su materia, sino sólo por su disposición y figura; todas las diferencias cualitativas de los objetos, que son conglomerados de átomos, dependen, en consecuencia de diferencias cuantitativas y locales solamente.
Los átomos se mueven en línea recta y a velocidad uniforme.
Si los átomos son la única realidad, entonces, colores, olores, sabores son apariencias fenoménicas. Además, en un espacio infinito hay cabida para infinitos universos. Los universos se están formando y destruyendo continuamente. Cada universo es el resultado de un remolino o vórtice que agrupa en el vacío a una gran cantidad de átomos. No existe la finalidad, sino la necesidad o azar, to autómaton. En un vórtice los átomos tienden a agruparse con sus semejantes. Los átomos más grandes se congregan en el centro y los más pequeños son lanzados fuera.
miércoles, 17 de enero de 2018
El podemismo sí es un izquierdismo
Ser de izquierdas hoy, cuando las generaciones de la izquierda o se han extinguido o se han ecualizado en el seno de los Estados del Bienestar bajo el consenso socialdemócrata, no es más que los residuos, los detritus, la escoria política antisistema, pero a veces estos detritus se aglomeran temporalmente y forman partidos y movimientos. Es el caso de Podemos: mezcla de la basura del PSOE, de IU, PCE y lumpemproletariado del 15 de mayo de 2011, aglomerado por los medios de comunicación y subvenciones de Venezuela y de Irán.
Podemos es de izquierdas porque es filoterrorista, antinacional, filoseparatista y progresista. Todo apunta a cumplir el lema leninista de que cuanto peor, mejor. Cuanto más se deteriore el Estado Español, España, más fácil será para Podemos apoderarse del Estado, conquistarlo. El debilitamiento del Estado en sus diversas capas del cuerpo político forma parte de la estrategia de Podemos: deteriorar las instituciones sociales, políticas, fomentar y apoyar todo aquello que deteriore la sociedad política es el medio para lograr su fin: el poder. Todo lo que hemos predicado del izquierdismo en otras intervenciones se cumple paradigmáticamente en Podemos.
Podemos es izquierda terrestre, la izquierda real, ágrafa, antinacional, antiespañola, antipatriótica. Hoy por hoy, ser de izquierdas es eso. Vale todo para tomar el poder político. Hacer una revolución demagógica, sin un proyecto político definido y por eso ser de izquierdas es ser demagogo y sofista.
Podemos es de izquierdas porque es filoterrorista, antinacional, filoseparatista y progresista. Todo apunta a cumplir el lema leninista de que cuanto peor, mejor. Cuanto más se deteriore el Estado Español, España, más fácil será para Podemos apoderarse del Estado, conquistarlo. El debilitamiento del Estado en sus diversas capas del cuerpo político forma parte de la estrategia de Podemos: deteriorar las instituciones sociales, políticas, fomentar y apoyar todo aquello que deteriore la sociedad política es el medio para lograr su fin: el poder. Todo lo que hemos predicado del izquierdismo en otras intervenciones se cumple paradigmáticamente en Podemos.
Podemos es izquierda terrestre, la izquierda real, ágrafa, antinacional, antiespañola, antipatriótica. Hoy por hoy, ser de izquierdas es eso. Vale todo para tomar el poder político. Hacer una revolución demagógica, sin un proyecto político definido y por eso ser de izquierdas es ser demagogo y sofista.
Cretinos y malnacidos
El peor crimen político contra el Estado, contra la Nación y contra la Patria es la sedición para obtener la secesión de una parte del suelo patrio. En el límite sólo puede ser sancionado adecuadamente con la muerte, con la ejecución capital. Ahora con las modas democráticas, socialdemócratas del Estado plutocrático pletórico de bienes se opta por no conceder tanta importancia a semejante crimen político. A lo mejor es porque los secesionistas de nuestra época además de malnacidos por traidores, son idiotas y cretinos, unos débiles mentales. Gustavo Bueno ya nos dijo que el nacionalismo fraccionario se funda en la mentira histórica y que primero se da el deseo y propósito de lograr la secesión y luego surge la leyenda, el mito dialectal e histórico para justificar ante el vulgo ignorante la secesión. En el Régimen de 1978, un régimen antinacional, antiespañol se consiente toda esta infamia de tener autonomías, privilegios fiscales y dialectales amén de partidos separatistas.
Cataluña está dominada por los separatistas dialectales merced a la pasividad política de los gobiernos españoles. Finalmente, desde 2012 Cataluña vive en rebeldía abierta y permanente no sancionada aún de manera conveniente y contundente. Por eso la pantomima se prolonga. Pantomima, peligrosa, sedición posmoderna y progre pero peligrosa en última instancia en cuanto grandes potencias extranjeras decidan involucrarse a fondo en estos asuntos tan graves.
Los secesionistas son delincuentes por buscar la destrucción y el desmembramiento del Estado del que son súbditos, por ello son malnacidos y son cretinos porque sus argumentos son camelos propios de tontos de baba y porque no hay tonto bueno. Seguirán cometiendo delitos mientras se les permita cometerlos. No sabemos qué nos depara el futuro. Ójala España y el buen sentido triunfen.
Cataluña está dominada por los separatistas dialectales merced a la pasividad política de los gobiernos españoles. Finalmente, desde 2012 Cataluña vive en rebeldía abierta y permanente no sancionada aún de manera conveniente y contundente. Por eso la pantomima se prolonga. Pantomima, peligrosa, sedición posmoderna y progre pero peligrosa en última instancia en cuanto grandes potencias extranjeras decidan involucrarse a fondo en estos asuntos tan graves.
Los secesionistas son delincuentes por buscar la destrucción y el desmembramiento del Estado del que son súbditos, por ello son malnacidos y son cretinos porque sus argumentos son camelos propios de tontos de baba y porque no hay tonto bueno. Seguirán cometiendo delitos mientras se les permita cometerlos. No sabemos qué nos depara el futuro. Ójala España y el buen sentido triunfen.
sábado, 13 de enero de 2018
El criticismo nominalista y la ciencia del siglo XIV
El
criticismo nominalista y la ciencia del siglo XIV.
Ya a
partir del siglo XIII se produce una crítica a la física de Aristóteles. La
crítica se produce dentro del propio pensamiento científico aristotélico, el
cual proporcionó dese la base de su propio sistema las armas con las que fue
atacado. El aristotelismo proporcionó los elementos y las premisas para su
propia destrucción.
Durante
estos años surgen nuevas ideas acerca de la naturaleza del método científico,
sobre la inducción y el experimento y sobre el papel de las matemáticas en la
explicación de los fenómenos físicos. El terreno de máximo efecto de la crítica
escolástica es el de la dinámica; se minan las bases de todo el sistema de
física (excepto la biología), con lo cual se prepara el camino a la aparición
de nuevos métodos.
Hubo
una idea recobrada en el siglo XII que hizo posible la expansión inmediata de
la ciencia. Es la idea de que un hecho concreto es explicado cuando puede ser
deducido de un principio más general. Se recurre así a una demostración formal.
Esto fue utilizado antes por los lógicos y por los filósofos. Ya se estaba
esbozando la importante distinción entre conocimiento racional y conocimiento
experimental.
Por
ello se recupera la idea de una ciencia racional demostrativa y se empiezan a
estudiar los problemas metodológicos que van surgiendo. Se investiga sobre la
relación lógica entre los hechos y las teorías o entre los datos y las
explicaciones.
Sin
embargo, la ciencia medieval se mantuvo siempre en general, dentro de la estructura
de la teoría aristotélica de la naturaleza y no siempre sus deducciones eran
completamente rechazadas aunque se contradijeran con los resultados de los
nuevos procedimientos matemáticos, lógicos y experimentales.
Roberto
Grosseteste fue uno de los primeros en entender y utilizar la nueva teoría de
la ciencia experimental. Su teoría reúne tres aspectos, el inductivo, el
experimental y el matemático.
No
es posible la inducción total. Tampoco es siempre posible en la ciencia de la
naturaleza llegar a una definición completa o a un conocimiento absolutamente
cierto de la causa o forma de la que provenía el efecto, al contrario de lo que
ocurría, por ejemplo, con los temas abstractos de la geometría, como los
triángulos.
Grosseteste
funda su método inductivo de eliminación o refutación sobre dos hipótesis
acerca de la naturaleza de la realidad. La primera es el principio de
uniformidad de la naturaleza, que dice que las formas son siempre uniformes en
el efecto que producen. La segunda hipótesis de Grosseteste era el principio de
economía.
Grosseteste
consideró las ciencias físicas como subordinadas a las matemáticas, en el
sentido de que las matemáticas podían dar la razón de los hechos físicos
observados.
Tuvo
lugar la crisis del paradigma antiguo porque con el tiempo las explicaciones
causales físicas tomadas de la física aristotélica se volvieron cada vez más
embarazosas.
Alberto
Magno trató seriamente el problema de la inducción. Pero mucho más importante
que él fue Rogelio Bacon, puesto que en él se hace explícito el programa de la
matematización de la física y el cambio en el objeto de la investigación
científica desde la naturaleza o forma aristotélica a las leyes de la
naturaleza en un sentido moderno.
Tuvieron
gran importancia para el conjunto de la ciencia de la naturaleza las
discusiones sobre la inducción realizadas por dos frailes franciscanos de
Oxford. Duns Escoto (1266-1308) realizó una contribución al problema de la
inducción que fue la distinción muy clara que estableció entre las leyes causales
y las generalizaciones empíricas. Escoto dijo que la certeza de las leyes
causales descubiertas en la investigación del mundo físico estaba garantizada
por el principio de uniformidad de la naturaleza, que él consideraba como una
hipótesis autoevidente de la ciencia inductiva. Aun cuando era posible tener
experiencia de sólo una muestra de los fenómenos asociados que se investigaban,
la certeza de la conexión causal subyacente a la asociación conservada era
conocida por el observador. El conocimiento científico más satisfactorio era
aquel en el que la causa era conocida.
Guillermo
de Ockham realizó un ataque radical contra el sistema de Aristóteles desde un
punto de vista teórico. Atacó a la metafísica de las esencias debido a su
voluntarismo teológico, pues el postulado fundamental de la teología de Ockham
es una interpretación radical del primer artículo del Credo cristiano: Credo in
unum Deum, Patrem omnipotentem. La posibilidad de formular principios
necesarios y de apoyar en ellos demostraciones apodícticas supone que las cosas
no sólo son de hecho tal como dicen esos principios y demuestran esas
demostraciones (porque sobre puros hechos sólo puede informarnos la
experiencia), sino que tienen que ser así; y, si admitimos esto, estamos
restringiendo la omnipotencia de Dios. Si Dios es absolutamente omnipotente,
carece de sentido especular sobre cómo tienen que ser sus obras; todo es como
Dios Quiere, y Dios quiere lo que él quiere.
Entonces
Dios es absolutamente libre. La esencia es la determinación, la ley necesaria
de cada cosa. Si hay esencias, entonces hay una articulación racional del mundo
por encima de la cual no es posible saltar. Y es preciso que nada sea
absolutamente imposible, porque Dios lo puede todo. Por lo tanto, es preciso
que, en términos absolutos, no haya esencias. Para Ockham la teoría que afirma
la realidad del universal en la mente de dios implicaba que Dios quedaba
gobernado o limitado en su acto creador por las ideas eternas. Hay una
contingencia radical debido al voluntarismo teológico de Ockham. No hay
esencias, no hay leyes absolutas, pues Dios es absolutamente libre.
La
lógica terminista incipiente, iniciada en el siglo
XIII (Pedro Hispano, William de Wood) se caracteriza por su
interés en el lenguaje y el significado.
Se distinguen varias clases de términos:
categoremáticos, referidos a la realidad, a la referencia, significan
aisladamente. Y sincategoremáticos: son los functores, términos relatores.
Palabras
y conceptos: la inferencia significativa de las palabras es convencional. El
verdadero material de nuestro razonamiento no es el símbolo artificial, sino el
natural (concepto). La aprehensión directa de una cosa causa de modo natural en
la mente un concepto de esa cosa que es el mismo aunque se hablen idiomas
distintos. El significado lógico de palabras en distintos idiomas es el mismo.
La
proposición y la representación (suppositio). Los términos son los elementos de
las proposiciones. Sólo en el seno de éstas adquieren la función de representar
(suppositio). Esta función presenta varias modalidades:
Se
representa a un individuo (Suppositio personalis).
Se
representa a los miembros de una clase (Suppositio simplex).
Se
representa a la palabra misma (Suppositio materialis).
Términos
de primera o segunda intención. Los términos de primera intención representan a
cosas que no son por su parte signos. Los términos de segunda intención
representan términos de primera intención y se predican de éstos.
Los
universales son términos que significan cosas individuales y que las representan
en las proposiciones. Solamente existen las cosas individuales y por el mero
hecho de que una cosa exista es por ello individual. Si el universal existe, ha
de ser individual, por tanto afirmar su existencia extramental es
contradictorio.
Una
evidencia que recae directamente sobre universales sólo puede ser evidencia de
conexiones entre nociones, en ningún caso evidencia de que haya realmente algo
que corresponda a esas nociones. En otras palabras sólo el conocimiento
intuitivo (esto es, experimental) nos da noticia de la existencia de alguna
cosa; y el conocimiento intuitivo o experimental versa siempre sobre cosas
individuales y concretas. Que hay tal o cual ente es una afirmación que no
podremos jamás sacar de otra parte que de la experiencia. No es lícito
racionalmente aceptar más entidades que aquellas que se dan en una experiencia
concreta o aquellas cuya admisión es absolutamente necesaria en virtud de una
experiencia concreta. Este es el sentido de una célebre fórmula que Ockham
maneja constantemente: Non sunt multiplicanda entia sine necessitate; el propio
Ockham lo explica así: sine necessitate, puta nisi per experientiam possit
convinci.
Con
esto está ya dicho que todo aquello cuya existencia Pueda ser afirmada es una
cosa individual: omnis res positiva extra anima eo ipso est singularis. Ockham
niega todo tipo de realidad al universal. Universalia sunt nomina.
La
lógica del siglo XIII había llamado suppositiio a la propiedad que el término
tiene de valer por o hacer las veces de la cosa (Terminus supponit pro re).
Ockham insiste en que a) sólo lo individual existe, b) que los individuos
pueden ser clasificados por la mente y para la mente, en géneros y especies; se
trata de no añadir nada a esto, de resolver el problema ateniéndose estrictamente
a los datos. Nada es universal para Ockham, ni siquiera el nombre, el nombre es
singular.
Guillermo
de Ockham era escéptico respecto de la posibilidad de conocer alguna vez las
conexiones causales particulares o de ser capaz de definir las sustancias particulares,
aunque no negó la existencia de causa o de sustancias como identidad que
persistía a través del cambio. De hecho, creía que las conexiones establecidas
empíricamente poseían una validez universal en razón de la uniformidad de la
naturaleza.
Ockham
basó el tratamiento de la inducción sobre dos principios. Primero, defendió que
el único conocimiento cierto sobre el mundo de la experiencia era el que
llamaba conocimiento intuitivo, adquirido por la percepción de cosas
individuales a través de los sentidos.
El
segundo principio de Ockham era el de economía, la llamada navaja de Ockham.
El
efecto del ataque de Ockham a la física y a la metafísica de su tiempo fue
destruir la creencia en la mayor parte de los principios sobre los que se
basaba el sistema de la física del siglo XIII. En particular atacó las
categorías aristotélicas de relación y de sustancia y el concepto de
causalidad. Defendió que las relaciones como la de estar una cosa sobre la otra
en el espacio, no tenían realidad objetiva, aparte de las cosas individuales
perceptibles entre las que se observaba la relación. Según él, las relaciones
eran simplemente conceptos formados por la mente. Esta idea era incompatible
con la idea aristotélica de que el cosmos tenía un principio objetivo de orden,
según el cual sus substancias componentes estaban ordenadas, y abrió el camino
a la noción de que todo movimiento era relativo en un espacio geométrico
indiferente sin diferencias cualitativas.
Ockham
dijo, al tratar de la sustancia, que sólo se poseía experiencia de los
atributos y que no se podía demostrar el que unos determinados atributos
observados fueran causados por una forma sustancial determinada. Defendió que
las secuencias de fenómenos regulares eran simplemente secuencias de hechos y
que la función primaria de la ciencia era establecer estas secuencias por la
observación. Era imposible tener certeza de una conexión causal. concreta,
porque la experiencia proporcionaba conocimiento evidente sólo de los objetos o
fenómenos individuales y nunca de la relación entre ellos como causa y efecto.
Un
grado mayor aún de empirismo filosófico fue logrado por un francés
contemporáneo de Okham, Nicolás de Autrecourt (muerto después de 1350). Este
dudó absolutamente de la posibilidad de conocer la existencia de sustancias o
de relaciones causales. Llegó a la conclusión de que del hecho de que se sepa
que una cosa existe no se puede inferir evidentemente que otra cosa existe, o
no existe,; de lo cual él concluía que del conocimiento de los atributos no era
posible inferir la existencia de las sustancias.
El
nominalismo afirmaba que el mundo natural era contingente y que por lo tanto
las observaciones eran necesarias para descubrir algo sobre él.
En
física el primero que realiza un análisis cinemático del movimiento es Gerardo
de Bruselas (1187-1260) en su tratado “De motu”, al tratar el movimiento de
rotación adoptó un enfoque característico de la ciencia moderna, considerando
como objeto principal del análisis la representación de las velocidades no
uniformes por medio de velocidades uniformes, análisis que implicaba
inevitablemente el concepto de velocidad y parece que supuso que la velocidad
de un movimiento puede expresarse por un número o una cantidad haciendo de ella
magnitud, como el espacio y el tiempo.
Hacia
finales del siglo XIII Gil de Roma propuso una forma completa de atomismo, que
derivó su base de la teoría de Avicebrón sobre la materia como extensión
especificada sucesivamente por una jerarquía de formas. Gil sostuvo que la
magnitud podía ser considerada de tres maneras: como una abstracción
matemática, como realizada en una substancia material no específica y en una
específica.
Nicolás
de Autrecourt abandonó por completo la explicación de los fenómenos en términos
de formas sustanciales y llegó a adoptar una física completamente epicúrea.
Llegó a la conclusión probable de que un continuum material estaba compuesto de
puntos mínimos, infrasensibles e indivisibles, y el tiempo de instantes discretos,
y afirmó que todo cambio en las cosas naturales se debía a movimiento local,
esto es, a la agregación y a la dispersión de partículas. También creyó que la
luz era un movimiento de partículas con una velocidad finita.
Según
Ockham tiempo y movimiento no designaban res absolutae, sino relaciones entre
res absolutas. Designaban rei respectivae, sin existencia real. Rechazó el
principio básico de Aristóteles de que el movimiento local fuera una
potencialidad actualizada. Definió el movimiento como la existencia sucesiva,
sin reposo intermedio, de una identidad continua que existía en lugares
diferentes; y para él el mismo movimiento era un concepto que no tenía
realidad, aparte de los cuerpos en movimiento que podían ser percibidos. Era
innecesario postular cualquier forma inherente que causara el movimiento,
cualquier entidad real distinta del cuerpo en movimiento, cualquier flujo o
curso. Todo lo que era necesario decir era que de instante a instante el cuerpo
en movimiento tenía una relación espacial diferente con otro cuerpo. Cada
efecto nuevo requería una causa; pero el movimiento no era un efecto nuevo,
porque no era nada, sino que el cuerpo existía sucesivamente en lugares
distintos. Ockham rechazó, por tanto, las tres explicaciones corrientes de la
causa del movimiento de los proyectiles, el impulso del aire, la acción a
distancia mediante las especies y la fuerza impresa dada al mismo proyectil.
Rechazó la frase omne quod movetur, movetur ab alio y dio el primer paso hacia
la formulación del principio de inercia y a la definición de fuerza como lo que altera
el reposo o el movimiento.
No
fue sin embargo Ockham el que produjo la teoría física más significativa del
siglo XIV, sino un físico, Juan Buridán. A las críticas corrientes de las
teorías del movimiento de los proyectiles platónica y aristotélica añadió la de
que el aire no podía explicar el movimiento rotatorio de una piedra de molino o
de un disco, porque el movimiento continuaba aun cuando se colocara una
cubierta sobre los cuerpos, cortando así el aire. Igualmente rechazó la
explicación de la aceleración de los cuerpos que caen libremente por la
atracción del lugar natural, porque defendía que el motor debe acompañar al
cuerpo movido. La teoría del impetus, por medio de la cual explicaba los
diferentes fenómenos del movimiento
constante y acelerado, se basaba, como la teoría anterior de la virtus
impressa, sobre los principios de Aristóteles de que todo movimiento requiere
un motor y de que la causa debe ser proporcionada al efecto. En este sentido,
la teoría del impetus era la conclusión histórica de una línea de desarrollo
dentro de la física aristotélica, más que el comienzo de una nueva dinámica de
la inercia. Buridán sin embargo, formuló su teoría con mayor exactitud
cuantitativa que sus predecesores.
Puesto
que las explicaciones de la persistencia del movimiento de un cuerpo después de
haber abandonado al motor original fracasaron, Buridán concluyó que el motor
debe imprimir al mismo cuerpo un cierto impetus, una fuerza motriz gracias a la
cual continuaba moviéndose hasta que era afectada por la acción de fuerzas independientes. En
los proyectiles este impetus se reducía progresivamente por la resistencia del
aire y por la gravedad natural a caer hacia abajo; en los cuerpos que caían libremente,
aumentaba gradualmente por la gravedad natural, que actuaba como una fuerza
aceleradora que añadía incrementos o impetus sucesivos o gravedad accidental, a
los ya adquiridos. La medida del impetus de un cuerpo era su cantidad de
materia multiplicada por su velocidad.
Se
ha pretendido hacer del impetus una
fuerza motriz duradera al hacer del impetus una res permanens, la cual mantiene
al cuerpo en movimiento sin cambio en la medida en que no era afectado por
fuerzas que lo disminuían o lo aumentaban. Buridán dio un paso estratégico
hacia el principio de inercia. Es verdad que su impetus tenía algunas
semejanzas notables con la dinámica del siglo XVII. La medida que propone
Buridán del impetus de un cuerpo como
proporcional a la cantidad de materia y a la velocidad sugiere la definición de
Galileo del impeto o momento, la quantité de mouvement de Descartes, e incluso
el momento de Newton como el producto de la masa multiplicada por la velocidad.
Es verdad que el impetus de Buridán, en
ausencia de fuerzas independientes, podía continuar en círculo en los cuerpos
celestes y en línea recta en los cuerpos terrestres, mientras que el momento de
Newton permanecía solamente en línea recta en todos los cuerpos y necesitaría
una fuerza para ser llevado a una trayectoria circular. Galileo en esto no
estaba con Newton, sino en una posición intermedia entre él y Buridán.
También
existe una cierta semejanza entre el impetus de Buridán y la forcé vive, o
energía cinética, de Leibniz. Buridán proponía el impetus como una causa aristotélica del movimiento que
debía ser proporcionada al efecto; por tanto, si la velocidad aumentaba, como
en los cuerpos que caen, también debía hacerlo el impetus. Es verdad que se
puede considerar el impetus de Buridán como un resultado de su intento de
formulaciones cuantitativas, como algo más que una causa aristotélica, como una
fuerza o poder poseído por un cuerpo, en razón de estar en movimiento, de
alterar el estado de reposo o movimiento de otros cuerpos en su trayectoria. Es
verdad también que existen demasiadas semejanzas entre esto y la definición de
impeto o momento dada por Galileo en su “Dos nuevas ciencias” para suponer que éste no debía nada a Juan
Buridán. Pero considerándolo en su propia época, es evidente que el mismo Buridán
consideró su teoría como una solución a los problemas clásicos que surgían
dentro del contexto de la dinámica aristotélica de la que él nunca se evadió.
No concibió el principio de inercia en el espacio vacío.
La
teoría del impetus de Buridán fue un intento de incluir los movimientos
celestes y los terrestres en un único sistema mecánico. En este terreno fue
seguido por Alberto de Sajonia, Marsilio de Inghen y Nicolás Oresme. Oresme
defendió que en la región terrestre había solamente movimientos acelerados y
retardados. Adaptó la teoría del impetus a esta hipótesis y parece que no lo
consideraba como una res naturae permanentes, sino como algo que duraba
solamente algún tiempo.
Respecto
de la dinámica terrestre, Buridán explicó el rebote de una pelota por analogía
con la reflexión de la luz, diciendo que el impetus inicial comprimía la pelota
con violencia cuando ella golpeaba el suelo; y cuando rebotaba, esto le daba un
nuevo impetus, que hacía que la pelota saliera hacia arriba. Dio una
explicación similar de la vibración de la cuerda y de la oscilación de una
campana balanceándose.
Buridán,
en sus Quaestiones de Caelo et Mundo, mencionaba que muchos defendían que el
movimiento diario de rotación de la Tierra era probable, aunque añadía que
ellos proponían esta posibilidad como un ejercicio escolástico. Se dio cuenta
de que la observación inmediata de los cuerpos no podía ayudar a decidir si
eran los cielos si se movían o lo era la Tierra basándose en observaciones.
Esto tiene que ver con la relatividad del movimiento. Una flecha disparada
verticalmente caía en el lugar desde el que había disparada. Si la Tierra
girara, decía, eso sería imposible; y respecto a la sugerencia de que el aire
que giraba arrastrara a la flecha decía que el impetus de la flecha resistiría
la tracción lateral del aire.
El
estudio de la rotación diaria de la Tierra realizado por Oresme fue más
elaborado. El análisis de Oresme de todo el problema fue el más detallado y
agudo realizado en el período que va de los astrónomos griegos a Copérnico.
Al
defender el sistema geoestático, una cuestión importante estudiada por Oresme
fue la del movimiento constante de las esferas. Puesto que su versión de la
teoría del impetus no podía explicar el movimiento constante, retornó a una
teoría vaga del equilibrio entre las cualidades y fuerzas motrices que Dios
comunicó a las esferas en la creación para corresponder a la gravedad
(pesanteur) de los cuerpos terrestres y la resistencia proporcionada que se
oponía a estas fuerzas (vertus). De hecho, decía que en la creación estas
fuerzas y resistencias habían sido conferidas por Dios a las inteligencias que
movían los cuerpos celestes; las Inteligencias se movían con los cuerpos a los
que movían y estaban relacionadas con ellos de la misma forma que el alma lo
estaba con el cuerpo.
Oresme
afirmaba que las direcciones del espacio, el movimiento y la gravedad natural y
la levitación debían, en la medida en que eran observables, ser consideradas
todas ellas relativas.
Oresme
estaba de acuerdo con los que argüían que Dios por su potencia infinita podía
crear un espacio infinito y tantos mundos como quisiera.
Oresme
afirmó que sólo se podía decir que arriba y abajo eran absoluta y realmente
distintos, pero únicamente respecto de un universo determinado. Podíamos, por
ejemplo, distinguir arriba y debajo de acuerdo con el movimiento de los cuerpos
ligeros y pesados. Oresme combinando esta teoría pitagórica o platónica de la
gravedad con la concepción del espacio infinito, podía así prescindir de un
centro del universo fijo al que estuvieran referidos todos los movimientos
naturales de la gravitación. La gravedad era sencillamente la propiedad de los
cuerpos más pesados de dirigirse al centro de las masas esféricas de materia.
La gravedad producía movimientos únicamente en relación a un universo
determinado; no había una dirección absoluta de la gravedad que se aplicara a
todo espacio.
No
había fundamento, por tanto, para argüir que, suponiendo que los cielos girasen
ver, la Tierra debía estar necesariamente fija en el centro. Oresme demostró,
basándose en la analogía de una rueda que gira, que era solamente necesario en
el movimiento circular el que un punto matemático imaginario estuviera en
reposo en el centro, como era supuesto, en efecto, en la teoría de los epiciclos.
Además, decía que no era parte de la definición del movimiento local el que
estuviera referido a algún punto fijo o a algún cuerpo fijo.
Oresme
decía que le parecía que era posible defender la opinión, siempre sujeta a
corrección, de que la tierra se mueve con movimiento diario y los cielos no. Y
se dedicó a refutar las objeciones en contra: las objeciones que Oresme citó en
contra del movimiento de la Tierra habían sido todas ellas tomadas de Ptolomeo
e iban a ser utilizadas contra Copérnico; las hizo frente con argumentos que a
su vez iban a ser utilizados por Copérnico y por Bruno.
La
primera objeción a partir de la experiencia era que se observaba efectivamente
que los cielos giraban alrededor de su eje polar. Oresme replicaba a esto
citando el cuarto libro de la perspectiva de Witelo, que el único movimiento
observable era el movimiento relativo.
La
segunda objeción a partir de la experiencia era que si la Tierra giraba por el
aire de Oeste a Este habría un soplo de viento fuerte continuado de Este a
Oeste. Oresme replicó a esto que el aire y el agua participaban de la rotación
de la Tierra, de forma que no habría tal viento. La tercera objeción era la que
concibió Buridán: que si la Tierra giraba, una flecha o una piedra disparadas
verticalmente hacia arriba deberían quedar atrás hacia el Oeste cuando cayeran,
mientras que de hecho caían en el lugar de donde habían sido lanzadas. La
respuesta de Oresme a esta objeción era muy significativa. Decía que la flecha
se mueve muy rápidamente hacia el Este con el aire que atraviese y con la masa
entera de la parte inferior del universo indicada antes que se mueve con
movimiento diario y de este modo la flecha vuelve al lugar en la Tierra desde
donde fue lanzada. De hecho, la flecha tendría dos movimientos y no uno sólo,
un movimiento vertical a partir del arco, y un movimiento circular por estar en
el globo en rotación.
Así,
de la misma forma que a una persona que esté en un barco en movimiento
cualquier movimiento rectilíneo respecto del barco le parece rectilíneo, a una
persona en la Tierra la flecha le parecerá que cae verticalmente al punto de
donde fue lanzada. El movimiento le parecería el mismo a un observador sobre la
Tierra tanto si este girara como si estuviera en reposo. Esta concepción de la
composición de movimientos se iba a convertir en una de las más fecundas en la
dinámica de Galileo.
Las
objeciones de razón contra el movimiento de la Tierra provenían principalmente
del principio de Aristóteles de que un cuerpo elemental podía tener únicamente
un solo movimiento que, para la Tierra, era rectilíneo y hacia abajo. Oresme
afirmó que todos los elementos, excepto los cielos, podían tener dos
movimientos naturales, siendo uno la rotación en círculo cuando estaban en su
lugar natural, y el otro el movimiento rectilíneo por el que volvían a su lugar
natural cuando habían sido desplazados de él. La vertu que movía a la Tierra en
forma de rotación era su naturaleza o forma, igual que la que la movía rectilíneamente
hacia su lugar natural. A la objeción de que la rotación de la Tierra destruiría
la astronomía, Oresme replicaba que todos los cálculos y tablas serían los
mismos de antes.
Los
principales argumentos positivos que Oresme adujo en favor de la rotación de la
Tierra se centraban todos ellos en que era más sencilla y perfecta la rotación
que la otra alternativa, anticipándose una vez más notablemente a los
argumentos de inspiración platónica de Copérnico y Galileo. Si la Tierra tenía
un movimiento de rotación todos los movimientos celestes aparentes tendrían
lugar en el mismo sentido, de Este a Oeste; la parte habitable del globo estaría
en su lado derecho o noble; los cielos gozarían del estado más noble de reposo
y la base de la Tierra se movería; los cuerpos celestes más alejados harían sus
revoluciones proporcionalmente más despacio que los más cercanos al Este, en vez
de más rápidamente, como ocurriría en el sistema geocéntrico. Entre las
ventajas de la sencillez se contaba la de que la novena esfera ya no era
necesaria. Sin embargo, Oresme creía en el geocentrismo. Oresme comprendió bien
que ninguno de sus argumentos probaba positivamente el movimiento de la Tierra.
jueves, 11 de enero de 2018
Franco. El hombre superior providencial
Verdades obvias que todos debieran suscribir por higiene intelectual, moral y política. Franco fue el hombre superior providencial que libró a España del comunismo, de la miseria y del hambre. Uno de los hombres más inteligentes del siglo XX. Nada que reprocharle a un hombre que inauguró una edad de oro para España en el siglo XX. Sólo los resentidos, mediocres y enanos lo aborrecen y quieren ejercitar una damnatio memoriae de su figura gigante en contraposición a los enanos demócratas y progresistas. La falta de lecturas hace que la izquierda sea ágrafa.
PÍO MOA RESPONDE A GARCÍA
CÁRCEL
‘Franco ganó la guerra sin
perder ninguna batalla importante’
La Gaceta
España / 05 enero, 2018
El historiador Ricardo García Cárcel escribía
hace algunos días en El Español un texto hipercrítico con el régimen franquista
donde arremetía duramente contra el general. Moa responde, uno por uno, a lo
que considera “mitos” de García Cárcel.
Ricardo
García Cárcel se ha creído en la obligación de clarificar lo que llama “el mito
de Franco”, que según él gira “En torno a cuatro ejes: que Franco ganó la
Guerra Civil con habilidades estratégicas dignas de Napoleón; que salvó a
España de la destrucción al resistirse a entrar en la órbita de Hitler; que
pilotó la salida de España del hundimiento económico y que fue el que urdió el
proceso de la transición a la democracia. Vida privada y vida pública
impecables conjugadas. Tenacidad, serenidad, sobriedad, desconfianza gallega y
laboriosidad serían sus principales cualidades. Los defectos o más bien excesos
se le atribuirían a su mujer. La nómina de elogios ha sido abrumadora y entre
sus virtudes añadidas se han destacado su condición de gran cazador y pescador,
experto en poderes sobrenaturales y hasta dominador extraordinario de las
constantes fisiológicas. Hoy el relato épico y heroico de Franco está agotado
pese a los intentos de Pío Moa. Los historiadores, ya desde la derecha (Payne),
ya desde la izquierda (Preston), están todos de acuerdo en asumir la extrema
mediocridad del personaje, su falta de ideas, su ambición de poder, su
capacidad de supervivencia, su cercanía a dictadores latinoamericanos más que
al propio fascismo europeo, su inserción en una historia larga de
reaccionarismo ideológico español y de guerracivilismo”.
Esta
sarta de… lo que sea, ha sido publicada en El Español bajo el rótulo de
pensamiento, y ciertamente da una idea de lo que es el pensamiento
antifranquista. Por partes: Franco ganó la guerra sin perder ninguna batalla
importante. Napoleón perdió la guerra y además varias batallas cruciales. No
hay, por tanto, comparación, salvando las escalas. Además, Franco partió de una
posición prácticamente desesperada que habría hecho abandonar la partida por
anticipado a casi cualquier otro general o político. Y la terminó
elegantemente, sin disparar un tiro, después de haber adquirido poco a poco una
superioridad aplastante, mientras sus enemigos se masacraban y fusilaban entre
ellos mismos. ¿Ignora estos datos elementalísimos el señor García Cárcel? Pues, la verdad, no
me extrañaría, dado el penoso estado de la universidad. La guerra, además, no
se hizo porque sí, no la hicieron cuatro locos como pretende Pedro J, otro
pensador antifranquista. Se hizo para salvaguardar la unidad nacional, la
cultura cristiana, la propiedad privada y la libertad personal, aunque para
todo ello fuera necesario restringir las
libertades políticas. Y la iniciaron las izquierdas, no los “reaccionarios”
como sugiere García Cárcel.
Luego,
España no entró en la guerra mundial, con Franco ostentando la máxima
autoridad; pero al pensamiento antifranquista le parece que no hay ninguna
relación entre una cosa y la otra: la neutralidad, afirman, no se debió a
Franco. Aquí, el retorcimiento
argumental escala cimas muy altas. Sin Franco, les guste o no, habría sido
imposible evitar para España una guerra mucho más devastadora que la civil. Y
ello se logró en medio de tremendas presiones y peligros, en situaciones rápidamente
cambiantes en Europa. Fue una hazaña muy poco inferior a la de haber vencido a
un Frente Popular compuesto de totalitarios, separatistas y golpistas e indirectamente a su tutor Stalin. ¿O le parece al señor García Cárcel que se
trata de una fruslería que habría realizado cualquiera? En el fondo, los pensadores antifranquistas
desearían que España hubiera sido arrastrada al conflicto para poder ser
“liberada” después por los bombardeos y tanques useños; y volver al caos de la república o de una monarquía como la que engendró aquel
caos. Les da igual el torrente de sangre que habría costado tal “liberación”,
no solo a España, sino a los demás países, incluidos los finalmente vencedores.
¿O no entran estas consideraciones en los análisis de García Cárcel?
Por
otra parte, nadie, que yo sepa, sostiene que Franco urdiera o pilotara la
transición a la democracia, como afirma nuestro pensador. Sí, en cambio, son
ciertas dos cosas: que sin la transformación social y económica del franquismo,
la democracia habría sido inviable; y que, efectivamente, la transición se hizo
de la ley a la ley, es decir, a partir del franquismo, de su legitimidad; y no
a partir del criminal Frente Popular, como propugnaban y propugnan los
descerebrados antifranquistas. Estas no son opiniones sino hechos históricos
que no podrá borrar la retórica hueca al uso, que está pudriendo la democracia
hasta hacerla irreconocible.
Prieto
sobre Franco: “alcanza el grado supremo del valor: es sereno en la lucha” En
cuanto al carácter personal de Franco, es indudable su sobriedad, que no deja
de ser una acusación a los políticos corruptos hoy tan frecuentes; o su valor,
reconocido por sus enemigos (“alcanza el
grado supremo del valor: es sereno en la lucha”, admitía el socialista Prieto).
Y su inteligencia militar y política está fuera de duda, salvo para ciertos
descerebrados: durante cuarenta años venció sistemáticamente a todos sus
enemigos, militares o políticos, internos o externos… ¡el condenado mediocre! Pero
García Cárcel, siguiendo una línea permanente en el antifranquismo,
caricaturiza opiniones contrarias para permitirse el gusto pueril de reírse de
ellas.
Por lo demás, otros méritos
contribuyen al “mito” de Franco: venció también al maquis, una difícil guerra
de guerrillas comunista como la que en Grecia obligó a Inglaterra a tirar la
toalla. Venció asimismo al aislamiento internacional, que perseguía el bonito
objetivo de sembrar hambre masiva en España, a ver si los españoles se decidían
a derrocar a Franco. Un aislamiento decidido por regímenes comunistas,
demócratas y dictaduras variopintas, todos juntos y en unión: no alcanzaron su
objetivo y tuvieron que tragar, resignarse al régimen español, aunque no
dejaran de hostigarlo. Un régimen históricamente necesario y que no habría
podido resistir a tales presiones y hostilidad sin un enorme apoyo de la gente.
Pues el pueblo recordaba muy bien lo que habían sido la república y el Frente
Popular, no como ahora, cuando sus panegiristas los pintan contra toda
evidencia como un ridículo paraíso de libertad y progreso. Y al morir Franco,
España era uno de los países más ricos y con mayor esperanza de vida del mundo,
había salido de la miseria y degradación de la república y el Frente Popular, y
olvidado los odios que ahora vuelven a resurgir por obra de los geniales
antifranquistas.
En
fin, traten ustedes de pensar en otro general o político del siglo XX,
demócrata o no demócrata, español o extranjero, con un historial de logros
comparable al de Franco. Hagan este pequeño ejercicio intelectual, que propongo
en el libro Los mitos del franquismo.
Pero, concluye García Cárcel
repitiendo la letanía de rigor: Franco era un mediocre lamentable, sin ideas y
con no sé cuántas deficiencias más. Vamos a ver hombre, mírense ustedes al
espejo y verán un perfecto reflejo de ese Franco que ustedes se empeñan en
imaginar.
Mientras no salgamos de esta
miseria intelectual y moral, la sociedad continuará descomponiéndose. Y en esto
no hay que transigir. Porque existen también tendencias que intentan pasar por
imparciales y objetivas a base de dar una de cal y otra de arena: “Hay quien
dice que dos y dos son cuatro, otros afirman que son seis. Pongámonos en el
justo medio: son cinco”.
sábado, 6 de enero de 2018
La antropofagia precolombina
Es un hecho evidente el de la antropofagia de los aborígenes o indígenas americanos precolombinos. Se comían los unos a los otros. Hernán Cortés nos refiere y también Bernal Díaz del Castillo, tres cosas aberrantes: la sodomía, la antropofagia y por lo tanto, los sacrificios humanos y la idolatría. Cortés siempre intentó acabar con tales prácticas y a fé mía que sí lo consiguió. Siempre decía que venía a poner orden y paz allá por donde pisaba y exigía la cesación de tales prácticas. La sodomía prosigue existiendo a día de hoy, pero la idolatría y la antropofagia fueron erradicadas. Los progresistas e indigenistas mexicanos, hombres blancos, con apellidos españoles, nombres anglosajones, criollos y residentes en México no tienen ni puta idea de historia y repiten la Leyenda Negra Antiespañola en América. En 1800 se vivía mejor en México que en Europa Occidental y en 1900 ya mucho peor. Fue la secesión la que destruyó todo y no supo poner un orden social, político y jurídico mejor. Pero es que en su ignorancia culpable tales criollos afirman que serían los españoles quienes en 1800 vivirían mejor. Idiotas. Españoles eran los de la Nueva España y los de España, la Península. Había menor presión fiscal en América que en la Península. Ejemplo de un Imperio generador que no solo reproduce las condiciones materiales y políticas de la Metrópoli, sino que además eleva las condiciones materiales de las provincias por encima de las que disfruta la Metrópoli. No existe ningún otro imperio en la Historia en el que se haya dado tal situación. La suerte de los indígenas empeoró con la secesión. Basta ya de imposturas y falsedades sobre España propaladas por los criollos para justificar su incompetencia y su fracaso político. El imperio mexicano consistía en saquear a los demás grupos o tribus indígenas, incluidas las proteínas animales humanas extraídas de los indígenas que eran sacrificados y devorados por los mexicanos antiguos. Imperio depredador, salvaje y carente de escritura. En fin. Hernán Cortés trajo la civilización a México y lo elevó a la altura de Europa Occidental para bien de los mexicanos y para gloria de España.
viernes, 5 de enero de 2018
La lucha contra el hombre inferior dialectal
El hombre dialectal es aquel hombre que tiene su cabeza, su entendimiento, su conciencia invadidos por el dialecto. El dialecto es una lengua ridícula sin importancia política, intelectual, científica, filosófica, literaria, minoritaria, familiar, comarcal, regional. Sin embargo, en España las élites caciquiles regionales fomentan el dialecto para consolidar su poder político y la división política, bases de la duración y consolidación de su poder político y de paso hacer a sus hablantes unas bestias de carga. El español siempre ha sido emancipador y liberador porque es una lengua universal, mundial. El dialecto empequeñece y embrutece, aísla, divide y separa y provoca disensiones. Imponer el dialecto siembra discordias en España y hace todo más ridículo e idiota. Por esta razón se impone necesariamente para el buen sentido la lucha contra el hombre inferior dialectal. Un hombre dialectal es un ser profundamente defectuoso. Pudiendo hablar español para hacerse entender por todos prefiere usar el dialecto para hacerse entender por pocos. La lucha contra el Estado de las autonomías exige igualmente la lucha contra el dialecto, contra su imposición obligatoria, contra su uso oficial, contra aquellos que promueven la división y en última instancia la desmembración de España. Ni imposición, ni oficialidad ni inmersión lingüística, digo dialectal, en la escuela.
lunes, 1 de enero de 2018
Facebook, el edén de los derechos naturales del hombre
La arbitrariedad de los dueños de Facebook no conoce límites ni fronteras. Prohíben desnudos o lo que les parece que no es apropiado. Sus normas comunitarias son objeto de interpretación parcial e interesada. Bastan denuncias de un puñado de bastardos para que te suspendan la potestad de escribir y de comunicarte, tanto en Facebook como en el mensajero. No puedes enviar mensajes y nunca te hacen caso de tus alegaciones. Cosas tan ridículas como acusarte de ser malo por afirmar una verdad palmaria para todo el mundo, como por ejemplo, que los mexicanos -así los llama Bernal Díaz del Castillo, no aztecas- eran antropófagos y se alimentaban de las tribus indias vecinas, eso provoca denuncias de los progres indigenistas mexicanos actuales que desean retornar a la época precolombina hablando español y teniendo apellidos españoles, y entonces Facebook ejecutando su ortograma imperialista progresista negrolegendario antiespañol pues nada, te prohíbe arbitrariamente escribir durante un tiempo. Las alegaciones bien fundadas no te sirven de nada ante estos atropellos. Facebook es pues el edén de los derechos naturales del hombre.
Determinismo e indeterminismo en la naturaleza
Determinismo
e indeterminismo en la naturaleza.
Los
términos determinismo e indeterminismo aparecieron en el siglo
XVIII con motivo de las discusiones en torno al principio de razón suficiente
enunciado por Leibniz. La cuestión que surgía inevitablemente ahí era si ello
negaba la libertad. El problema sin embargo, tiene un origen muy antiguo. Ya
Aristóteles se preguntaba –supuesto que todas las proposiciones sean
necesariamente o verdaderas o falsas- si todos los acontecimientos están
predeterminados en el sentido más estricto, y son, por tanto, absolutamente
necesarios. En la Baja Edad Media se discutió esta problemática bajo el título De veritatibus futurorum contingentium:
si algún suceso futuro se produce de un modo no necesario, ¿cómo es posible que
una proposición que se refiere a este suceso sea necesariamente verdadera o
falsa? Con Leibniz se agudizó esta problemática al afirmar éste que toda
determinación de la voluntad tiene que estar inequívocamente determinada por
razones suficientes; una “indiferencia indeterminada” de la voluntad hace
imposible toda decisión. Leibniz rechazó la objeción, planteada por Clarke, de
que esta teoría conduce al fatalismo; indicó, por ejemplo, que las decisiones
de Dios están movidas por su sabiduría. Desde entonces se ha entendido con
frecuencia el determinismo como sinónimo de fatalismo. Kant distingue algunas
veces el determinismo como la teoría de que la voluntad siempre está
determinada por razones suficientes, del predeterminismo, en el que las
acciones arbitrarias, es decir, voluntarias, como sucesos tienen sus causas
determinantes en un tiempo precedente (que con todo lo que contiene no está en
nuestro poder), y opina que sólo el predeterminismo plantea un problema en
relación con la libertad de elección.
En
1865 el médico francés Claude Bernard introdujo la expresión determinismo para definir el hecho de
que las condiciones de existencia de todos los fenómenos están determinadas de
un modo absoluto., en el sentido de que ningún científico que haga experimentos
puede añadir una variación a un determinado fenómeno, que se presupone dado,
sin que se hayan añadido…al mismo tiempo nuevas condiciones. El determinismo ha
estado ligado a la física mecanicista hasta 1900, cuando la física mecanicista
entró en crisis.
Implicaciones
filosóficas del determinismo-indeterminismo de la Física.
Actualmente,
la expresión determinismo tiene varios sentidos estrechamente ligados entre sí.
En la física contemporánea se entiende generalmente por determinismo lo que
entendía por determinismo Laplace, la afirmación de que todos los procesos
físicos pueden ser predichos o precalculados en cualquier momento en virtud de
las leyes de la mecánica clásica, si se indican tan sólo exactamente las
coordenadas de lugar y de impulso del sistema en el momento elegido. Este
determinismo se puso en duda con el principio de indeterminación (1930) de
Heisenberg: en la microfísica no se puede determinar con toda exactitud el
lugar q y el impulso p de una partícula. Similarmente ocurre en la energía y
para el momento para el que vale la medición de la energía. Queda claro así que
es imposible un cálculo previo exacto del movimiento de una partícula concreta.
Al
interpretar la mecánica clásica toda causalidad de un modo funcional, es decir, identificándola con su predictibilidad, con
frecuencia se entendieron estos resultados de tal modo, que se creyó que
existía una indeterminación causal en los fenómenos microfísicos, y que eran,
por lo tanto, un caso de acausalismo. Hallamos aquí un segundo
significado de la expresión determinismo, que muchos físicos que filosofan no
distinguen, por desgracia, de un modo suficientemente claro del primero.
Mientras que el determinismo en el primer sentido significa la aceptación de
una predictibilidad continua y totalmente exacta, el determinismo en este
segundo sentido indica la aceptación de un grado de determinación continua en
el sentido del principio de razón suficiente de Leibniz. La relación de
indeterminación de Heisenberg pone en duda exclusivamente la posibilidad de
medir el estado inicial de un proceso físico, y por eso también su previa
calculabilidad; el otro problema de principio –si todos los procesos físicos
están determinados causalmente de un modo continuo- no lo menciona la física
moderna, o lo menciona sólo en caso de que se confunda, injustificadamente, el
grado de determinación causal con la predictibilidad continua aceptada por la
mecánica clásica.
Determinismo/indeterminismo en la
ciencia natural.
1. Concepto.
En
la moderna ciencia natural se entiende por determinismo la afirmación de que
todos los sucesos están determinados inequívocamente de un modo causal, es
decir, que el fin (calificativo del modo que sea) de un acontecimiento está ya
fijado desde su comienzo.
Esta
definición tiene que ser delimitada en algunos aspectos. Con frecuencia se
expresa con la palabra determinismo que en el campo de los sucesos naturales no
reina ningún tipo de libertad; y, por lo general (de modo erróneo) se define
incluso la libertad en este sentido: afirmando que un proceso que discurre
libremente no está determinado. Por el momento, se puede proponer una significativa
delimitación entre libertad y grado de determinación, considerando la libertad
como un concepto de la autocomprensión del hombre que se aplica por analogía a
los sucesos extrahumanos. Pero, si se pretende entender a partir de aquí el
grado de determinación, habría que decir que un proceso está determinado cuando
se niega o se anula con él la libertad subjetivamente vivida del poder de
decisión.
2. Nivel de determinación en
las ciencias naturales exactas.
En las llamadas ciencias
exactas de la naturaleza, el concepto de determinación es, sobre todo,
aplicable, y ha sido aceptado sin contradicción, conde se pueda predecir con
seguridad el futuro de un sistema cerrado a partir del conocimiento de su
estado actual. Pero esto sólo es posible cuando el estado que hay que predecir
puede ser producido con efectos enérgicos que sean notablemente mayores que un
quantum de energía. Puesto que teoréticamente no hay que olvidar nunca el
tamaño de un quantum, es imposible, en un sentido estricto, hacer una predicción
completamente exacta de los estados físicos. El teorema de la indeterminación
de Heisenberg, sin embargo, sólo afirma que no se puede responder con sentido
el problema de la determinación de la naturaleza, y de aquí que una definición
operativa conduzca al concepto de indeterminabilidad (no indeterminación) de
los sucesos elementales de la naturaleza. Sólo hay indeterminabilidad, no
indeterminación, en la física cuántica.
En su forma apodíctica es,
pues, insostenible la equiparación de determinación y predictibilidad que
caracterizó el materialismo clásico del siglo XIX. Siguen siendo predecibles
los sucesos de la naturaleza sólo donde intervengan muchos quanta de energía y
donde sea experimentable con suficiente exactitud su estado inicial. En esta
predictibilidad se basan todas las ciencias aplicadas en la naturaleza y, sobre
todo, la técnica. Pero donde no sea experimentable con suficiente exactitud el
estado inicial en virtud del principio de indeterminación de Heisenberg, no hay
posibilidad alguna de predicción. Permanece, sin embargo, abierto el problema
(que se podría aún formular con sentido, aunque no es posible responderlo) de
si este salto de un quantum está de hecho, predeterminado, y, por tanto,
determinado. Es el problema de la determinación de los quanta.
Este
problema es insoluble desde el punto de vista de la ciencia natural. La ciencia
natural de orientación positivista se inclina a definir las preguntas
insolubles como preguntas sin sentido. Una discusión filosófica podría ir más
lejos, argumentando, p. ej., que la predictibilidad en lo general demuestra la
determinación en el campo de los quanta, aunque también este argumento parece
carecer igualmente de demostrabilidad.
Es
dudoso que el indeterminismo radical, o sea, la negación de toda regularidad,
haya sido sostenido coherentemente. A veces se ha afirmado que la mecánica
cuántica confirma el indeterminismo radical. Este es un error, porque toda
teoría científica está centrada en torno a un conjunto de enunciados de leyes,
y la mecánica cuántica no es una excepción. (En particular la ecuación de
Schrödinger puede considerarse como la ley central de la mecánica cuántica. Sin
ella los físicos estarían perdidos).
La
investigación científica –que esencialmente es la búsqueda de regularidades objetivas-
no avala el indeterminismo radical, porque no reconoce que haya caos. La
ciencia avala la regularidad y la causalidad.
3. Incertidumbre,
indeterminación y complementariedad.
En
el panorama que presentan Einstein y Minkowsky de una multiplicidad espacio-temporal
integrada se afirma la objetividad de todos los marcos locales de referencia, y
al mismo tiempo se elimina todo relativismo del mundo físico, porque todas las
leyes físicas que valgan en un marco de referencia, valdrán, una vez realizada
la debida transformación, para otro cualquiera. De este modo se conserva de una
forma sumamente peculiar la invariancia universal que postulaba la física
newtoniana sobre la base de un espacio y tiempo absolutos; a saber, se conserva
abandonando este marco absoluto “privilegiado”.
Uno
de las más interesantes consecuencias generales de la moderna física atómica,
la constituyen las transformaciones que bajo su influjo ha sufrido el concepto
de las leyes de la naturaleza. En los últimos años, se ha hablado a menudo de
que la moderna física atómica parece abolir la ley de la causalidad, o por lo
menos dejar parcialmente en suspenso su validez, de modo que no cabe seguir
admitiendo que los procesos naturales estén determinados por leyes. Tales
formulaciones son siempre imprecisas, en tanto no se expliquen con suficiente
claridad los conceptos de causalidad y de regularidad.
Uno
de los problemas es el planteado por las limitaciones de la mensurabilidad. Por
debajo de una unidad mínima de medida, las unidades de medida, sus diferencias,
quedan indeterminadas. Leibniz definió la identidad como la relación que existe
entre las cosas “indiscerniblemente diferentes”, esto es, cuando no hay
suficiente razón para distinguir diferencias entre una cosa y la otra en
ninguna forma (incluyendo también, por lo tanto, las diferencias de magnitud).
Con
la introducción de la teoría de los cuantos por Planck, Bohr, Heisenberg y
otros físicos, esta formulación se convirtió en algo más que una limitación
práctica de la medida; se vió entonces que tenía una interpretación teorética
apoyada en la noción de unidad mínima de energía. Esta última se basaba, a su
vez, en la hipótesis de Planck de que las ondas electromagnéticas emitidas por
cargas oscilantes sólo pueden tener valores discretos; así pues, los
osciladores tienen unos niveles de energía que no suceden unos a otros en forma
continua, sino tales que entre ellos hay saltos cuánticos. Einstein llevó este
concepto más allá al investigar y explicar el llamado efecto fotoeléctrico, y
propuso que después de la emisión de un cuanto de energía perdido por un emisor
de radiaciones, este cuanto permanece intacto, sin dispersarse por el frente de
la onda en expansión; más bien ocurriría que, a medida que el frente de la onda
se expande, la distancia entre paquetes de energía aumenta, con lo cual la
energía por unidad de área del frente de la onda decrece. Si consideramos la
radiación electromagnética como una onda, se nos hará problemático concebir
cómo es posible que los paquetes intactos de energía constituyan una onda;
ahora bien, tras la larga historia de los modelos conceptuales de la luz, para
unos de los cuales era ondulatoria y para otros corpuscular (formada por
partículas), se proponía así la idea de que estaba formada por corpúsculos
(luego denominados fotones), con lo que se revivía la ya zanjada disputa entre
los seguidores de Newton y los de Huygens, en la que el modelo ondulatorio de
Huygens había acabado por vencer. Pero un corpúsculo es un “cuerpo”, según
parece, y, por tanto, una partícula materia en el espacio; en cambio, los
fotones no se pueden considerar como partículas materiales con energía
cinética, porque cuando se los detiene se destruyen o absorben; y también el
fenómeno de las figuras de interferencias producidas por la luz al pasar por
dos hendiduras puede explicarse si la luz es ondulatoria, pero no si es
corpuscular (como habían mostrado los experimentos de Thomas Young a comienzos
del siglo XIX).
Hasta
ese momento, el problema se planteaba en lo referente a la luz no como una
forma de la materia, sino como una radiación; luego se amplió hasta incluir a
los rayos X, y más radicalmente en 1923, De Broglie sugirió que la dualidad de
onda y corpúsculo podía extenderse al comportamiento de los electrones. A
partir de entonces quedó en cuestión la fatalidad del concepto de materia, ya
que la partícula atómica clásica, como cuerpo que se mueve en el espacio con
una posición puntual en cada instante dado, también se comporta a veces en
forma tal que la única explicación que parece posible es la de que es una onda.
Si las ondas de luz son corpusculares, y las partículas de materia son
ondulatorias, todo el panorama de la estructura de la naturaleza se torna a un
mismo tiempo más coherente y menos sencillo: en lugar de una variedad de tipos
de cosas, -luz, electricidad, materia, etc,- , se ha descubierto una manera de
interpretar estos distintos fenómenos apoyándonos en un modelo común; pero este
modelo es tal que los elementos comunes tienen propiedades incompatibles; en
efecto, si tanto la materia como la radiación pueden ser ondulatorias y
corpusculares, parece haberse en la naturaleza una dualidad fundamental.
El
problema se agudiza cuando se ve que las condiciones relativas a la medida de
partículas del tamaño de los electrones quedan radicalmente afectadas por estas
consideraciones. A fin de determinar la posición y la cantidad de movimiento o
momento de una partícula concebida al modo clásico, habrá que medir u observar
de alguna forma; y esto supone interactuar; en algún punto, pues, el aparato
del observador tendrá que coincidir con la partícula por medio de una
interacción física; pero respecto a la partícula, para perturbarla, esto es,
para modificar su cantidad de movimiento, acelerándola, entonces el valor que
tenía a la vez su posición en aquel instante dado se hace indeterminado.
La
teoría de los cuantos introdujo cambios fundamentales en el panorama físico del
mundo. En primer lugar, con la dualidad partícula-onda, al mostrar que no sólo
tenía validez para la radiación, sino también para la materia: aquel claro e
inequívoco modelo de la estructura del mundo físico pareció desmoronarse ante
esa dualidad. En segundo lugar, tampoco pareció ya posible, dada la relación de
indeterminación, determinar las condiciones precisas de contorno relativas a la
posición y la cantidad de movimiento de las partículas físicas que constituían
la base de la representación física clásica de unos puntos básicamente unívoca
y determinadamente asociados a unos valores temporales instantáneos. Esto
motivó y continúa motivando una reevaluación crítica de los fundamentos
conceptuales de la ciencia física, especialmente en lo que se refiere a las
distintas interpretaciones de la teoría de los cuantos.
Porque,
¿es la indeterminación una condición de la medida que delata tan sólo nuestra
incapacidad para ir más allá de cierta precisión?; ¿podemos suponer que, sea o
no posible descubrirlo, las partículas siguen estando en un lugar en un tiempo
dado?; ¿qué es lo que está en juego: es sólo la incertidumbre de nuestro
conocimiento, o es la indeterminabilidad física de la posición “real” o de la
cantidad de movimiento real”? Son muchas las dificultades que se nos presentan.
En primer lugar, tal pregunta pude dejar de tener sentido, ya que adopta como
modelo del mundo físico la partícula clásica situada en un punto del universo
del también clásico y la introduce en un sistema formal (la física cuántica) en
el que no existe una descripción para esa partícula: la teoría de los cuantos
es una teoría estadística. Sus entidades no son partículas, sino distribuciones
estadísticas de enjambres de éstas. En
esta teoría no podemos hablar ya de la indeterminabilidad de la partícula
clásica.
Por
otra parte, la incompatibilidad de las imágenes ondulatoria y corpuscular de la
estructura del mundo físico puede significar que lo que estamos tratando con
los conceptos de onda y partícula son unos modelos parcialmente isomorfos de la
realidad física de la que son modelo; y los hechos experimentales con que ahora
contamos pueden ser tales que se hayan rebasado los límites de este tipo de
representación. Niels Bohr ha propuesto que conservemos tales imágenes para
caracterizar los elementos del mundo físico como algo que a veces actuaría como
ondas y a veces como partículas. Los dos modelos serían complementarios. Esto
significa que no hay que preocuparse de cuál sea realmente cierto en la
realidad. Podemos decier así que la onda y la partícula son construcciones
conceptuales que tienen ciertos límites.
De
acuerdo con este punto de vista, se ha interpretado la densidad como la
probabilidad de encontrar una partícula en una zona determinada. Pero si esta
probabilidad se aplica a una partícula aislada, parece implicar una de estas
dos cosas. Primero, que la partícula esté realmente en un lugar determinado en
un tiempo también determinado, y que las posibilidades estadísticas de
encontrarla en un punto dado, p, son proporcionales a la densidad de
probabilidad en dicho punto; pero esto, de hecho, lleva a unas consecuencias
muy análogas a la relación de indeterminación: se desmorona nuestro concepto
corriente de “estar en un lugar”.
El
efecto más traumático de la indeterminación cuántica estriba en que, en la
mayoría de las interpretaciones típicas, parece no tener encuenta el postulado
de causalidad. Es esta una cuestión engañosa y problemática. El determinismo
estricto clásico exige, al parecer, que los estados del universo en cualquier
momento dado estén determinados en forma unívoca; pero al decir estado nos
referimos siempre a un modelo particular de estado; y es obvio que, en el
modelo corpuscular clásico, si en el nivel cuántico no existieran estados
totalmente determinados según los valores simultáneos (realmente instantáneos)
de la ubicación espacio-temporal, el determinismo estricto se vendría abajo.
Ahora bien, parece ser que esto ocurriría porque la concepción clásica de
partícula no tiene equivalente en el marco de la teoría cuántica; lo que no
quiere decir que esta teoría postule algo que no puede descubrirse: es engañoso
hablar de indeterminación en cuanto se refiere a posición y cantidad de
movimiento dentro de la teoría cuántica, porque estar indeterminado es estarlo
con respecto a algo determinado, y este mismo estado de determinación no es formulable
dentro de la teoría si al referirnos a él queremos expresar las clásicas
posición y velocidad de un punto. Decir, como se hace que la naturaleza es
indeterminada es un error.
La
física cuántica es tan causal como la física clásica. Sus predicciones resultan
certeras. La teoría cuántica puede interpretarse como determinista o
indeterminista solamente con respecto a una tesis acerca de lo que el
determinismo y la relación causal debieran ser realmente.
El
determinismo y el indeterminismo en la física clásica y en la contemporánea.
La
física clásica de Newton era mecanicista y se hallaba estructurada de tal
manera que a partir del estado de un sistema en un instante determinado podía
preverse el futuro movimiento del sistema. Cuando al término de causalidad se
le da una interpretación tan estricta, acostumbra a hablarse de determinismo,
entendiendo por tal la doctrina de que existen leyes naturales fijas, que
determinan unívocamente el estado futuro de un sistema a partir del actual.
La
Física atómica ha desarrollado desde sus inicios concepciones que no se ajustan
propiamente a este esquema. Cierto que no lo excluyen en forma radical; pero el
modo de pensamiento de la teoría atómica hubo de distinguirse desde el primer
momento del que es propio del determinismo. En la antigua teoría atómica de
Demócrito y Leucipo, el azar no se opone a la necesidad, no hay finalidad
causal, ya se admite que los procesos de conjunto tienen lugar gracias a la
concurrencia de muchos procesos irregulares de detalles. La idea de la
colaboración estadística de muchos pequeños sucesos individuales sirve, ya para
la antigua teoría atómica, como fundamento de su explicación del universo.
Al
iniciarse la Edad Moderna, no tardó en aparecer el intento de explicar el
comportamiento de las materias mediante el comportamiento estadístico de sus
átomos, y no sólo cualitativa sino también cuantitativamente.
Este
empleo de las regularidades estadísticas recibió su forma definitiva en la
segunda mitad del siglo XIX, en la llamada “mecánica estadística”. Esta teoría,
que ya en sus principios fundamentales diverge considerablemente de la mecánica
clásica, estudia las consecuencias que pueden sacarse del conocimiento
imperfecto de un sistema mecánico complicado.
Max
Planck halló en sus investigaciones sobre la teoría de la radiación un elemento
de discontinuidad en los fenómenos de radiación. Demostró que un átomo radiante
no despide su energía continua sino discontinuamente, a golpes. Esta cesión
discontinua y a golpes de la energía, y con ella todas las concepciones de la
teoría atómica conducen a admitir la hipótesis de que la emisión de radiaciones
es un fenómeno estadístico. Pero no fue sino al cabo de un cuarto de siglo
cuando se manifestó que la teoría de los cuantos obliga a formular toda ley
precisamente como una ley estadística, y por ende a abandonar ya en principio
al determinismo. (Heisenberg). Al formular matemáticamente las leyes de la
teoría cuántica ha sido preciso abandonar el puro determinismo.
La
desviación respecto a la física precedente puede simbolizarse en las llamadas
relaciones de indeterminación. Se demostró que no es posible determinar a la
vez la posición y la velocidad de una partícula atómica con un grado de
precisión arbitrariamente fijado. Puede señalarse muy precisamente la posición,
pero entonces la influencia del instrumento de observación imposibilita hasta
cierto grado el conocimiento de la velocidad; e inversamente se desvanece el
conocimiento de la posición al medir precisamente la velocidad; en forma tal,
que la constante de Planck constituye un coto inferior del producto de ambas
impresiones. Esta formulación sirve para poner de manifiesto con toda claridad
que a partir de la mecánica newtoniana no se alcanza gran cosa, ya que para
calcular un proceso mecánico, justamente, hay que conocer a la vez con
precisión la posición y la velocidad en determinado instante; y esto es lo
imposible, según la teoría de los cuantos. Una segunda formulación ha sido
forjada por Niels Bohr, al introducir el concepto de complementariedad. Dicho
concepto significa que diferentes imágenes intuitivas destinadas a describir
los sistemas atómicos pueden ser todas perfectamente adecuadas a determinados
experimentos, a pesar de que se excluyan mutuamente. De modo que dichas
distintas imágenes son verdaderas en cuanto se las utiliza en el momento
apropiado, pero son incompatibles unas con otras; por lo cual se las llama
recíprocamente complementarias. La indeterminación intrínseca cada una de tales
imágenes, cuya expresión se halla precisamente en las relaciones de
indeterminación, basta para evitar que el conflicto de las distintas imágenes
implique contradicción lógica. Estas indicaciones permiten comprender que el
conocimiento incompleto de un sistema es parte esencial de toda formulación de
la teoría cuántica. Las leyes de la teoría de los cuantos han de tener un
carácter estadístico.
El
determinismo.
El
determinismo causal o causalismo o a menudo simplemente causalidad, es la
doctrina que afirma la validez universal del principio causal. Todo ocurre de
acuerdo con la ley causal.
En
ciencia, el uso más frecuente de la palabra “determinación” es el de conexión
constante y unívoca entre cosas o acontecimientos, o entre estados o cualidades
de las cosas, así como entre objetos ideales. El determinismo en sentido
general, admite la hipótesis de que los acontecimientos ocurren en una o más
formas definidas (determinadas), que tales formas de devenir no son arbitrarias
sino legales y que los procesos a través de los cuales todo objeto adquiere sus
características se desarrollan a partir de condiciones preexistentes.
Hasta
el azar, que a primera vista es la negación misma de la determinación, tiene
también sus leyes, y los accidentes emergen de condiciones preexistentes.
En los juegos de azar los resultados finales
proceden de condiciones definidas, según leyes también definidas; por
consiguiente, no pueden ser utilizados para ejemplificar ni para sostener el
indeterminismo, como tan a menudo se hace. Lo que sucede es que los juegos de
azar no siguen cierto tipo acostumbrado de ley, a saber, el newtoniano, sino
que obedecen a leyes estadísticas: son estadísticamente determinados.
Por
ello, aparece en primer plano la cuestión de si la teoría cuántica ha conducido
a la bancarrota del determinismo, como tan a menudo se sostiene.
La
respuesta a la pregunta de si la teoría cuántica acarrea la quiebra del
determinismo depende no sólo de la definición del determinismo sino también de
la interpretación de la teoría cuántica que se elija. Por cierto, que hay en la
actualidad todo un cúmulo de interpretaciones coherentes y empíricamente
equivalentes de la mecánica cuántica.
La
presentación habitual de la teoría de los quanta, tal como la han presentado
Bohr y Heisenberg, elimina la causalidad en lo que se refiere a los resultados
de la observación, en el sentido de que una misma situación física puede ser
sucedida en forma impredecible por un gran número (usualmente infinito) de
estados diferentes. Pero esta restricción de la causalidad no acarrea la
quiebra del determinismo, por cuanto en tal interpretación se retiene de modo
inequívoco la determinación estadística, para no hablar siquiera de las leyes
francamente no estadísticas de la mecánica cuántica, tales como las leyes de
conservación, las reglas de selección o el principio de exclusión.
Además,
hasta la interpretación ortodoxa de la mecánica cuántica restringe el alcance
de la causalidad sin rechazarla por entero. Así, cuando escribimos la
probabilidad de una transición de un sistema físico del estado 1 al estado 2
solemos atribuir esa transición a alguna
fuerza (causa) usualmente representada por un potencial de interacción. Sólo
que la causa y el efecto no están aquí ligados en la forma constante y unívoca
afirmada por el principio causal. En otras palabras, la interpretación usual de
la mecánica cuántica no barre con las causas y los efectos, sino con los nexos
causales rígidos entre unas y otros.
La
interpretación usual de la teoría cuántica no elimina, en realidad el
determinismo en sentido general; no sólo esto, sino que además retiene cierta
dosis de causalidad. Pero en cambio restringe drásticamente la forma newtoniana
del determinismo según la cual todos los procesos físicos se reducen a cambios
de lugar determinados por el estado de movimiento anterior y por fuerzas que
obran desde afuera, y los recorridos de las masas puntuales afectadas son
trayectorias definidas de modo preciso (plenamente determinadas) en el
espacio-tiempo. También puede decirse que el determinismo newtoniano es a la
vez superado y englobado por la mecánica cuántica en su interpretación
ortodoxa, dado que se mantiene válido en promedio.
Por
su parte, la filosofía positivista construida sobre la interpretación usual de
la teoría cuántica (y en parte entretejida con ésta)elimina el determinismo,
pero, al mismo tiempo, también el indeterminismo en el sentido ontológico, o
sea, en relación con el comportamiento de las cosas mismas tales como éstas
existen, ya sea que se las observe o no. Propugna entonces una suerte de
indeterminación empírica, que empero no excluye leyes estadísticas definidas.
En rigor, la interpretación empirista lógica de la mecánica cuántica declara
que la indeterminación cuántica se refiere de modo exclusivo a los resultados
de la observación y no a la materia misma, considerando que la materia es una
ficción metafísica carente de sentido.
Fácil
es descubrir la raíz de esta indeterminación empírica: se pretende que el
vínculo entre dos estados sucesivos de un sistema atómico es el observador,
quien actúa libremente con respecto al sistema. En otros términos, el
comportamiento del observador es encarado, en esta interpretación, como algo
independiente del objeto de observación, pero no a la recíproca: las
propiedades del sistema observado son las que el observador decide preparar o
reunir. No existiendo conexiones objetivas directas entre los estados
consecutivos de un sistema físico, no es sorprendente que se pierda toda forma
de determinismo científico en sentido ontológico, con la única excepción de la
determinación estadística. Esta clase de indeterminación es, evidentemente, una
consecuencia de la doctrina subjetivista sobre la intervención casi arbitraria
del observador, a quien se erige en mago evocador de los fenómenos de escala
atómica. La indeterminación cuántica es, pues, una consecuencia de la hipótesis
idealista inherente al positivismo moderno.
En
algunas interpretaciones recientes de la mecánica cuántica, ni siquiera se
renuncia al principio causal por entero. Así, en la presentación que Bohm
ofrece de la teoría cuántica, el determinismo newtoniano, con su ingrediente
causal, queda prácticamente restaurado con el expediente de asignar un
significado físico a la función de onda psi, que en la interpretación usual sólo
cumple una función matemática. Bohm deriva una ecuación de fuerza, según la
cual la aceleración de una partícula es el efecto de la acción conjunta de las
fuerzas externas y de una fuerza nueva, interna, dependiente del campo psi que
rodea a la partícula. Y no considera la distribución estadística de los
resultados de una medición como una última ratio ininteligible, sino que la
explica como resultado de una interacción definida entre el sistema físico en
cuestión y el dispositivo de medición (que es otro sistema físico más). En esta
forma, los saltos cuánticos dejan de ser Urphänomene elementales
(inanalizables); el azar al nivel cuántico deja de ser un factor definitivo, y
pasa a ser analizado en ulteriores categorías de determinación. Pero la
determinación estadística peculiar a la mecánica cuántica no se elimina así de
modo concluyente: lo que se demuestra es que se trata del resultado de procesos
que tienen lugar a un nivel inferior.
De
una manera u otra vemos que la mecánica cuántica no prescinde del determinismo
en general, sino que como mucho desecha el de tipo newtoniano. También
comprendemos que, ya se considere o no el azar como un elemento último radical
(como lo veían Peirce y Eddington), la determinación estadística tiene que ser
tomada en cuenta por toda la filosofía de la ciencia moderna: ya no es posible
afirmar dogmáticamente que el azar no es sino un nombre de la ignorancia
humana, ni expresar la esperanza de que finalmente se demuestre que puede
reducirse a causación. El azar es un tipo peculiar de determinación, y sus
relaciones con otras categorías de la determinación son dignas de indagarse.
El
espectro de las categorías de la determinación.
Autodeterminación
cuantitativa. Determinación del consecuente por el antecedente.
Determinación
causal o causación: determinación del efecto por la causa eficiente externa.
Causación
recíproca: Interdependencia funcional.
Determinación
mecánica: del consecuente por el antecedente, por lo general con la adición de
causas eficientes y acciones mutuas
Determinación
estadística del resultado final por la acción conjunta de entidades
independientes o semiindependientes.
Determinación
estructural o totalista: de las partes por el todo.
Determinación
teleológica de los medios por los fines u objetivos.
Determinación
dialéctica o autodeterminación cualitativa: de la totalidad del proceso por la
lucha interna y por la eventual síntesis subsiguiente de sus componentes
esenciales opuestos.
El
determinismo, principio de determinación.
El
determinismo general será, pues, la siguiente definición: determinismo, en
sentido amplio, es aquella teoría ontológica cuyos componentes necesarios y
suficientes son:
El
principio genético o principio de productividad, según el cual nada puede
surgir de la nada ni convertirse en nada; y el principio de legalidad, según el
cual nada sucede de forma incondicional ni completamente irregular, o sea, de
modo ilegal o arbitraria.
Ambos
principios pueden ser fundidos en uno solo, a saber: todo es determinado según
leyes por alguna otra cosa, entendiéndose por esta última las condiciones
externas tanto como las internas del objeto en cuestión. Se trata de un
supuesto filosófico de la ciencia confirmado por los resultados de la
investigación científica; es evidente que no puede ser refutado tal principio.
La
ecuación de la causalidad con la predictibilidad es, común entre los
partidarios de la investigación positivista de la mecánica cuántica. Resulta
precipitado proclamar el fracaso del determinismo tan sólo porque no es posible
reunir toda la información necesaria para poner a prueba el principio causal en
un dominio particular.
Incertidumbre
e indeterminación. ¿Es el determinismo ontológico incompatible con el
probabilismo gnoseológico?
La
predicción acertada nos permite confirmar o refutar los enunciados legales
científicos, tanto causales como no causales. La predicción y la aplicación práctica
son pruebas de todas las hipótesis generales de la ciencia y la tecnología, sea
cual fuere su contenido causal. El sistemático fracaso de los esfuerzos por
predecir mediante una ley dada que contiene un fuerte componente causal es una
razón de peso para poner en duda la verdad de dicho enunciado legal en el
terreno que se está investigando; pero no anula esa ley en todos los terrenos,
ni constituye una refutación del principio causal. El fracaso de hipótesis
causales particulares –y aun el posible fracaso de la causalidad en sectores
enteros de la investigación- sólo prueba que el principio causal no tiene
validez universal. En particular, el ingrediente estadístico en todos los
enunciados que hemos llamado leyes demuestran que por lo menos un dominio, el
de la relación sujeto-objeto, no se agota en las conexiones causales.
La
causalidad en consecuencia no puede definirse en términos de predictibilidad
según leyes; ni es tampoco correcto definir el azar como incapacidad de
predecir. La predicción es una capacidad humana, falible y perfectible a la
vez; la predictibilidad es una consecuencia gnoseológica de la existencia y del
conocimiento de leyes de cualquier tipo, tanto causales como no causales.
La incertidumbre, por tanto, no implica
indeterminación. La determinación completa, fijada de modo unívoco por la
totalidad de las leyes, es una condición necesaria pero no suficiente para
alcanzar la predictibilidad completa: no sería justo culpar al universo de
nuestras propias limitaciones. El determinismo ontológico es, conforme a lo
dicho, compatible con el probabilismo gnoseológico, doctrina según la cual sólo
proposiciones generales probables pueden afirmarse con referencia a asuntos empíricos,
aunque no todas son igualmente verosímiles.