3.
Metodología. El objeto de la F. es doble:
especulativo y práctico. Como ciencia
especulativa, se propone elaborar una imagen
mental del universo material; como ciencia
práctica se encarga de preparar para la técnica
un esquema útil. El método empleado para
alcanzar estos objetivos es el propio de toda
ciencia empírica: empieza con la observación y
la experimentación (v.) y termina con la
elaboración de un cuerpo de doctrina (V. TEORÍA
CIENTíFICA). Este proceso descansa sobre algunos
postulados que no suelen formularse
explícitamente, pero sin los cuales no hay
ciencia posible. Sin pretender agotar su elenco,
conviene resaltar los siguientes: objetividad
del mundo exterior (es decir, el Universo existe
fuera del sujeto); trascendencia de la verdad
(la verdad es absoluta); posibilidad del
conocimiento empírico; racionalidad de la
Creación; mensurabilidad (en virtud de la cual
sólo tienen entrada en F. las entidades
medibles). La
investigación sigue entonces una marcha
perfectamente definida: la primera operación
consiste en medir magnitudes; el resultado de
cada medida es un número referido a una unidad
determinada, y el conjunto de medidas efectuadas
sobre un sistema representa el estado en que el
sistema se encuentra en aquel momento. Se admite
que el estado de un sistema es reproducible, es
decir, que la operación puede repetirse
exactamente en las mismas condiciones que antes
y que entonces los resultados de las nuevas
medidas coincidirán con las primeras (principio
de causalidad). En rigor esto no es exacto;
ningún sistema puede pasar dos veces por el
mismo estado, pues el Universo en conjunto habrá
cambiado mientras tanto; en todo suceso se puede
reconocer un elemento repetible y otro
irrepetible; en F. lo repetible prevalece
mientras que en Biología prevalece lo
irrepetible; mejor dicho, a la F. sólo le
corresponde estudiar la parte repetible. En la
F. clásica se suponía que los errores cometidos
en la operación de medir son corregibles y que
todo consiste en perfeccionar los aparatos. En
la F. moderna el principio de incertidumbre pone
limitaciones a esta posibilidad, afirmando que
la intervención del observador o de sus aparatos
de medida alteran en forma incontrolable el
estado del sistema: las magnitudes físicas están
conjugadas por pares, de tal manera que si se
quiere mejorar la precisión de la medida de una
de ellas, empeora necesariamente la de la otra.
La limitación viene impuesta por el tamaño del
cuanto de acción h, de donde resulta una
distinción objetiva entre Macrofísica, cuando
las dimensiones del sistema son grandes en
comparación con h, y Microfísica, cuando se está
dentro del orden de magnitud de esta
constante. Por
sus relaciones con el problema de la medida, las
magnitudes físicas se comportan de distinta
manera: hay magnitudes escalares, como la carga
eléctrica, que pueden representarse con un solo
número real; magnitudes vectoriales (como la
fuerza) que requieren el uso de tres números
coordenados, y magnitudes tensoriales, como la
constante dieléctrica, cuya representación tiene
que hacerse con ayuda de nueve números, y hay
magnitudes todavía más complicadas que sólo se
dejan representar por
matrices. La
segunda fase de la investigación consiste en la
formulación de leyes empíricas. Se trata de
organizar la masa de datos numéricos reunidos en
la fase anterior, por medio de una fórmula
matemática en términos finitos. Este trabajo se
lleva a cabo muchas veces con ayuda de
representaciones gráficas, y entonces se reduce
al problema del ajuste de curvas. El tipo de
curva a ajustar se deja a la intui~ión del
investigador, sin excluir la conveniencia de
dejarse guiar por ciertas ideas más o menos
teóricas. Aunque en realidad cada yariable puede
depender de otras varias, se procura simplificar
el procedimiento buscando el enlace con cada una
de ellas por separado, para luego sistematizar
todas las fórmulas por vía matemática. Ejemplo
típico de esta manera de proceder es la
formulación de la ecuación de estado de los
gases. Con esto el investigador experimental ha
terminado su
cometido. A
continuación entra en juego el teórico, y su
primer intento consiste en reproducir las leyes
empíricas deduciéndolas matemáticamente de
ciertas premisas. Aquí es donde las hipótesis
(v.) desempeñan un papel primordial. Por ej.: la
obtención de la ecuación de estado de los gases
partiendo de la teoría cinética. Una hipótesis
consiste en un conjunto de afirmaciones que se
refieren a entes no accesibles directamente a la
observación. De ellas se derivan no sólo las
leyes empíricas que se trataba de racionalizar,
sino también otras consecuencias, algunas de las
cuales pueden ser también accesibles a la
experiencia. Entonces el problema vuelve al
laboratorio y la hipótesis se mantiene mientras
la observación no contradiga alguna de dichas
consecuencias. Muchas veces, las mismas leyes se
pueden deducir de hipótesis distintas, como
ocurre con las leyes de la reflexión de la luz,
compatibles tanto con la teoría ondulatoria como
con la teoría corpuscular. En F. clásica se
admitía la posibilidad de montar un experimento
decisivo (experimentum crucis); así se pensó que
el descubrimiento de los fenómenos de
interferencia resolvía el dilema en favor de la
teoría ondulatoria. En F. moderna, de acuerdo
con el principio de dualidad, se admite que dos
teorías contradictorias pueden ser válidas,
mientras no se refieran al mismo fenómeno bajo
el mismo punto de vista, con tal de atribuir a
ambas un valor simbólico y no un valor
descriptivo, desterrando del campo de la ciencia
toda hipótesis en el sentido clásico de la
palabra, es decir, que apele a entes
ocultos.
Muchas veces las hipótesis toman la forma de
modelos, es decir, de sistemas ideales
simplificados, porque se considera que la
realidad es demasiado compleja para ser abordada
matemáticamente. Entonces, naturalmente, no se
pretende que las consecuencias de la teoría
concuerden exactamente con la observación, pero
las desviaciones pueden ser consideradas como
perturbaciones y ser tratadas como tales. La F.
entera está llena de entes ideales de este tipo,
tales como el sólido rígido, los gases
perfectos, el punto material, etc. Nadie discute
la enorme utilidad y el valor de los
modelos. Un
paso más lleva a la sistematización de un haz de
leyes ya racionalizadas más o menos, por medio
de un conjunto de principios, constituyendo un
cuerpo de doctrina de estructura matemática. La
formulación de estos principios está a la libre
inspiración del investigador, y lo único que se
les exige es que no se opongan a ningún hecho
comprobado. No se demuestran directamente y sólo
se valoran por la validez de sus consecuencias.
Normalmente se enuncian en lenguaje ordinario,
pero desembocan en una formulación matemática.
La primera disciplina que llegó a este grado de
perfección fue la Mecánica clásica, asentada por
Newton sobre tres únicos postulados
independientes. Los principios de mínimo poseen
todavía mayor poder de síntesis. La misma
estructura adquirió la Termodinámica en manos de
Clausius, la óptica geométrica en las de Fermat,
el Electromagnetismo en las de Maxwell, etc. La
F. moderna se ajusta a la misma línea de
conducta: la teoría de la relatividad se apoya
sólo en dos principios, la Mecánica ondulatoria
en una sola ecuación, etc. Y ya hemos repetido
que el ideal de los científicos es llegar a
derivar la F. entera de un principio
único. A
propósito de los principios fundamentales, es
muy interesante observar que su formulación
matemática adopta siempre la forma de ecuaciones
(v.) diferenciales ordinarias o en derivadas
parciales, mientras que las leyes comprobables
experimentalmente deben estar formuladas en
términos
finitos. 4.
Problemática actual y futura. Cuando se plantea
el problema de la F. en toda su amplitud: «dar
del mundo físico una imagen cabal», se tropieza
con una serie de dilemas que han sido siempre la
máxima preocupación de los hombres de ciencia,
quizá, sobre todo, por sus implicaciones
filosóficas. El primero se refiere a la misma
naturaleza de la imagen: ¿es real o es
simbólica? Por real entendemos que representa
«la cosa en sí», el universo «tal como es». El
punto de vista ingenuo se pronuncia en favor de
la interpretación real: si las cosas tal vez no
son tales como las vemos, sí son tales como las
concebimos. La F. clásica andaba muy cerca de
esta interpretación. La F. moderna tropieza con
el principio de complementariedad y tiene que
pronunc`arse por el simbolismo: sólo bajo este
enfoque las dos imágenes contradictorias pueden
ser compatibles, como lo son un círculo y un
rectángulo, proyecciones de un mismo cilindro,
precisamente porque un cilindro no se puede
representar sobre un plano «tal como es», con
una imposibilidad
esencial. El
segundo dilema es el de la continuidad o
discontinuidad. De acuerdo con el punto de vista
clásico, el espacio y el tiempo son continuos;
la materia y la electricidad, discontinuos. Sin
embargo, la cosa no es tan sencilla: si un
átomo, en el sentido etimológico de la palabra,
tiene extensión, ¿por qué no ha de poder
dividirse? Y si puede dividirse indefinidamente,
la materia no es discontinua. Por otra parte,
¿cómo asegurar que el tiempo es continuo? Si
contemplamos la sucesión de las escenas de una
proyección cinematográfica no nos parece menos
continua que si la contemplamos en el teatro, y,
sin embargo, sabemos que en el cine la evolución
es realmente discontinua. La F. moderna rechaza
el dilema e invocando otra vez el principio de
dualidad asegura que el Universo admite las dos
imágenes: bajo el punto de vista ondulatorio,
las partículas son sólo singularidades
geométricas del campo continuo donde las ondas
se propagan; bajo el punto de vista corpuscular,
las partículas (conjunto discreto) crean a su
alrededor el campo
undulatorio.
El tercer dilema es seguramente el que ha dado
lugar a más discusiones: es el problema del
determinismo. Una vez más los puntos de vista
clásico y moderno son opuestos. Entre los
cultivadores de la F. clásica ha sido muy
frecuente confundir el determinismo con la
causalidad, olvidando que existen causas libres
(v. CAUSA; LIBERTAD). La discusión rebasa
evidentemente la competencia de la F. El
principio clásico del determinismo se solía
formular en términos parecidos a éstos: «la
evolución de un sistema es consecuencia de su
estado inicial», y fue ilustrado por Laplace con
la imagen de un diablillo que tuviese
conocimiento exacto de la situación y velocidad
de todas las partículas del universo en un
momento determinado, el cual podría predecir con
exactitud la posición y la velocidad que
tendrían en otro momento futuro cualquiera. La
F. moderna no niega el determinismo en sí y
menos el principio de causalidad, pero asegura
que no tiene aplicación porque no hay
posibilidad de conocer con toda exactitud la
situación y la velocidad de una partícula en un
momento determinado; tal es el significado del
principio de incertidumbre. Entonces no queda
más posibilidad que la de trabajar con
probabilidades estadísticas. Ciertos autores han
pretendido deducir del principio de
incertidumbre que en Microfísica no es válido el
determinismo ni rige el principio de causalidad.
A este modo de ver se puede oponer un
razonamiento que procede de H. Poincaré y es el
siguiente: el cálculo de probabilidades tiene
éxito cuando se aplica a una población cuyos
individuos obedecen en su conducta al más
riguroso determinismo, como es el caso de la
extracción de bolas de una urna o en el de la
teoría de los gases; por consiguiente, del hecho
de que sea aplicable el cálculo de
probabilidades y de que no tengamos otra
posibilidad práctica de atacar el problema no se
deduce que los movimientos de las partículas
elementales se verifiquen «objetivamente» al
azar. Un nuevo
dilema se plantea con los términos: ¿limitado o
ilimitado? La formulación de la pregunta sugiere
el espacio y el tiempo, pero en realidad afecta
a todas las entidades del mundo físico. Si la
materia y la electricidad son entidades
discretas, serán necesariamente finitas, pues un
número infinito actual es sencillamente
impensable. El astrónomo inglés Eddington
incluso se atrevió a afirmar que el número de
partículas existentes es exactamente de
2,4-10'9. Por lo que al espacio se refiere, la
F. clásica encontraba grandes dificultades, pues
no es posible imaginar en qué podría consistir
un «límite del espacio vacío». La teoría de la
relatividad abre una posibilidad ofreciendo como
solución el espacio esférico de tres
dimensiones, a la vez finito e ilimitado. En
cuanto al tiempo, la F. clásica introdujo con la
ley de la entropía (v.) una limitación potencial
para el futuro con la llamada «muerte térmica»
del universo y otra para el pasado cuando la
entropía total era nula. La F. moderna reconoce
con mayor vigor la existencia de un origen de
los tiempos cuando empezó la fuga de las
galaxias, e incluso es capaz de señalar su valor
numérico, del orden de los tres billones de
años, según G.
Gamow.
Intimamente relacionado con el anterior se
plantea el dilema evolución-estado estacionario.
La hipótesis del estado estacionario puede tomar
la forma especial del «etermo retorno», pero de
por sí no es incompatible con el supuesto de la
finitud del tiempo. La verdad es que la ley de
la entropía imprime necesariamente a la
evolución un sentido irreversible. Todo lo que
pueda decirse y se ha dicho en contrario
(inversión de la ley de la entropía en un
anti-universo) es pura especulación o puro
disparate. La única idea que no contradice el
concepto de evolución irreversible y que al
mismo tiempo es compatible con el de universo
estacionario es la de creación continua sugerida
en 1951 por el astrónomo inglés F.
Hoyle. A
finales del siglo pasado hubo un científico que
compadecía a los investigadores futuros, porque,
según él, ya no quedaba nada por descubrir. No
es fácil predecir el rumbo que pueda tomar la
ciencia en un futuro más o menos próximo, pero a
juzgar por las tendencias actuales, los
problemas que más urgen son: la investigación
exhaustiva del campo nuclear o mesónico, la del
campo unificado, la F. del plasma y de las
temperaturas desmesuradamente elevadas, la F. de
los corpúsculos de vida efímera, el enigma de la
llamada «antimateria» (v.), la eliminación
completa de parámetros ocultos, la atomización
del espacio y del tiempo, la relativización de
la Mecánica cuántica,
etc. Lo que sí
puede asegurarse es que la era de la
investigación unipersonal ha pasado: las
herramientas necesarias para la experimentación
son cada vez más caras, pero, además, los
investigadores teóricos ya no pueden trabajar
sólo con una cuartilla y un lápiz, como todavía
trabajaba Einstein; se necesita la ayuda de
potentes computadores electrónicos; la labor de
equipo se impone y toda investigación
prometedora debe ser previamente
programada. V.
t.: FÍSICA NUEVA, IDEAS FILOSÓFICAS EN LA;
CIENCIA III y
VII.
|
BIBL.:
Fuentes: GALILEO GALILEI, Obras completas (en
italiano), ed. S. Timpanaro, 1936; 1. NEWTON,
Philosophiae naturalis Principia mathematica,
Londres 1687; ÍD, Opera Omnia, 5 vol., ed. S.
Horsley, Londres 1779; W. R. HAMILTON, On a
general method in dynamics, Dublín 1834; ÍD,
Elements of quaternions; J. L. LAGRANGE,
Mécanique analytique, 1788; ID, Obras completas
(en francés), ed. Serret y Darboux; C. HUYGENS,
Traité de la lumiére, París 1690; A. J. FRESNEL,
Memoirs sur la diffraction de la lumiére, 1826;
ÍD, Obras completas (en francés), París 1866; 1.
C. MAXWELL, Theory of Heat, Oxford 1892; ÍD,
Treatise on Electricity and Magnetism, 2 vol.,
Oxford 1892; R. CLAUSIUS, Abhandlungen über die
mechanische Würmetheorie, Brunswick 1864; A.
EINSTEIN, Zür Electrodynamik bewegter Kórper,
1905; M. PLANCK, Conferencia pronunciada ante la
Berliner Physikalische Gesellschaft, 1900; L. DE
BROGLIE, Ondes, corpuscules et mécamque
ondulatoire, París 1946; E. SCHRóDINGER,
Abhandlung zur Wellenmechanik, 1927; W. K.
HEISENBERG, Die physikalische Prinzipien der
Quanten theorie, Leipzig 1930; N. BOHR, Theory
of Spectra and Atomic Constitution, 1922; P. A.
DIRAC, The Principios of Quantum Mechanics, 3
ed. Oxford
1947.
|