Lunes, 12 de Noviembre de 2007
 INICIO
  SECCIONES
    Noticias actuales
    Artículos
    Biografías
    Monografías
    Enciclopedia GER
    Hemeroteca
    Cartas al director
  CULTURA
    Cine
    Libros
    Video/DVD
    Música
  SERVICIOS
    Quienes somos
    Danos tu opinión
    Publicidad
    Suscripción al boletín
        Escriba su e-mail
Visitantes únicos / Mes
383.259
Visitantes únicos / Día
11.107

Gran Enciclopedia Rialp: Humanidades y Ciencia. Última actualización 1991
  Búsqueda avanzada
 Listar todas las voces

Cena-Coloquio Obispo de Getafe: 23 de Noviembre. Hotel Pozuelo

  Inicio > Enciclopedia GER > Ficha GER
Física II
Categoria:
Física
Propiedad de Ediciones Rialp S.A. Prohibida su copia y reproducción total o parcial por cualquier medio (electrónico, informático, mecánico, fotocopia, etc.)
    3. Metodología. El objeto de la F. es doble: especulativo y práctico. Como ciencia especulativa, se propone elaborar una imagen mental del universo material; como ciencia práctica se encarga de preparar para la técnica un esquema útil. El método empleado para alcanzar estos objetivos es el propio de toda ciencia empírica: empieza con la observación y la experimentación (v.) y termina con la elaboración de un cuerpo de doctrina (V. TEORÍA CIENTíFICA). Este proceso descansa sobre algunos postulados que no suelen formularse explícitamente, pero sin los cuales no hay ciencia posible. Sin pretender agotar su elenco, conviene resaltar los siguientes: objetividad del mundo exterior (es decir, el Universo existe fuera del sujeto); trascendencia de la verdad (la verdad es absoluta); posibilidad del conocimiento empírico; racionalidad de la Creación; mensurabilidad (en virtud de la cual sólo tienen entrada en F. las entidades medibles).
      La investigación sigue entonces una marcha perfectamente definida: la primera operación consiste en medir magnitudes; el resultado de cada medida es un número referido a una unidad determinada, y el conjunto de medidas efectuadas sobre un sistema representa el estado en que el sistema se encuentra en aquel momento. Se admite que el estado de un sistema es reproducible, es decir, que la operación puede repetirse exactamente en las mismas condiciones que antes y que entonces los resultados de las nuevas medidas coincidirán con las primeras (principio de causalidad). En rigor esto no es exacto; ningún sistema puede pasar dos veces por el mismo estado, pues el Universo en conjunto habrá cambiado mientras tanto; en todo suceso se puede reconocer un elemento repetible y otro irrepetible; en F. lo repetible prevalece mientras que en Biología prevalece lo irrepetible; mejor dicho, a la F. sólo le corresponde estudiar la parte repetible. En la F. clásica se suponía que los errores cometidos en la operación de medir son corregibles y que todo consiste en perfeccionar los aparatos. En la F. moderna el principio de incertidumbre pone limitaciones a esta posibilidad, afirmando que la intervención del observador o de sus aparatos de medida alteran en forma incontrolable el estado del sistema: las magnitudes físicas están conjugadas por pares, de tal manera que si se quiere mejorar la precisión de la medida de una de ellas, empeora necesariamente la de la otra. La limitación viene impuesta por el tamaño del cuanto de acción h, de donde resulta una distinción objetiva entre Macrofísica, cuando las dimensiones del sistema son grandes en comparación con h, y Microfísica, cuando se está dentro del orden de magnitud de esta constante.
      Por sus relaciones con el problema de la medida, las magnitudes físicas se comportan de distinta manera: hay magnitudes escalares, como la carga eléctrica, que pueden representarse con un solo número real; magnitudes vectoriales (como la fuerza) que requieren el uso de tres números coordenados, y magnitudes tensoriales, como la constante dieléctrica, cuya representación tiene que hacerse con ayuda de nueve números, y hay magnitudes todavía más complicadas que sólo se dejan representar por matrices.
      La segunda fase de la investigación consiste en la formulación de leyes empíricas. Se trata de organizar la masa de datos numéricos reunidos en la fase anterior, por medio de una fórmula matemática en términos finitos. Este trabajo se lleva a cabo muchas veces con ayuda de representaciones gráficas, y entonces se reduce al problema del ajuste de curvas. El tipo de curva a ajustar se deja a la intui~ión del investigador, sin excluir la conveniencia de dejarse guiar por ciertas ideas más o menos teóricas. Aunque en realidad cada yariable puede depender de otras varias, se procura simplificar el procedimiento buscando el enlace con cada una de ellas por separado, para luego sistematizar todas las fórmulas por vía matemática. Ejemplo típico de esta manera de proceder es la formulación de la ecuación de estado de los gases. Con esto el investigador experimental ha terminado su cometido.
      A continuación entra en juego el teórico, y su primer intento consiste en reproducir las leyes empíricas deduciéndolas matemáticamente de ciertas premisas. Aquí es donde las hipótesis (v.) desempeñan un papel primordial. Por ej.: la obtención de la ecuación de estado de los gases partiendo de la teoría cinética. Una hipótesis consiste en un conjunto de afirmaciones que se refieren a entes no accesibles directamente a la observación. De ellas se derivan no sólo las leyes empíricas que se trataba de racionalizar, sino también otras consecuencias, algunas de las cuales pueden ser también accesibles a la experiencia. Entonces el problema vuelve al laboratorio y la hipótesis se mantiene mientras la observación no contradiga alguna de dichas consecuencias. Muchas veces, las mismas leyes se pueden deducir de hipótesis distintas, como ocurre con las leyes de la reflexión de la luz, compatibles tanto con la teoría ondulatoria como con la teoría corpuscular. En F. clásica se admitía la posibilidad de montar un experimento decisivo (experimentum crucis); así se pensó que el descubrimiento de los fenómenos de interferencia resolvía el dilema en favor de la teoría ondulatoria. En F. moderna, de acuerdo con el principio de dualidad, se admite que dos teorías contradictorias pueden ser válidas, mientras no se refieran al mismo fenómeno bajo el mismo punto de vista, con tal de atribuir a ambas un valor simbólico y no un valor descriptivo, desterrando del campo de la ciencia toda hipótesis en el sentido clásico de la palabra, es decir, que apele a entes ocultos.
      Muchas veces las hipótesis toman la forma de modelos, es decir, de sistemas ideales simplificados, porque se considera que la realidad es demasiado compleja para ser abordada matemáticamente. Entonces, naturalmente, no se pretende que las consecuencias de la teoría concuerden exactamente con la observación, pero las desviaciones pueden ser consideradas como perturbaciones y ser tratadas como tales. La F. entera está llena de entes ideales de este tipo, tales como el sólido rígido, los gases perfectos, el punto material, etc. Nadie discute la enorme utilidad y el valor de los modelos.
      Un paso más lleva a la sistematización de un haz de leyes ya racionalizadas más o menos, por medio de un conjunto de principios, constituyendo un cuerpo de doctrina de estructura matemática. La formulación de estos principios está a la libre inspiración del investigador, y lo único que se les exige es que no se opongan a ningún hecho comprobado. No se demuestran directamente y sólo se valoran por la validez de sus consecuencias. Normalmente se enuncian en lenguaje ordinario, pero desembocan en una formulación matemática. La primera disciplina que llegó a este grado de perfección fue la Mecánica clásica, asentada por Newton sobre tres únicos postulados independientes. Los principios de mínimo poseen todavía mayor poder de síntesis. La misma estructura adquirió la Termodinámica en manos de Clausius, la óptica geométrica en las de Fermat, el Electromagnetismo en las de Maxwell, etc. La F. moderna se ajusta a la misma línea de conducta: la teoría de la relatividad se apoya sólo en dos principios, la Mecánica ondulatoria en una sola ecuación, etc. Y ya hemos repetido que el ideal de los científicos es llegar a derivar la F. entera de un principio único.
      A propósito de los principios fundamentales, es muy interesante observar que su formulación matemática adopta siempre la forma de ecuaciones (v.) diferenciales ordinarias o en derivadas parciales, mientras que las leyes comprobables experimentalmente deben estar formuladas en términos finitos.
      4. Problemática actual y futura. Cuando se plantea el problema de la F. en toda su amplitud: «dar del mundo físico una imagen cabal», se tropieza con una serie de dilemas que han sido siempre la máxima preocupación de los hombres de ciencia, quizá, sobre todo, por sus implicaciones filosóficas. El primero se refiere a la misma naturaleza de la imagen: ¿es real o es simbólica? Por real entendemos que representa «la cosa en sí», el universo «tal como es». El punto de vista ingenuo se pronuncia en favor de la interpretación real: si las cosas tal vez no son tales como las vemos, sí son tales como las concebimos. La F. clásica andaba muy cerca de esta interpretación. La F. moderna tropieza con el principio de complementariedad y tiene que pronunc`arse por el simbolismo: sólo bajo este enfoque las dos imágenes contradictorias pueden ser compatibles, como lo son un círculo y un rectángulo, proyecciones de un mismo cilindro, precisamente porque un cilindro no se puede representar sobre un plano «tal como es», con una imposibilidad esencial.
      El segundo dilema es el de la continuidad o discontinuidad. De acuerdo con el punto de vista clásico, el espacio y el tiempo son continuos; la materia y la electricidad, discontinuos. Sin embargo, la cosa no es tan sencilla: si un átomo, en el sentido etimológico de la palabra, tiene extensión, ¿por qué no ha de poder dividirse? Y si puede dividirse indefinidamente, la materia no es discontinua. Por otra parte, ¿cómo asegurar que el tiempo es continuo? Si contemplamos la sucesión de las escenas de una proyección cinematográfica no nos parece menos continua que si la contemplamos en el teatro, y, sin embargo, sabemos que en el cine la evolución es realmente discontinua. La F. moderna rechaza el dilema e invocando otra vez el principio de dualidad asegura que el Universo admite las dos imágenes: bajo el punto de vista ondulatorio, las partículas son sólo singularidades geométricas del campo continuo donde las ondas se propagan; bajo el punto de vista corpuscular, las partículas (conjunto discreto) crean a su alrededor el campo undulatorio.
      El tercer dilema es seguramente el que ha dado lugar a más discusiones: es el problema del determinismo. Una vez más los puntos de vista clásico y moderno son opuestos. Entre los cultivadores de la F. clásica ha sido muy frecuente confundir el determinismo con la causalidad, olvidando que existen causas libres (v. CAUSA; LIBERTAD). La discusión rebasa evidentemente la competencia de la F. El principio clásico del determinismo se solía formular en términos parecidos a éstos: «la evolución de un sistema es consecuencia de su estado inicial», y fue ilustrado por Laplace con la imagen de un diablillo que tuviese conocimiento exacto de la situación y velocidad de todas las partículas del universo en un momento determinado, el cual podría predecir con exactitud la posición y la velocidad que tendrían en otro momento futuro cualquiera. La F. moderna no niega el determinismo en sí y menos el principio de causalidad, pero asegura que no tiene aplicación porque no hay posibilidad de conocer con toda exactitud la situación y la velocidad de una partícula en un momento determinado; tal es el significado del principio de incertidumbre. Entonces no queda más posibilidad que la de trabajar con probabilidades estadísticas. Ciertos autores han pretendido deducir del principio de incertidumbre que en Microfísica no es válido el determinismo ni rige el principio de causalidad. A este modo de ver se puede oponer un razonamiento que procede de H. Poincaré y es el siguiente: el cálculo de probabilidades tiene éxito cuando se aplica a una población cuyos individuos obedecen en su conducta al más riguroso determinismo, como es el caso de la extracción de bolas de una urna o en el de la teoría de los gases; por consiguiente, del hecho de que sea aplicable el cálculo de probabilidades y de que no tengamos otra posibilidad práctica de atacar el problema no se deduce que los movimientos de las partículas elementales se verifiquen «objetivamente» al azar.
      Un nuevo dilema se plantea con los términos: ¿limitado o ilimitado? La formulación de la pregunta sugiere el espacio y el tiempo, pero en realidad afecta a todas las entidades del mundo físico. Si la materia y la electricidad son entidades discretas, serán necesariamente finitas, pues un número infinito actual es sencillamente impensable. El astrónomo inglés Eddington incluso se atrevió a afirmar que el número de partículas existentes es exactamente de 2,4-10'9. Por lo que al espacio se refiere, la F. clásica encontraba grandes dificultades, pues no es posible imaginar en qué podría consistir un «límite del espacio vacío». La teoría de la relatividad abre una posibilidad ofreciendo como solución el espacio esférico de tres dimensiones, a la vez finito e ilimitado. En cuanto al tiempo, la F. clásica introdujo con la ley de la entropía (v.) una limitación potencial para el futuro con la llamada «muerte térmica» del universo y otra para el pasado cuando la entropía total era nula. La F. moderna reconoce con mayor vigor la existencia de un origen de los tiempos cuando empezó la fuga de las galaxias, e incluso es capaz de señalar su valor numérico, del orden de los tres billones de años, según G. Gamow.
      Intimamente relacionado con el anterior se plantea el dilema evolución-estado estacionario. La hipótesis del estado estacionario puede tomar la forma especial del «etermo retorno», pero de por sí no es incompatible con el supuesto de la finitud del tiempo. La verdad es que la ley de la entropía imprime necesariamente a la evolución un sentido irreversible. Todo lo que pueda decirse y se ha dicho en contrario (inversión de la ley de la entropía en un anti-universo) es pura especulación o puro disparate. La única idea que no contradice el concepto de evolución irreversible y que al mismo tiempo es compatible con el de universo estacionario es la de creación continua sugerida en 1951 por el astrónomo inglés F. Hoyle.
      A finales del siglo pasado hubo un científico que compadecía a los investigadores futuros, porque, según él, ya no quedaba nada por descubrir. No es fácil predecir el rumbo que pueda tomar la ciencia en un futuro más o menos próximo, pero a juzgar por las tendencias actuales, los problemas que más urgen son: la investigación exhaustiva del campo nuclear o mesónico, la del campo unificado, la F. del plasma y de las temperaturas desmesuradamente elevadas, la F. de los corpúsculos de vida efímera, el enigma de la llamada «antimateria» (v.), la eliminación completa de parámetros ocultos, la atomización del espacio y del tiempo, la relativización de la Mecánica cuántica, etc.
      Lo que sí puede asegurarse es que la era de la investigación unipersonal ha pasado: las herramientas necesarias para la experimentación son cada vez más caras, pero, además, los investigadores teóricos ya no pueden trabajar sólo con una cuartilla y un lápiz, como todavía trabajaba Einstein; se necesita la ayuda de potentes computadores electrónicos; la labor de equipo se impone y toda investigación prometedora debe ser previamente programada.
      V. t.: FÍSICA NUEVA, IDEAS FILOSÓFICAS EN LA; CIENCIA III y VII.
     
     
J. M. JANSÁ GUARDIOLA.
    BIBL.: Fuentes: GALILEO GALILEI, Obras completas (en italiano), ed. S. Timpanaro, 1936; 1. NEWTON, Philosophiae naturalis Principia mathematica, Londres 1687; ÍD, Opera Omnia, 5 vol., ed. S. Horsley, Londres 1779; W. R. HAMILTON, On a general method in dynamics, Dublín 1834; ÍD, Elements of quaternions; J. L. LAGRANGE, Mécanique analytique, 1788; ID, Obras completas (en francés), ed. Serret y Darboux; C. HUYGENS, Traité de la lumiére, París 1690; A. J. FRESNEL, Memoirs sur la diffraction de la lumiére, 1826; ÍD, Obras completas (en francés), París 1866; 1. C. MAXWELL, Theory of Heat, Oxford 1892; ÍD, Treatise on Electricity and Magnetism, 2 vol., Oxford 1892; R. CLAUSIUS, Abhandlungen über die mechanische Würmetheorie, Brunswick 1864; A. EINSTEIN, Zür Electrodynamik bewegter Kórper, 1905; M. PLANCK, Conferencia pronunciada ante la Berliner Physikalische Gesellschaft, 1900; L. DE BROGLIE, Ondes, corpuscules et mécamque ondulatoire, París 1946; E. SCHRóDINGER, Abhandlung zur Wellenmechanik, 1927; W. K. HEISENBERG, Die physikalische Prinzipien der Quanten theorie, Leipzig 1930; N. BOHR, Theory of Spectra and Atomic Constitution, 1922; P. A. DIRAC, The Principios of Quantum Mechanics, 3 ed. Oxford 1947.
     

Propiedad de Ediciones Rialp S.A. Gran Enciclopedia Rialp, 1991.
Prohibida su copia y reproducción total o parcial por cualquier medio

 
© Copyright. Todos los derechos reservados. Montané Comunicación, S.L. C/ Escultor Peresejo, 70 - 28023 Madrid - España