René Descartes (izq.) e Isaac Newton

La modernidad comienza con René Descartes e Isaac Newton. Descartes nació en Turen, Francia, el 31 de marzo de 1596, filósofo, matemático y físico considerado el padre de la filosofía moderna y uno de los hombres más destacados de la revolución científica. Descartes realiza una rotunda critica de las ciencias y de la filosofía  de la época, establece la razón como la columna vertebral de la acción científica, todo esto contenido en su libro El discurso del método, base del método científico que impulsa la filosofía y la ciencia como medio para encontrar la verdad universal apoyándose en las matemáticas. El racionalismo es un pensamiento filosófico donde la razón humana representa la totalidad de la realidad, negando así los sentidos, sentimientos y todo tipo de facultades distintas a la razón. Descartes no admite nada como verdadero a no ser que se pueda demostrar a través del método científico, donde descomponer el todo en las partes sin ver sus interrelaciones es el primer paso en el análisis de los problemas para luego llegar a una síntesis habiéndolo evaluado anteriormente bajo la teoría de las matemáticas.

Este método tiene la teoría de las matemáticas como su fuente de acción partiendo de la fundación de la geometría analítica y la geometría cartesiana de Descartes, estando asociadas a un sistema de ejes, coordenadas rectangulares que sirven de fondo para la representación gráfica de funciones, vectores, ecuaciones de rectas en forma algebraica, ecuaciones de circunferencias, elipses, hipérbolas, parábolas, puntos, rectas, planos, vectores en el espacio, posiciones relativas, problemas métricos y superficies tridimensionales.

Antes del siglo XVII y posteriormente los matemáticos de la época estaban interesados en resolver dos problemas básicos:

  • Dada una curva “C”, encontrar la línea tangente “T” en un punto “P” de la curva “C” en el plano cartesiano.
  • Dada una curva “C”, calcular el área “A” debajo de la curva “C” en el plano cartesiano.

La solución de estos dos problemas tuvieron que esperar hasta  que Isaac Newton desarrolló la teoría del cálculo, siendo el insumo la geometría analítica de Descartes. Las ecuaciones diferenciales permitieron la solución para encontrar la tangente en un punto de la curva y las ecuaciones integrales para encontrar el área debajo de la misma; entonces, a partir de allí el cálculo diferencial e integral se aplicó en la resolución de múltiples problemas en las ciencias duras y las ciencias blandas; usándose, además, como base de investigación a través de modelos matemáticos (ecuaciones diferenciales lineales y no lineales, integrales, programación dinámica y  estocástica, probabilidades  y estadísticas en caso de estudios sociales, progresión lineal, simulación de Montecarlo).

En el método cuantitativo se establece un sistema hipotético, supuestos generales, variables e indicadores; además, se identifican los siguientes elementos metodológicos:

Consideraciones generales

  1. Tipo de investigación
  2. Diseño de la misma
  3. Población, universo de estudio
  4. Muestra
  5. Instrumentos de recolección de información y su descripción
  6. Medición (niveles de medición de las variables)
  7. Prueba piloto
  8. Codificación y tabulación de datos
  9. Técnicas de presentación de los datos
  10. Análisis estadísticos de los datos

Por otra parte, a mediados del siglo XVII matemáticos franceses empezaron a abordar de manera científica el tema del azar (fenómenos que ocurren de manera fortuita e impredecible) y la incertidumbre, a partir de allí empieza poco a poco a desarrollarse la teoría moderna de las probabilidades, desembocando esta posteriormente en lo que se conoce hoy como  estadística. Los fenómenos que ocurren en la naturaleza y en la vida cotidiana pueden ser de dos tipos deterministas o lineales y no deterministas o aleatorios, entre los deterministas podemos incluir los fenómenos químicos, eléctricos, mecánicos, hidrostáticos (aspectos asociados al macrocosmos); por otra parte, en los no determinados tenemos al comportamiento del átomo, elementos del  clima, movimientos de partículas subatómicas, estudios mecánicos del comportamiento de los gases (aspectos asociados al microcosmos).

Continuando en este sentido, el físico inglés William Thomson generalizó la segunda ley de termodinámica diciendo que hay una tendencia natural y espontánea hacia la degradación o disipación de la energía; así, el físico alemán Rudolf Clausius introdujo el concepto  de entropía como una medida del desorden de un sistema., rigiéndose esta por el concepto de probabilidad. Otros nombres de científicos relacionados a la teoría de las probabilidades en los siglos XVI, XVII, XVIII, XIX son Pierre Fermat, Blas Pascal, Huygens, Jacobo Bernoulli, Pierre Laplace, Abraham DeMoivre, Thomas Bayes, Carlos Federico Gauss, llegando hasta John Graunt, considerado el padre de la estadística científica; aplicándose así la estadística en la toma de decisiones de situaciones prácticas, en pronósticos, inferencias y diseños de experimentos, en la estadística clásica las distribuciones de probabilidades son estáticas, mientras que en la estadística Bayesiana son cambiantes y dinámicas, estudio de  probabilidades a priori o a posteriori.

En la acera del frente se ha visto el otro método de investigación científica, llámese el método cualitativo, aparentemente el método más natural y más ajustado para aplicar a las ciencias blandas; sin embargo, el dominio del método científico ha sido tal que también se ha venido aplicando a las ciencias blandas de manera indiscriminada, sin pararse a reflexionar en su propia naturaleza, las ciencias blandas ha sido desnaturalizada en su propia esencia de su método de investigación la cualidad social y humana, su naturaleza subjetiva, de interrelaciones humanas y éticas, espirituales, estéticas, de afiliaciones y relaciones psicológicas individual, social y organizacional.

Sir Isaac Newton unificó todas las teorías y principios de la física que existían hasta ese momento, definidas por científicos como Galileo Galilei, Nicolás Copérnico, Johannes Kepler, esto lo hizo al elaborar  su teoría de la física clásica contenida en el libro Principios matemáticos de la filosofía natural, la cual desarrolla la ley de la gravedad y la ley de los movimientos de los cuerpos, así como el cálculo diferencial e integral, siendo estos pasos fundamentales para dar inicio a la Revolución Industrial a través de diseños tecnológicos basados en las leyes y teoría del cálculo  de  Newton  donde técnicos, ingenieros y científicos iniciaron el desarrollo de la máquina de vapor, que dio pie a ir sustituyendo las actividades laborales manuales por actividades mecanizadas en el ámbito de las pequeñas empresas y talleres de la época, luego se diseñaron e implementaron redes ferroviarias, principios del motor eléctrico con Michael Faraday en 1824, vehículos, la industria naval, la aviación, la electromecánica, la electrónica en tubos al vacío, la electricidad, el telégrafo, la tabla periódica de química etc., lo cual fue uno de los factores que provocó la inmigración de trabajadores del campo a la ciudad, desarrollándose grandes metrópolis, hasta llegar hoy día a viajar al espacio sideral, donde la base del diseño de propulsión de cohetes y naves espaciales como el Columbia se dio a raíz de conocer la ley de gravedad y la ley de movimientos de los cuerpos. Es importante señalar que los principios de las leyes de Newton se cumplen o son aplicables exclusivamente a la solución de problemas técnicos en la vida real mientras un cuerpo se mueva a una velocidad menor o igual de 180.000 kilómetros por segundo.

Michael Faraday químico y físico inglés contribuyó al campo del electromagnetismo y electroquímico, estudió los campos magnéticos que se generaban alrededor de los conductores eléctricos en 1824 estableciendo las bases del concepto de los campos electromagnéticos en física, a través de la ley de inducción de Faraday, la cual  explica la fuerza electromotriz, permitiendo así el impulso  del motor eléctrico. Sin embargo, fue James Maxwell quien desarrolla toda una teoría integral del electromagnetismo a través de las cuatro fórmulas de los principios generales del electromagnetismo clásico.

Por otra parte, a partir de la segunda y primera mitad tanto del siglo XIX como XX  respectivamente emergen los descubrimientos que dan paso a la física moderna o la física cuántica, a los fenómenos del comportamiento y constitución del átomo, del mundo microscópico. Una de las características principales de los fenómenos de las partículas atómicas es que pueden ir a velocidades mayores a los 180.000 kilómetros por segundo; así, por ejemplo, la luz viaja a 300.000 kilómetros por segundo, lo cual quiere decir que un rayo de luz tarda un segundo en llegar de la Luna a la Tierra. Por tanto, en estos casos no aplican las leyes de Newton, por ello es que él decía que la materia a ese nivel estaba constituida por ladrillos, o por no entenderla se apoyaba en razones religiosas, como lo hizo Albert Einstein también en su momento diciendo que “Dios no jugaba a los dados”, por cierto cosas muy curiosas para mentes tan prodigiosas.

Dualidad onda-partícula de la mecánica cuántica

Este comportamiento del átomo se devela como fenómeno sin ser comprendido para ese preciso momento en el año de 1873.James Clerk Maxwell científico escocés en ese año desarrolla las ecuaciones de los principios de la electricidad y el electromagnetismo, dándose  paso al estudio del microcosmos de la materia de electrones, protones y partículas subatómicas no conocidas para ese entonces. Henri Becquerel descubre la radioactividad en el año de 1896, lo cual le sirvió de base a los científicos Pierre Curie y a María Curie al descubrimiento, análisis y estudio de los elementos radium y polonium, incorporados luego a la tabla química de elementos; además, Ernest  Rutherford en 1896 y 1897 elabora el diseño de la estructura del átomo analizando las partículas radiactivas alfa y gama, comprendiéndose de esta manera los fenómenos de la electricidad y el electromagnetismo que no se entendían para 1873.

Así, pues, Max Karl E. Ludwig Plank elabora la fórmula E= h x f  donde” h” es la constante de Plank desarrollada bajo el estudio de la teoría quántica multiplicado por “f”, siendo esta  la frecuencia con la cual vibra un electrón cuando es forzado a ir de una capa más externa a una más interna de la estructura del átomo emitiendo en este movimiento una energía llamada fotón o quantum de energía que vendría a ser la luz que se ve cuando se activa un rayo láser. Este físico alemán es entonces el fundador de la teoría quántica, teoría que en conjunto con la teoría de la relatividad de Einstein, E sirvió de base para desarrollar la bomba atómica y los reactores nucleares. Además, la mecánica cuántica explica el comportamiento de la materia en su estado sólido y de la energía, en la práctica permitió el descubrimiento y desarrollo de tecnologías como los transistores analógicos, posteriormente transistores digitales en chips o circuitos integrados, el rayo láser, hasta llegando al desarrollo de la telemática fija y móvil, Internet etc.

Albert Einstein se encarga posteriormente de unificar las teorías de la física moderna existentes hasta ese momento, como lo hizo Isaac Newton en su oportunidad con la física clásica. Einstein elabora la teoría de la relatividad, en la que los conceptos de espacio y tiempo como se conocían hasta ese momento cambian radicalmente, el espacio se hace flexible y el tiempo se detiene para el estudio de estos fenómenos, la flexibilidad del espacio se comprobó al poder ver y ser fotografiada por astrónomos las estrellas que estaban detrás u ocultas por el sol durante la observación del eclipse de sol, y con relación al tiempo una persona que viaje a la velocidad de la luz (300.000 km/s) al espacio extraterrestre y regrese luego de un tiempo de nuevo a la Tierra verá que está llegando en una época muy distinta en referencia a la cual él partió, para él es como si el tiempo no hubiese pasado o se hubiese detenido, dando Einstein un nuevo concepto de la teoría de la gravedad de los cuerpos celestes descrita con anterioridad por Isaac Newton.

Así, con esta teoría se entiende el microcosmos como un mundo de interrelaciones quánticas donde las partículas son entidades altamente complejas dotadas de extrañas cualidades de poder ser tanto ondas como partículas, sin ser ni lo uno ni lo otro, lo cual corresponde al principio de complementariedad de Niels Bohr, quien publicó su modelo orbital de la estructura del átomo en 1913, se registra también un orden estadístico y probabilístico del movimiento de las partículas donde no se puede determinar simultáneamente de manera precisa la  posición y el momento exacto de un electrón, sino su tendencia o probabilidad del movimiento, representando esto el principio de incertidumbre del físico Werner Heisenberg que fue jefe del proyecto de la bomba atómica alemana. Además, dentro de esta misma teoría está el principio de Linus Pauling desarrollado en 1925, el cual señala que las leyes que rigen las partes son distintas que las leyes que rigen el todo, agregando por último en este sentido lo que dijo Albert Einstein: “Los problemas no pueden ser resueltos desde el mismo nivel que fueron creados, debe subirse de nivel o escalón para buscar la solución”.

Sentándose de esta manera por los puntos antes expuestos las bases para el análisis y estudio del mundo complejo y de incertidumbre bajo una visión sistémica dada por los principios de la física moderna, desarrollándose elementos o características de la posmodernidad como el mundo complejo y sistémico. Todavía al día de hoy está pendiente desarrollar la teoría del campo unificado o teoría de la gravedad cuántica, la cual unificará la fuerza de la gravedad, la fuerza electromagnética, la fuerza nuclear débil y la fuerza nuclear fuerte.


El periodismo independiente necesita del apoyo de sus lectores para continuar y garantizar que las noticias incómodas que no quieren que leas, sigan estando a tu alcance. ¡Hoy, con tu apoyo, seguiremos trabajando arduamente por un periodismo libre de censuras!