La gestión pública en el siglo XXI debe verse y explicarse bajo la categoría de la transcomplejidad aplicando operadores dialógicos, recursivos, holográficos y de borrosidad con una cibernética de segundo orden, donde la decisión gubernamental debe interesarse en la dinámica que se genera por la acción simultánea de varios niveles de la realidad, esto oyendo y viendo los signos de los temas de la actualidad y futuros, considerando un proceso de abducción o lo que es lo mismo conectar el mundo de la complejidad efímera con la totalidad transcomplejas.

Cuando se habla de operadores que representan la complejidad entonces implica que para abordar los problemas de servicios públicos requieren que los mismos se enfoquen en primer lugar desde una política pública con esquema de estudios de teoría de juego dinámico evolutivo contemporáneo, esto donde la contradicción, lo paradójico, lo complementario, lo circular y donde el todo es más importante que la parte serían fundamental en la metavisión organizacional.

Lakatos dice que la investigación científica se construye sobre la base de teorías anteriores. Teorizar es elaborar un conocimiento general o universal para posteriormente aplicarlo a situaciones singulares, pero además se puede teorizar partiendo de la experiencia. La epistemología es una disciplina filosófica cuyo objeto de acción es el conocimiento científico donde la gnoseología es la columna vertebral que trata el conocimiento general, la misma busca el descubrimiento y la justificación de teorías en todas las disciplinas. Karl Popper en la década de los treinta del siglo XX planteó el principio de falsación o lo que es lo mismo “toda teoría científica corre un riesgo de no poder justificar la explicación de fenómenos dentro de su paradigma de acción”, por tanto, otra teoría debe devenir para llenar ese vacío. Esto por ejemplo, sucede en la teoría de la física clásica de Isaac Newton donde en el caso de que un cuerpo se mueva a una velocidad de más de 180.000 km/seg, entonces bajo este paradigma no se puede aplicar las fórmulas de la teoría clásica, habría que aplicar los principios de la teoría de la física moderna de Albert Einstein, la física cuántica.

Aristóteles plantea el desarrollo de teorías partiendo desde el pensamiento deductivo, desde pensamientos paraguas para bajar luego a lo empírico, hasta llegar a la prueba experimental. Por otro lado, el pensamiento inductivo parte de lo fáctico, de la experiencia para construir luego la gran teoría. Históricamente los franceses y alemanes están más orientados al desarrollo de teorías con la visión deductiva, mientras que los ingleses lo hacen desde el pensamiento inductivo. Popper también propuso el método hipotético –deductivo de ensayo y error para aproximarse a la verdad del fenómeno, dándole así una condición falsable a la teoría, rechazando la hipótesis en caso de ser necesario.

Thomas Kuhn desarrolló el concepto de paradigma lo cual se alinea hasta cierto punto con Popper en cuanto que Kuhn plantea que las teorías llegan a un punto asintótico o de discontinuidad donde la teoría histórica no da respuesta al nuevo fenómeno. Como consecuencia, el nuevo fenómeno estará constituido de una nueva epistemología, gnoseología, ontología y axiología, naciendo de esta manera una nueva realidad científica. Considerando la gobernanza, se plantea como Kuhn lo dice una revolución científica del modelo de gerencia pública en lo político, ambiental, social y económico.  Se aplicará una triangulación como método de estudio con un diseño multimétodo desde una visión transcompleja.

La construcción teórica tiene dos dimensiones, una la originalidad que puede ser de relevancia o revolucionaria, y la otra la utilidad que puede ser científica o práctica. Podemos definir teoría como el desarrollo de conceptos y sus interrelaciones fenoménicas, mostrando cómo y por qué un fenómeno ocurre, proveyendo una visión original del objeto de estudio, el proceso de investigación debe ser científicamente riguroso, bajo la base legítima de estándares académicos. Se debe retar, desafiar o poner en tela de juicio el problema investigado o planteado de forma tal que se avance en forma y fondo.

Las variables categóricas o continuas bajo estudio deben cambiar la comprensión y percepción del objeto de estudio, en este caso la gobernanza pública venezolana. El desarrollo gerencial hoy día acentúa la solución de planteamientos teóricos de la vida real. La construcción teórica debe estar bien concebida estéticamente, tener fluidez lógica con ideas centrales bien establecidas, que se disfrute al ser leída y ser lo suficientemente larga que justifique el objeto bajo estudio, pero a su vez lo suficientemente corta que la haga interesante.

Por otra parte, Michael Faraday, químico y físico inglés, contribuyó al campo del electromagnetismo y electroquímico, estudió los campos magnéticos que se generaban alrededor de los conductores eléctricos en 1824 estableciendo las bases del concepto de los campos electromagnéticos en física, a través de la ley de inducción de Faraday que explica la fuerza electromotriz, permitiendo así el impulso  del motor eléctrico. Sin embargo, fue James Maxwell quién desarrolló toda una teoría integral del electromagnetismo a través de las cuatro fórmulas de los principios generales del electromagnetismo clásico.

Por otra parte, a partir de la segunda mitad del siglo XIX y primera mitad del XX emergen los descubrimientos que dan paso a la física moderna o la física cuántica, a los fenómenos del comportamiento y constitución del átomo del mundo microscópico. Una de las características principales de los fenómenos de las partículas atómicas es que pueden ir a velocidades mayores a los 180.000 kilómetros por segundo, así  por ejemplo la luz viaja a 300.000 kilómetros por segundo, lo cual quiere decir que un rayo de luz tarda un segundo en llegar de la Luna a la Tierra. Por tanto, en estos casos no aplican las leyes de Newton, por ello es que él decía que la materia a ese nivel estaba constituida por ladrillos, y además, por no entenderla se apoyaba en razones religiosas, como lo hizo Albert Einstein también es su momento diciendo que “Dios no jugaba a los dados”.

Este comportamiento del átomo se devela como fenómeno sin ser comprendido para esos precisos momentos en los años de 1824 y 1873, James Clerk Maxwell, científico escocés en ese año desarrolla las ecuaciones de los principios de la electricidad y el electromagnetismo, dándose  paso al estudio del microcosmos de la materia de electrones, protones y partículas subatómicas no conocidas para ese entonces. Henri Becquerel descubre la radioactividad en el año de 1896, lo cual le sirvió de base a los científicos Pierre Curie y a María Curie al descubrimiento, análisis, y estudio de los elementos radium y polonium, incorporados luego a la tabla química de elementos.

Ernest  Rutherford en 1896 y 1897 elabora el diseño de la estructura del átomo analizando las partículas radiactivas alfa y gama, comprendiéndose de esta manera los fenómenos de la electricidad y el electromagnetismo que no se entendían en tiempos de Maxwell y Faraday. Henry Poncairé matemático francés, realizo investigaciones en la teoría electromagnética de la luz, la electricidad, la transferencia de calor y la termodinámica, se anticipó a la teoría del caos, realizando también estudios asociados a la teoría de la relatividad, pero Albert Einstein la publicó primero. Poncairé fue quien animo a Henry Becquerel a estudia los rayos X, descubierto posteriormente por Wilhelm Rontgen quien recibió el primer premio nobel otorgado en física en 1901.

Así pues, Max Karl E. Ludwig Plank desarrolla la formula E= h x f  donde” h” es la constante de Plank  desarrollada bajo el estudio de la teoría quántica multiplicado por “f” siendo esta la frecuencia con la cual vibra un electrón cuando es forzado a ir de una capa más externa a una más interna de la estructura del átomo emitiendo en este movimiento una energía llamada fotón o quantum de energía que vendría a ser la luz que se ve cuando se activa un rayo láser.

Este físico alemán es entonces el fundador de la teoría quántica, teoría que en conjunto con la teoría de la relatividad de Einstein, sirvió de base para desarrollar la bomba atómica y los reactores nucleares. Además, la mecánica cuántica explica el comportamiento de la materia en su estado sólido y de la energía, en la práctica permitió el desarrollo de tecnologías como los transistores analógicos, posteriormente transistores digitales en  chips o circuitos integrados en estado sólido y a futuro en estado atómico según estudios del premio nobel del año 2001 Wolfgang Ketterle basado en la teoría Bose-Einstein Condensación in Alkali Gases, sumándose el rayo láser en 1960, hasta llegando al desarrollo de la telemática fija y móvil, internet etc.

Albert Einstein unifica las teorías de la física moderna existentes hasta ese momento, como lo hizo Isaac Newton en su oportunidad con la física clásica. Einstein elabora la teoría de la relatividad donde el concepto de espacio y tiempo cambian radicalmente como se conocía hasta ese momento, donde el espacio se hace flexible y el tiempo se hace relativo, la flexibilidad del espacio se comprobó al poder ver y ser fotografiada durante un eclipse de sol por astrónomos de esa época las estrellas que estaban ocultas por el sol. En este mismo sentido, con relación a la relatividad del tiempo, una persona que viaje a la velocidad de la luz (300.000km/s) al espacio extraterrestre y regrese luego de un tiempo a la tierra, vera que está llegando en una época muy distinta  en referencia a la cual se partió, para él es como si el tiempo se hubiese detenido, sin embargo, todas las generaciones que él había dejado cuando inició su viaje habían muerto.

Así con esta teoría se entiende el microcosmos como un mundo de interrelaciones quánticas  donde las partículas son entidades altamente complejas dotadas de extrañas cualidades de poder ser tanto ondas como partículas, sin ser ni lo uno ni lo otro, lo cual corresponde al principio de complementariedad de Niels Bohr, habiendo Bohr publicado su modelo orbital de la estructura del átomo en 1913. Se registra también un orden estadístico y probabilístico del movimiento de las partículas donde no se puede precisar simultáneamente de manera determinística la  posición y el momento exacta de un electrón ,sino su tendencia o probabilidad del movimiento, representando esto el principio de incertidumbre del físico Werner Heisenberg que fue jefe del proyecto de la bomba atómica alemana.

El premio Nobel asignado en Física del año 2012 fue debido a que se pudo superar este hándicap, logrando con técnicas recientes hacer observaciones u mediciones directas a partículas cuánticas sin destruirlas. Por otra parte, dentro de esta misma teoría está el principio de Linus Pauling desarrollado  en 1925, el cual señala que las leyes que rigen las partes son distintas que las leyes que rigen el todo, agregando por ultimo en este sentido lo que dijo Albert Einstein “los problemas no pueden ser resueltos desde el mismo nivel que fueron creados, debe subirse de nivel o escalón para buscar la solución”, sentándose de esta manera por todos los puntos antes expuestos las bases para el análisis y estudio del mundo de la complejidad, de incertidumbre bajo una visión sistémica dada por los principios de la física moderna.

Como consecuencia, desarrollándose de esta manera características de la posmodernidad como el mundo complejo, sistémico, cibernético y muy tecnificado, incluyendo  además la unión del sujeto y el objeto. Todavía al día de hoy está pendiente desarrollar la teoría del campo unificado, en la cual convergen las fuerzas de la gravedad, la fuerza electromagnética, la fuerza nuclear débil y la fuerza nuclear fuerte. Sin embargo, con el descubrimiento en el año 2012 del Boson de Higgs se ha dado un paso importante en este sentido.

Von Bertalanffy en 1945 funda la meta teoría general de sistema que es el paradigma bajo el cual se estudia hoy día las organizaciones en un mundo complejo, por supuesto habiéndosele agregado la cibernética de segundo grado. No es casual que el biólogo Von Bertalanffy sea reconocido y aclamado como el padre fundador de esta corriente del pensamiento sistémico, fue él quien en 1937, por vez primera, propuso la idea de una teoría general de sistemas.

Fundamentos ontológicos de los sistemas, definiendo sistema como un conjunto de elementos relacionados entre sí y su entorno que contribuyen a un fin concreto, teniendo como elemento central el feedback:

  • Todo sistema está formado por elementos.
  • Todo sistema es elemento de un sistema mayor
  • Todo sistema está relacionado con  algún otro elemento( no existen entes aislados)
  • Todo sistema tiene propiedades emergentes que proviene de la estructura del sistema debido a sus interrelaciones como un todo y se entorno.
  • Todo sistema tiene atributos que cambian pero también tiene ciertas propiedades particulares que lo identifican.
  • Todo elemento dentro del sistema hace algo.
  • Toda relación existe debido a una infraestructura que permite que fluya algo.

Para analizar un sistema hay que tomar en cuenta los elementos, las relaciones de estos consigo mismo y su entorno, las funciones que desempeñan y los atributos. Una de las características de los sistemas es la entropía, siendo éste un  concepto de la física teórica, segunda ley de la termodinámica. Los principios de la teoría de sistema pueden ser trasladados a otras ciencias como la biología, la economía, la medicina, la sociología etc., bajo el concepto de isomorfismo.

El pensamiento complejo es una forma de captar la visión global de la realidad, es una  manera de ver el mundo que nos rodea, una forma de abordar los problemas, los sistemas pueden alimentarse, la entropía positiva que tiende a amplificar las acciones de los sistemas transformándolos. La base conceptual del método sistémico son los modelos cibernéticos de retroalimentación, donde el feedback es la base y su fundador fue  Jay Wiener.

Se dice que es una metateoría de sistema porque de ella se derivó con el apoyo del desarrollo tecnológico de la materia en estado sólido y la nueva lógica matemática, la teoría de la información de Claude Shannon y la cibernética de Norbert Wiener y Stafford Beer, como luego se desarrolló también la teoría del caos de Llya Prigogine, la de catástrofe de René Thom y la de los objetos fractales de Benoit B. Mandelbrot, incluyéndose también la visión del constructivismo de los mapas mentales como elemento subjetivo del ser humano, identificándose con este elemento la cibernética de segundo grado.

La teoría del caos trata de sistemas dinámicos en condiciones de desorden, confusión, incertidumbre o inestabilidad. Esta teoría  de estructuras disipativas fue desarrollada por el premio nobel en química Llya Prigogine, siendo considerada la tercera teoría más importante en el siglo XX después de la teoría de la relatividad y la teoría cuántica. Uno de los aspectos más importante encontrado en esta teoría es la semilla del orden que está contenida en estos sistemas caóticos llamados fractales o atractores, logrando de esta manera la autoorganización de los mismos, luego de haberse transformados.

En 1961 Edward Lorenz, meteorólogo, puso la semilla de la teoría del caos descubriendo el efecto mariposa a través del fractal de Lorenz, basándose en los principios del caos desarrollados en el siglo XIX por el matemático francés Poincaré.

James Gleick dijo “el caos comienza donde la ciencia clásica se detiene”,  el matemático Benoit Mandelbrot pionero de la teoría de los objetos fractales desarrolló esta teoría en 1975, esta permite visualizar más que explicar la acción del caos. El descubrió que muchas formas o fracciones de formas irregulares constituyen el mundo natural. Así mismo, develó que a pesar del caos existente en estos sistemas dinámicos un principio de organización básico, que se repite en los distintos niveles y estructura llamados fractales o atractores que facilitan el entendimiento y comprensión de estos sistemas caóticos, determinando que la complejidad existe en el borde del caos.

Así mismo, la teoría de catástrofe del matemático René Thom está basada en el hecho de que ciertos sistemas dinámicos llegan a puntos de inflexión de no retorno denominados catastróficos, siendo procesos que sufren discontinuidades en una o varias formas, esta es una rama de la teoría de la bifurcación en los estudios de los sistemas dinámicos, además es tratado como caso especial en la teoría de singularidad en geometría fractales.

Ahora, pasando a un nivel superior a la complejidad, tenemos que la transcomplejidad en primer término implica ir contra los preceptos establecidos del conocimiento contemporáneo, ser crítico y muy reflexivo de la epistemología tradicional, y a nivel organizacional ver los procesos operativos de aseguramiento de la calidad y provisión de servicio, pero también ver los estatutos de atractores y de subjetividad bajo una visión de holograma, estableciendo una comunicación discursiva de categorías de la complejidad, conceptos y metáforas asociadas a metaredes de orden-desorden-interacción-transformación, teniendo siempre presente los principios dialógicos, de recursividad, de holograma y de borrosidad aplicando la lógica de Tarski y Godel.

Bachelard dice no existe lo simple sino lo simplificado por el hombre y donde Prigogine en su teoría del caos manifiesta que a veces pequeñas diferencias o variaciones en un sistema producen un enorme impacto en el resultado, pudiendo suceder que en casos especiales se den saltos bruscos en algún evento, dando como resultado discontinuidades u razones asintóticas calificadas como  catástrofes.

 


El periodismo independiente necesita del apoyo de sus lectores para continuar y garantizar que las noticias incómodas que no quieren que leas, sigan estando a tu alcance. ¡Hoy, con tu apoyo, seguiremos trabajando arduamente por un periodismo libre de censuras!