segunda-feira, 25 de janeiro de 2016

Mecánica cuántica



La mecánica cuántica describe, en su visión más ortodoxa, cómo en cualquier sistema físico –y por tanto, en todo el universo– existe una multiplicidad de estados resultantes de incertidumbre en la especificacion completa a partir de observables. Los estados, habiendo sido descritos mediante ecuaciones matemáticas por los físicos, son denominados estados cuánticos. De esta forma la mecánica cuántica puede explicar la existencia del átomo y revelar los misterios de la estructura atómica, tal como hoy son entendidos; fenómenos que no puede explicar debidamente la física clásica o más propiamente la mecánica clásica.

De forma específica, se considera también mecánica cuántica, a la parte de ella misma que no incorpora la relatividad en su formalismo, tan sólo como añadido mediante la teoría de perturbaciones.La parte de la mecánica cuántica que sí incorpora elementos relativistas de manera formal y con diversos problemas, es la mecánica cuántica relativista o ya, de forma más exacta y potente, la teoría cuántica de campos (que incluye a su vez a la electrodinámica cuántica, cromodinámica cuántica y teoría electrodébil dentro del modelo estándar)y más generalmente, la teoría cuántica de campos en espacio-tiempo curvo. La única interacción que no se ha podido cuantificar ha sido la interacción gravitatoria.

La mecánica cuántica es el fundamento de los estudios del átomo, su núcleo y las partículas elementales (siendo necesario el enfoque relativista). También en teoría de la información, criptografía y química.

Contexto histórico

La mecánica cuántica es, cronológicamente, la última de las grandes ramas de la física. Se formuló a principios del siglo XX, casi al mismo tiempo que la teoría de la relatividad, aunque el grueso de la mecánica cuántica se desarrolló a partir de 1920 (siendo la teoría de la relatividad especial de 1905 y la teoría general de la relatividad de 1915).

Además al advenimiento de la mecánica cuántica existían diversos problemas no resueltos en el electrodinámica clásica. El primero de estos problemas era la emisión de radiación de cualquier objeto en equilibrio, llamada radiación térmica, que es la que proviene de la vibración microscópica de las partículas que lo componen. Usando las ecuaciones de la electrodinámica clásica, la energía que emitía esta radiación térmica tendía al infinito si se suman todas las frecuencias que emitía el objeto, con ilógico resultado para los físicos. También la estabilidad de los átomos no podía ser explicada por el electromagnetismo clásico, y la noción de que el electrón fuera o bien una partícula clásica puntual o bien una cáscara de dimensiones finitas resultaban igualmente problemáticas.

Radiación electromagnética

El problema de la radiación electromagnética fue uno de los primeros problemas resueltos en el seno de la mecánica cuántica. Es en el seno de la mecánica estadística donde surgen las ideas cuánticas en 1900. Al físico alemán Max Planck se le ocurrió un artificio matemático: si en el proceso aritmético se sustituía la integral de esas frecuencias por una suma no continua, se dejaba de obtener infinito como resultado, con lo que se eliminaba el problema; además, el resultado obtenido concordaba con lo que después era medido.

Fue Max Planck quien entonces enunció la hipótesis de que la radiación electromagnética es absorbida y emitida por la materia en forma de «cuantos» de luz o fotones de energía mediante una constante estadística, que se denominó constante de Planck. Su historia es inherente al siglo XX, ya que la primera formulación cuántica de un fenómeno fue dada a conocer por el mismo Planck el 14 de diciembre de 1900 en una sesión de la Sociedad Física de la Academia de Ciencias de Berlín.

La idea de Planck habría quedado muchos años sólo como hipótesis si Albert Einstein no la hubiera retomado, proponiendo que la luz, en ciertas circunstancias, se comporta como partículas de energía independientes (los cuantos de luz o fotones). Fue Albert Einstein quien completó en 1905 las correspondientes leyes de movimiento en su teoría especial de la relatividad, demostrando que el electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que se ha dado en llamar física clásica, es decir, la física no-cuántica.

Usó este punto de vista llamado por él «heurístico», para desarrollar su teoría del efecto fotoeléctrico, publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de Física de 1921. Esta hipótesis fue aplicada también para proponer una teoría sobre el calor específico, es decir, la que resuelve cuál es la cantidad de calor necesaria para aumentar en una unidad la temperatura de la unidad de masa de un cuerpo.

El siguiente paso importante se dio hacia 1925, cuando Louis De Broglie propuso que cada partícula material tiene una longitud de onda asociada, inversamente proporcional a su masa, y dada por su velocidad. Poco tiempo después Erwin Schrödinger formuló una ecuación de movimiento para las «ondas de materia», cuya existencia había propuesto De Broglie y varios experimentos sugerían que eran reales.

La mecánica cuántica introduce una serie de hechos contraintuitivos que no aparecían en los paradigmas físicos anteriores; con ella se descubre que el mundo atómico no se comporta como esperaríamos. Los conceptos de incertidumbre o cuantización son introducidos por primera vez aquí. Además la mecánica cuántica es la teoría científica que ha proporcionado las predicciones experimentales más exactas hasta el momento, a pesar de estar sujeta a las probabilidades.

Inestabilidad de los átomos clásicos

El segundo problema importante que la mecánica cuántica resolvió a través del modelo de Bohr, fue el de la estabilidad de los átomos. De acuerdo con la teoría clásica un electrón orbitando alrededor de un núcleo cargado positivamente debería emitir energía electromagnética perdiendo así velocidad hasta caer sobre el núcleo. La evidencia empírica era que esto no sucedía, y sería la mecánica cuántica quien resolvería este hecho primero mediante postulados ad hoc formulados por Bohr y más tarde mediante modelos como el modelo atómico de Schrödinger basados en supuestos más generales. A continuación se explica el fracaso del modelo clásico.



En mecánica clásica, un átomo de hidrógeno es un tipo de problema de los dos cuerpos en que el protón sería el primer cuerpo que tiene más del 99% de la masa del sistema y el electrón es el segundo cuerpo que es mucho más ligero. Para resolver el problema de los dos cuerpos es conveniente hacer la descripción del sistema, colocando el origen del sistema de referencia en el centro de masa de la partícula de mayor masa, esta descripción es correcta considerando como masa de la otra partícula la masa reducida que viene dada por
Siendo la masa del protón y  la masa del electrón. En ese caso el problema del átomo de hidrógeno parece admitir una solución simple en la que el electrón se moviera en órbitas elípticas alrededor del núcleo atómico. Sin embargo, existe un problema con la solución clásica, de acuerdo con las predicciones de electromagnetismo una partícula eléctrica que sigue un movimiento acelerado, como sucedería al describir una elipse debería emitir radiación electromagnética, y por tanto perder energía cinética, la cantidad de energía radiada sería de hecho:


Ese proceso acabaría con el colapso del átomo sobre el núcleo en un tiempo muy corto dadas las grandes aceleraciones existentes. A partir de los datos de la ecuación anterior el tiempo de colapso sería de 10-8 s, es decir, de acuerdo con la física clásica los átomos de hidrógeno no serían estables y no podrían existir más de una cienmillonésima de segundo.

Esa incompatibilidad entre las predicciones del modelo clásico y la realidad observada llevó a buscar un modelo que explicara fenomenológicamente el átomo. El modelo atómico de Bohr era un modelo fenomenológico que explicaba satisfactoriamente algunos datos, como el orden de magnitud del radio atómico y los espectros de absorción del átomo, pero no explicaba cómo era posible que el electrón no emitiera radiación perdiendo energía. La búsqueda de un modelo más adecuado llevó a la formulación del modelo atómico de Schrödinger en el cual puede probarse que el valor esperado de la acelaración es nulo, y sobre esa base puede decirse que la energía electromagnética emitida debería ser también nula. Sin embargo, la representación cuántica de Schrödinger es difícil de entender en términos intuitivos.

Desarrollo histórico

La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad del siglo XX. El hecho de que la energía se intercambie de forma discreta se puso de relieve por hechos experimentales como los siguientes, inexplicables con las herramientas teóricas anteriores de la mecánica clásica o la electrodinámica:

Espectro de la radiación del cuerpo negro, resuelto por Max Planck con la cuantización de la energía. La energía total del cuerpo negro resultó que tomaba valores discretos más que continuos. Este fenómeno se llamó cuantización, y los intervalos posibles más pequeños entre los valores discretos son llamados quanta (singular: quantum, de la palabra latina para «cantidad», de ahí el nombre de mecánica cuántica). La magnitud de un cuanto es un valor fijo llamado constante de Planck, y que vale: 6.626 ×10-34 julios por segundo.
Bajo ciertas condiciones experimentales, los objetos microscópicos como los átomos o los electrones exhiben un comportamiento ondulatorio, como en la interferencia. Bajo otras condiciones, las mismas especies de objetos exhiben un comportamiento corpuscular, de partícula, («partícula» quiere decir un objeto que puede ser localizado en una región concreta del espacio), como en la dispersión de partículas. Este fenómeno se conoce como dualidad onda-partícula.
Las propiedades físicas de objetos con historias asociadas pueden ser correlacionadas, en una amplitud prohibida para cualquier teoría clásica, sólo pueden ser descritos con precisión si se hace referencia a ambos a la vez. Este fenómeno es llamado entrelazamiento cuántico y la desigualdad de Bell describe su diferencia con la correlación ordinaria. Las medidas de las violaciones de la desigualdad de Bell fueron algunas de las mayores comprobaciones de la mecánica cuántica.
Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a aparecer esa "misteriosa" necesidad de cuantizar la energía.
Efecto Compton.
El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de varios físicos y matemáticos de la época como Schrödinger, Heisenberg, Einstein, Dirac, Bohr y Von Neumann entre otros (la lista es larga). Algunos de los aspectos fundamentales de la teoría están siendo aún estudiados activamente. La mecánica cuántica ha sido también adoptada como la teoría subyacente a muchos campos de la física y la química, incluyendo la física de la materia condensada, la química cuántica y la física de partículas.

La región de origen de la mecánica cuántica puede localizarse en la Europa central, en Alemania y Austria, y en el contexto histórico del primer tercio del siglo XX.

Suposiciones más importantes

Las suposiciones más importantes de esta teoría son las siguientes:

Al ser imposible fijar a la vez la posición y el momento de una partícula, se renuncia al concepto de trayectoria, vital en mecánica clásica. En vez de eso, el movimiento de una partícula 'puede ser explicado por una función matemática que asigna, a cada punto del espacio y a cada instante, la probabilidad de que la partícula descrita se halle en tal posición en ese instante (al menos, en la interpretación de la Mecánica cuántica más usual, la probabilística o interpretación de Copenhague). A partir de esa función, o función de ondas, se extraen teóricamente todas las magnitudes del movimiento necesarias.
Existen dos tipos de evolución temporal, si no ocurre ninguna medida el estado del sistema o función de onda evolucionan de acuerdo con la ecuación de Schrödinger, sin embargo, si se realiza una medida sobre el sistema, éste sufre un «salto cuántico» hacia un estado compatible con los valores de la medida obtenida (formalmente el nuevo estado será una proyección ortogonal del estado original).
Existen diferencias perceptibles entre los estados ligados y los que no lo están.
La energía no se intercambia de forma continua en un estado ligado, sino en forma discreta lo cual implica la existencia de paquetes mínimos de energía llamados cuantos, mientras en los estados no ligados la energía se comporta como un continuo.

Descripción de la teoría

Interpretación de Copenhague

Para describir la teoría de forma general es necesario un tratamiento matemático riguroso, pero aceptando una de las tres interpretaciones de la mecánica cuántica (a partir de ahora la Interpretación de Copenhague), el marco se relaja. La mecánica cuántica describe el estado instantáneo de un sistema (estado cuántico) con una función de onda que codifica la distribución de probabilidad de todas las propiedades medibles, u observables. Algunos observables posibles sobre un sistema dado son la energía, posición, momento y momento angular. La mecánica cuántica no asigna valores definidos a los observables, sino que hace predicciones sobre sus distribuciones de probabilidad. Las propiedades ondulatorias de la materia son explicadas por la interferencia de las funciones de onda.

Estas funciones de onda pueden variar con el transcurso del tiempo. Esta evolución es determinista si sobre el sistema no se realiza ninguna medida aunque esta evolución es estocástica y se produce mediante colapso de la función de onda cuando se realiza una medida sobre el sistema (Postulado IV de la MC). Por ejemplo, una partícula moviéndose sin interferencia en el espacio vacío puede ser descrita mediante una función de onda que es un paquete de ondas centrado alrededor de alguna posición media. Según pasa el tiempo, el centro del paquete puede trasladarse, cambiar, de modo que la partícula parece estar localizada más precisamente en otro lugar. La evolución temporal determinista de las funciones de onda es descrita por la Ecuación de Schrödinger.

Algunas funciones de onda describen estados físicos con distribuciones de probabilidad que son constantes en el tiempo, estos estados se llaman estacionarios, son estados propios del operador hamiltoniano y tienen energía bien definida. Muchos sistemas que eran tratados dinámicamente en mecánica clásica son descritos mediante tales funciones de onda estáticas. Por ejemplo, un electrón en un átomo sin excitar se dibuja clásicamente como una partícula que rodea el núcleo, mientras que en mecánica cuántica es descrito por una nube de probabilidad estática que rodea al núcleo.

Cuando se realiza una medición en un observable del sistema, la función de ondas se convierte en una del conjunto de las funciones llamadas funciones propias o estados propios del observable en cuestión. Este proceso es conocido como colapso de la función de onda. Las probabilidades relativas de ese colapso sobre alguno de los estados propios posibles son descritas por la función de onda instantánea justo antes de la reducción. Considerando el ejemplo anterior sobre la partícula en el vacío, si se mide la posición de la misma, se obtendrá un valor impredecible x. En general, es imposible predecir con precisión qué valor de x se obtendrá, aunque es probable que se obtenga uno cercano al centro del paquete de ondas, donde la amplitud de la función de onda es grande. Después de que se ha hecho la medida, la función de onda de la partícula colapsa y se reduce a una que esté muy concentrada en torno a la posición observada x.

La ecuación de Schrödinger es en parte determinista en el sentido de que, dada una función de onda a un tiempo inicial dado, la ecuación suministra una predicción concreta de qué función tendremos en cualquier tiempo posterior. Durante una medida, el eigen-estado al cual colapsa la función es probabilista y en este aspecto es no determinista. Así que la naturaleza probabilista de la mecánica cuántica nace del acto de la medida.

Formulación matemática

En la formulación matemática rigurosa, desarrollada por Dirac y von Neumann, los estados posibles de un sistema cuántico están representados por vectores unitarios (llamados estados) que pertenecen a un Espacio de Hilbert complejo separable (llamado el espacio de estados). Qué tipo de espacio de Hilbert es necesario en cada caso depende del sistema; por ejemplo, el espacio de estados para los estados de posición y momento es el espacio de funciones de cuadrado integrable , mientras que la descripción de un sistema sin traslación pero con un espín es el espacio{C}^{2n+1}. La evolución temporal de un estado cuántico queda descrita por la ecuación de Schrödinger, en la que el hamiltoniano, el operador correspondiente a la energía total del sistema, tiene un papel central.

Cada magnitud observable queda representada por un operador lineal hermítico definido sobre un dominio denso del espacio de estados. Cada estado propio de un observable corresponde a un eigenvector del operador, y el valor propio o eigenvalor asociado corresponde al valor del observable en aquel estado propio. El espectro de un operador puede ser continuo o discreto. La medida de un observable representado por un operador con espectro discreto sólo puede tomar un conjunto numerable de posibles valores, mientras que los operadores con espectro continuo presentan medidas posibles en intervalos reales completos. Durante una medida, la probabilidad de que un sistema colapse a uno de los eigenestados viene dada por el cuadrado del valor absoluto del producto interior entre el estado propio o auto-estado (que podemos conocer teóricamente antes de medir) y el vector estado del sistema antes de la medida. Podemos así encontrar la distribución de probabilidad de un observable en un estado dado computando la descomposición espectral del operador correspondiente. El principio de incertidumbre de Heisenberg se representa por la aseveración de que los operadores correspondientes a ciertos observables no conmutan.

Relatividad y la mecánica cuántica

El mundo moderno de la física se funda notablemente en dos teorías principales, la relatividad general y la mecánica cuántica, aunque ambas teorías usan principios aparentemente incompatibles. Los postulados que definen la teoría de la relatividad de Einstein y la teoría del quántum están apoyados por rigurosa y repetida evidencia empírica. Sin embargo, ambas se resisten a ser incorporadas dentro de un mismo modelo coherente. Desde mediados del siglo XX, aparecieron teorías cuánticas relativistas del campo electromagnético (electrodinámica cuántica) y las fuerzas nucleares (modelo electrodébil, cromodinámica cuántica), pero hasta la fecha (2016) no se tiene una teoría cuántica relativista del campo gravitatorio que sea plenamente consistente y válida para campos gravitatorios intensos (existen aproximaciones en espacios asintóticamente planos). Todas las teorías cuánticas relativistas consistentes usan los métodos de la teoría cuántica de campos.

En su forma ordinaria, la teoría cuántica abandona algunos de los supuestos básicos de la teoría de la relatividad, como por ejemplo el principio de localidad usado en la descripción relativista de la causalidad. El mismo Einstein había considerado absurda la violación del principio de localidad a la que parecía abocar la mecánica cuántica. La postura de Einstein fue postular que la mecánica cuántica si bien era consistente era incompleta. Para justificar su argumento y su rechazo a la falta de localidad y la falta de determinismo, Einstein y varios de sus colaboradores postularon la llamada paradoja de Einstein-Podolsky-Rosen (EPR), la cual demuestra que medir el estado de una partícula puede instantáneamente cambiar el estado de su socio enlazado, aunque las dos partículas pueden estar a una distancia arbitrariamente grande. Modernamente el paradójico resultado de la paradoja EPR se sabe es una consecuencia perfectamente consistente del llamado entrelazamiento cuántico. Es un hecho conocido que si bien la existencia del entrelazamiento cuántico efectivamente viola el principio de localidad, en cambio no viola la causalidad definido en términos de información, puesto que no hay transferencia posible de información. Si bien en su tiempo, parecía que la paradoja EPR suponía una dificultad empírica para mecánica cuántica, y Einstein consideró que la mecánica cuántica en la interpretación de Copenhague podría ser descartada por experimento, décadas más tarde los experimentos de Alain Aspect (1981) revelaron que efectivamente la evidencia experimental parace apuntar en contra del principio de localidad.Y por tanto, el resultado paradójico que Einstein rechazaba como "sin sentido" parece ser lo que sucede precisamente en el mundo real.

Geometría sagrada



El término Geometría Sagrada hace referencia al conjunto de formas geométricas que se encuentran presentes en el diseño de ciertos sitios considerados sagrados, principalmente iglesias, catedrales y mezquitas, junto con los significados simbólicos y esotéricos que se les atribuyen en base a sus propiedades.Debido a su trasfondo religioso y filosófico, su énfasis en la geometría y la matemática y su relación con la construcción de catedrales, la geometría sagrada es asociada con la masonería. Algunas personas que trabajan con la geometría sagrada afirman que estimula ambos hemisferios cerebrales a la vez; el derecho por estar relacionado con habilidades artísticas y viso-espaciales, y el izquierdo por estar relacionado con la matemática y la lógica, aunque cabe aclarar que esto se trata de una sobresimplificación de la actividad cerebral y la especialización de cada hemisferio.

Fundamentos de diseño

En todo diseño se tienen en cuenta cuatro componentes, lo conceptual, lo visual, lo relacional y lo práctico. Son elementos conceptuales aquellos que no son visibles: Son el punto, la línea, el plano y el volumen. Cuando los elementos conceptuales se hacen visibles, adquieren forma.

Las figuras geométricas

La palabra 'forma' se confunde con 'figura'. No obstante, una forma tri-dimensional puede tener múltiples figuras bi-dimensionales, cuando se la ve sobre una superficie lisa. La forma es entonces la apariencia visual total de un diseño y se identifica por su figura, tamaño, color y textura. La geometría descriptiva ha sido la encargada de la representación gráfica en superficies bidimensionales, de resolver los problemas del espacio en los que intervienen puntos, líneas y planos. Mediante proyecciones, translada los puntos de una figura a una superficie. Tal rama de la geometría resume la teoría del dibujo técnico.

El número Pi

El número pi es la relación entre la longitud de la circunferencia y su diámetro.

La sección áurea

El número áureo y la sección áurea están presentes en todos los objetos geométricos regulares o semiregulares en los que haya simetría pentagonal, pentágonos o aparezca de alguna manera la raíz cuadrada de cinco.

Relaciones entre las partes del pentágono.
Relaciones entre las partes del pentágono estrellado, pentáculo o pentagrama.
Relaciones entre las partes del decágono.
Relaciones entre las partes del dodecaedro y del icosaedro.

Los sólidos platónicos

Para Platón, hay cinco sólidos tridimensionales de aristas, ángulos y caras iguales, tales sólidos platónicos son: el tetraedro, el cubo, el octaedro, el icosaedro y el dodecaedro. Esta exposición la hace en su diálogo el Timeo, en el que plantea que de la quinta combinación, (dodecaedro) a Dios le sirvió para trazar el plano del universo.

Tetraedro – Fuego
Cubo – Tierra
Octaedro – Agua
Icosaedro – Agua
Dodecaedro – Eter o Akasha

Interpretación

Para Blavatsky la geometría es la quinta llave que permite interpretar la vida, las cuatro primeras son: La fisiológica, la psicológica, la astrológica y la metafísica, la sexta es la simbólica y la séptima la matemática.

Fisiología

Desde la fisiología la aplicación de la geometría se puede encontrar en el Hombre vitruviano propuesto por Leonardo da Vinci y Luca Paccioli. Acorde al pentalfa y su correspondiente sección aurea: cuando las relaciones del perímetro son iguales, se produce la relación pi y el número Φ (véase también: Matila Ghyka) . Para Fritjof Capra los tres criterios clave para la vida y sus teorías subyacentes son:

El patrón de organización, como configuración de relaciones (forma, orden y cualidad) que determina las características esenciales del sistema.
La estructura o la corporeización física (substancia, materia, cantidad) del patrón de organización del sistema.
El proceso vital como actividad involucrada en la continua corporeización física.
Rupert Sheldrake postula la existencia de los campos morfogenéticos, como agentes causales del desarrollo y mantenimiento de la forma biológica.

Los siete chakras están ubicados en el cuerpo humano de forma armónica, mediante los cuales ascienden espirales energéticas formando un ángulo de 90 grados a medida que pasan de un chakra el siguiente.

Psicología

La Psicología de la Gestalt plantea la existencia de todos irreductibles como un aspecto clave de la percepción. Se perciben patrones perceptuales integrados, conjuntos organizados dotados de significado. Para Carl Jung, un Mándala es un arquetipo (Jung) que representa los contenidos de conciencia de una persona, la manera como codifica la luz del conocimiento.

Astrología

Desde la astrología la división del zodíaco en doce partes, permite la comprensión del proceso de la vida, y se resume en tres libros en los cuales estudian y aprenden tres tipos de seres humanos.

El libro de la Vida. Las doce constelaciones. Para Iniciados.
El libro de la Sabiduría. Los doce planetas. Para Discípulos.
El libro de la Forma. Las doce jerarquías creadoras. Para la humanidad.
Por lo tanto, la astrología trata de la vida y las vidas, que animan los "puntos de luz" dentro de la vida universal.

Metafísica

Desde la metafísica el símbolo más representativo es el cubo de Metatrón, ya que contiene la réplica tridimensional de cuatro de los cinco sólidos platónicos, a los que Pitágoras llamaba sólidos perfectos. En las Escuelas de Egipto, a estas cinco formas, más la esfera se les consideraba originarias de los cinco elementos primordiales: tierra, fuego, aire, agua y éter.

Geometría

Teniendo en cuenta la geometría, la vida se inicia como un óvulo o esfera, pasa a convertirse en un tetraedro, después en una estrella tetraédrica y posteriormente en un cubo, a continuación en una nueva esfera y termina en un corpúsculo tubular.

Simbología

De acuerdo con la semiótica, un símbolo es la representación de una idea. Para Djwhal Khul la representación del punto, la línea, el triángulo, el cuadrado, la cruz, el pentágono y el círculo, significa el reconocimiento de un vínculo con el conocimiento que ha determinado el desarrollo hasta la fecha. Plantea que en todas las razas hay siete formas análogas y actualmente son veintiuno los símbolos básicos que en forma geométrica encierran los conceptos de la civilización. Están adquiriendo forma el loto y la antorcha flamígera.

La esfera giratoria de materia puede ser representada empleando los mismos símbolos generales cósmicos que se utilizan para representar la evolución:

El círculo representa el límite de la materia indiferenciada.
La circunferencia con un punto en el centro representa la producción de calor en el corazón de la materia como un punto de fuego.
La división del círculo en dos partes, marca la rotación activa y la iniciación del movimiento del átomo de la materia.
La división del círculo en cuatro partes representa la cruz de brazos iguales del espíritu santo, personificación de la materia inteligente activa. Como símbolo astrológico representa el planeta Tierra.
La Esvástica representa el fuego que se extiende de la periferia al centro en cuatro direcciones, que circula e irradia gradualmente alrededor de toda ella.

Matemática

Leonardo Fibonacci fue el matemático que descubrió determinado orden en el crecimiento de las plantas. La secuencia es 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233... Si se divide un término de esta secuencia por el anterior, repitiendo el proceso el número se va acercando a 1,6180339 (89/55), coincidiendo con el número áureo definido por Euclides. La causa de este modelo secuencial se encuentra en la espiral media dorada que gira sin principio ni fin.

En matemáticas, rosa polar es el nombre que recibe cualquier miembro de una familia de curvas de ecuación r(\theta) = \cos (k\theta)\, por asemejarse a una flor de pétalos. Esta familia, también conocida como rhodoneas (del griego rhodon, rosa), fue estudiada por el matemático italiano Luigi Guido Grandi, en torno al 1725, en su libro Flores Geometrici.

Geometría fractal

Sucesivos pasos de la construcción de la curva de Koch.
Fritjof Capra relaciona la geometría con las matemáticas de la complejidad para argumentar que la comprensión del patrón es fundamental para el entendimiento de la trama de la vida y que todas las cuestiones de patrón, orden y complejidad son esencialmente matemáticas.

Fue el matemático polaco naturalizado francés Benoît Mandelbrot, quien acuñó el término fractal para describir la geometría de una gran variedad de fenómenos naturales irregulares. La trama de la vida sería una estructura base de la conciencia, que distribuye cada totalidad como fractales de la estructura base. La matriz, por ende, tiende a ser una estructura de luz que engloba todo acondicionamiento de conciencia para ser esta estructura. En la psicología arquetípica, se le conoce a este patrón de luz como mandala.

Principio holográfico

El principio holográfico es una conjetura especulativa acerca de las teorías de la gravedad cuántica propuesta en 1993 por Gerard 't Hooft, y mejorada y promovida por Leonard Susskind en 1995. Postula que toda la información contenida en cierto volumen de un espacio concreto se puede conocer a partir de la información codificable sobre la frontera de dicha región. Una importante consecuencia es que la cantidad máxima de información que puede contener una determinada región de espacio rodeada por una superficie diferenciable está limitada por el área total de dicha superficie.

Por ejemplo, se pueden modelar todos los eventos que ocurran en un cuarto o habitación creando una teoría en la que sólo tome en cuenta lo que suceda en sus paredes. En el principio holográfico también se afirma que por cada cuatro unidades de Planck existe al menos un grado de libertad (o una unidad constante de Boltzmann k de máxima entropía). Esto se conoce como frontera Bekenstein:donde S es la entropía y A es la unidad de mensura considerada. En unidades convencionales la fórmula anterior se escribe:



donde:

k, es la constante de Boltzmann.
c, es la velocidad de la luz.
G, es la constante de la gravitación universal.
hbar, es la constante de Planck racionalizada.
lP es la longitud de Planck.

Relación entre el principio holográfico y la estructura del universo

En un sentido más amplio y más especulativo, la teoría sugiere que el universo entero puede ser visto como una estructura de información de dos dimensiones "pintada" en el horizonte cosmológico, de tal manera que las tres dimensiones que observamos serían sólo una descripción eficaz a escalas macroscópicas y en bajas energías; por lo que entonces el universo sería en realidad un holograma. El principio holográfico no se ha hecho aún matemáticamente preciso, en parte debido a que el horizonte cosmológico tiene un área finita y crece con el tiempo.

Explicación

Dada cualquier región compacta (cerrada, es decir, que contiene a su frontera y acotada, es decir que puede meterse dentro de otra región, por ejemplo una caja de las mismas dimensiones que la región acotada en cuestión) de espacio finita, por ejemplo una esfera, en su interior hay materia y energía. Si la energía sobrepasa una densidad crítica, la teoría de la relatividad general predice que dicha región colapsará en un agujero negro (u hoyo negro). Teóricamente, el agujero negro resultante posee entropía.Esto último se desprende de los trabajos de J. Bekenstein y S. Hawking en la década de 1970, que demostraron que dicha entropía es directamente proporcional al área de la superficie del horizonte de sucesos del agujero negro. Diversos argumentos físicos, permiten establecer que los agujeros negros son objetos de entropía máxima,así que la entropía contenida en determinada región del «espacio» no puede ser mayor que la entropía del agujero negro más grande que pueda caber en tal volumen. Este límite se conoce como frontera Bekenstein.

El «horizonte de sucesos» de un agujero negro encierra un volumen. Obviamente, los horizontes de sucesos de agujeros negros de mayor masa son más grandes y encierran mayores volúmenes. El agujero negro de mayor masa que puede caber en una región dada es aquél cuyo horizonte de sucesos corresponda exactamente a la frontera de la región dada. Una mayor masa de un agujero implicará que dicho agujero tendrá mayor entropía. Por lo tanto, el límite máximo de la entropía de una región ordinaria del espacio es directamente proporcional al área superficial de ésta, no a su volumen. Pero este resultado es contraintuitivo, debido a que la entropía es una magnitud extensiva, por lo que se esperaría que fuera directamente proporcional a la masa, la cual es proporcional al volumen.

Si la entropía (que puede entenderse como el número de estados microscópicos que forman un estado macroscópico dado) de una masa ordinaria (no sólo de agujeros negros) es también proporcional a su área superficial, implica que de algún modo el volumen en sí mismo sea ilusorio: que la masa ocupe área, no volumen, y que entonces el universo sea en realidad un holograma, el cual es isomórfico a la información inscrita en sus fronteras.El trabajo de Juan Maldacena sugirió que en cromodinámica cuántica hay sistemas reales que efectivamente satisfacen esta propiedad holográfica, lo cual es interpretada por Susskind y otros proponentes del principio holográfico como una evidencia en favor de que la gravedad cuántica podría presentar igualmente esa propiedad.

Límite de densidad informativa

Considerada como información, en última instancia la entropía se puede cuantificar en bits o nats. Un nat corresponde a cerca de 1.44 bits, y a cuatro unidades de Planck. La cantidad total de bits se relaciona con el total de grados de libertad de la materia/energía. Los bits mismos codificarían la información acerca de los estados que esté ocupando esa materia/energía.

En un volumen dado hay un límite superior a la densidad de la información acerca del lugar de todas las partículas que compongan la materia en ese volumen. Sugiriendo que la materia en sí misma no se puede subdividir infinitas veces, debe haber un último nivel de partículas fundamentales. Es decir, siendo una partícula integrada por subpartículas, los grados de libertad de cada partícula serían producto de todos los grados de libertad de sus subpartículas.

Si estas subpartículas también están divididas en subpartículas (infrapartículas), y así indefinidamente, los grados de libertad de la partícula original deberían ser infinitos, lo cual violaría el límite máximo de la densidad de entropía. El principio holográfico implica así que las subdivisiones deben detenerse en cierto nivel, y que la partícula fundamental es un bit (1 ó 0) de la información.

La realización más rigurosa del principio holográfico (hasta el año 2009) es la correspondencia AdS/CFT de Juan Maldacena. Sin embargo, J. D. Brown y Marc Henneaux demostraron rigurosamente, ya en 1986, que la simetría asintótica de 2 + 1 g dimensiones da lugar a una álgebra de Virasoro, cuya correspondiente teoría cuántica es una teoría de «bidimensional conforme de campos».

Resumen

Hay que entender el principio holográfico como un cubo, o bien como habitación, tal como se describe en la introducción. Si a un cubo se le representa en un eje de coordenadas resultarían tres cuadrados. Cada partícula tiene carga eléctrica, momento angular, etcétera. Todo ello constituye valores matemáticos representables no en tres, sino en muchos más ejes. En eso consistiría la información de la citada partícula.

También se entiende que cuando la densidad de tal información es enorme acaba siendo un agujero negro (información/partículas en demasía por el espacio definido): a más información más horizonte de sucesos, o límite exterior del hoyo negro. Como tal, la información se puede dividir en bits, y estos bits se plasman en una unidad de Planck. En palabras sencillas la parte de algo contiene la información del todo. Por ejemplo, si tomamos una manzana y lo convertimos en mil pedazos, cada pedazo tiene la información de la manzana completa.

Multiverso Parte 2


Multiverso é um termo usado para descrever um hipotético grupo de todos os universos possíveis. É geralmente usado na ficção científica, embora também como possível extrapolação de algumas teorias científicas, para descrever um grupo de universos que estão relacionados, os denominados universos paralelos. A ideia de que o universo que se pode observar é só uma parte da realidade física deu luz à definição do conceito "multiverso".

Conceito

O conceito de Multiverso tem suas raízes em extrapolações até o momento não científicas da moderna Cosmologia e na Teoria Quântica, e engloba também várias ideias oriundas da Teoria da Relatividade de modo a configurar um cenário em que pode ser possível a existência de inúmeros Universos onde, em escala global, todas as probabilidades e combinações dessas ocorram em algum dos universos. Simplesmente há espaço suficiente para acoplar outros universos numa estrutura dimensional maior: o chamado Multiverso.

Os Universos seriam, em uma analogia, semelhantes a bolhas de sabão flutuando num espaço maior capaz de abrigá-las. Alguns seriam até mesmo interconectados entre si por buracos negros ou de buracos de minhoca.

Em termos de interpretações da Mecânica Quântica, que, ao contrário da Mecânica Quântica em si, não são cientificamente estabelecidas, a Interpretação de Vários Mundos fornece uma visão que implica um multiverso. Nessa visão, toda vez que uma decisão quântica tem de ser tomada - em termos técnicos, toda vez que há uma redução da função de onda de um estado emaranhado - dois ou mais universos independentes e isolados surgem, um para cada opção quântica possível. Vivemos no universo no qual as decisões quânticas adequadas levam à nossa existência.

Devido ao fato da conjectura de multiverso ser essencialmente ideológica, não havendo, atualmente, qualquer tipo de prova tecnicamente real, a "teoria dos universos paralelos" ou "multiverso" é em essência uma teoria não científica. Nesse ponto, aliada à completa ausência de evidência científica, há ainda a questão concernente à compatibilidade com as teorias científicas já estabelecidas e os rumos diretamente apontados por essas. No conceito de multiverso, imagina-se um esquema em que todas os universos (as bolhas de sabão) agregavam-se mutuamente por uma infinita vastidão. Tal conceito de Multiverso implica numa contradição em relação à atual busca pela Teoria do Campo Unificado ou pela Teoria do Tudo, uma vez que em cada Universo pode-se imaginar que haja diferentes Leis Físicas.

Ressalta-se, contudo, que a Teoria do Campo Unificado e a Teoria do Tudo são, assim como a Teoria das Cordas e outras similares, em vista dos rigores do Método Científico, pelo menos até o momento, teorias não científicas. A exemplo, a Teoria M prevê que nosso universo possua em verdade 11 dimensões. Factualmente, vivemos, contudo, em um universo quadridimensional, descrito por três dimensões espaciais e uma temporal interligadas entre si no que se denomina malha espaço-tempo.

Evidências

A idéia de que vivemos em um 'multiverso' composto por um número infinito de universos paralelos tem sido, por muitos anos, considerada uma possibilidade científica. A corrida era para encontrar uma maneira de testar a teoria. Em 2015, um astrofísico pode ter encontrado evidências de universos alternativos ou paralelos, olhando de volta no tempo para um momento imediatamente depois do Big Bang, embora ainda seja uma questão de debate entre os físicos. Dr. Ranga-Ram Chary, após a análise do espectro de radiação cósmica, Chary encontrou um sinal de que é cerca de 4500 vezes mais brilhante do que deveria ter sido, com base no número de prótons e elétrons cientistas acreditam que existia no início do universo, assim, demonstrando sinais de colisões com outros universos.

Multiverso, ciência e religião

As diferentes teorias de Multiverso são por muitos utilizadas para contraposição à ideia do Design Inteligente e seu Argumento da Improbabilidade ou Argumento do Universo Bem Ajustado. Ou seja, são utilizadas por muitos como explicação para a pré-assumida "improbabilidade estatística" das leis da física e das constantes físicas fundamentais serem "tão bem ajustadas" para permitirem a construção do universo tal qual o conhecemos; em particular um universo capaz de abrigar vida inteligente com habilidade de indagar sobre a história do próprio universo em que existe. A ideia central dos adeptos de tal linha de pensamento é a de que, se existem múltiplos universos, em um número extremamente grande, a probabilidade de pelo menos um deles se desenvolver com leis e constantes capazes de possibilitar a vida se torna plausível em meio a um multiverso de universos diferentes estocasticamente estabelecidos, assim explicando-se o "ajuste" de nosso universo sem ter-se que recorrer à ideia de um "ajuste fino" cogitado no argumento associado.

Tal argumentação é comum em discussões envolvendo os defensores da existência de um "projetista inteligente" e os defensores de sua inexistência, defensores últimos que buscam uma resposta alternativa à questão decorrente da inexistência do projetista onipotente para o universo através da extrapolação das regras científicas encerradas na teoria da evolução biológica ao restante do universo, contudo sem as pertinentes considerações, o que leva à ideia do multiverso como resposta às estipuladas "particularidades" de nosso universo defendidas pela outra ala. O uso de tal linha de raciocínio e resposta é contudo desaconselhado sem acompanhamento dos devidos rigores, e especificamente falho no caso do Multiverso. Ele falha essencialmente por desconsiderar que a existência do multiverso não é cientificamente estabelecida, consistindo o argumento por tal apenas em se trocar uma crença por outra; a crença do "projetista inteligente"pela crença do "multiverso". Falha também porque ignora indagações acerca das leis, incluso as de seleção, que regeriam o multiverso, o que levaria de novo à mesma condição inicial: por que o multiverso tem regras capazes de estabelecer a miríade de universos tão distintos que, em um deles, quer via alguma regra de seleção quer não, acabar-se-ia tendo a vida como possível, e acabar-se-ia tendo a vida por realidade?

Importante perceber que a invalidação da resposta via multiverso não implica a validade do argumento do "Universo Bem Ajustado" via um "projetista inteligente", contudo. Este argumento é também falho, e falha essencialmente no mesmo ponto em que o primeiro falhou. Em verdade, a falha primordial é mais sutil e comum às duas alternativas de resposta. A falha vai além das respostas, e encontra-se essencialmente na pergunta que visam a responder.

O conceito de um "universo finamente ajustado" funda-se logicamente na premissa da existência de um objetivo final, de uma teleologia, para o universo: usualmente, "o universo existe com a finalidade de nele haver vida, em específico vida inteligente"; e em particular para alguns dos bons egos que defendem a ideia de "ajuste fino", uma teleologia que traduz-se explicitamente na afirmação "o universo existe e foi concebido para o meu umbigo existir". A premissa contudo não é, assim como a ideia de multiverso, factualmente corroborada. Factualmente não há nada que implique que o universo foi concebido para um "umbigo em particular" existir, quer seja esse umbigo um ser humano em particular, quer seja ele a vida que sabemos ter se desenvolvido em nosso universo, ou quer seja ele uma simples simples garrafa pet ou um outro objeto de plástico qualquer.

Selecionar algo que, em consonância com as leis que nele vigoram, é sabido existir em nosso universo, e afirmar que o universo foi ajustado para que este algo viesse a existir, é uma atitude certamente muito atrativa quando esse algo é em particular o "seu umbigo", e ao fim, essencialmente egocêntrica; para não dizer fatídica demais. A teleologia usual que propõe-se para o universo é facilmente questionável em vista do número de estrelas bem como de sistemas estelares hoje sabido existentes em nosso universo quando comparado ao que se tem de concreto sobre a existência de vida no mesmo universo; e a crítica torna-se ainda mais contundente frente à parcela volumétrica do universo efetivamente capaz de abrigar vida. Foram o universo e a Terra finamente "ajustados" para abrigar vida, ou é a vida que por ventura surgiu e adapta-se, a duras e mortais penas, a um inóspito ambiente, para nele continuar existindo durante o tempo que for possível? Factualmente, há para essa pergunta uma resposta científica, e esta fica evidente ao se considerar o destino da Terra daqui há alguns bilhões de anos, quando nosso Sol entrar na etapa final do seu ciclo natural.

A ideia do "universo finamente ajustado" é, nesses termos, uma ideia suportada essencialmente pelo ego, e não por evidências científicas; e como tal, pelo mesmo motivo da ideia de multiverso, também não é uma ideia científica. E frente à invalidade da pergunta teleológica, não importa se o universo conhecido é único ou um entre uma miríade em um Multiverso: em ambos os casos poderíamos igualmente estar - e estamos - aqui, mesmo estabelecida a ausência de teleologia atrelada. E não se precisa da validade da última hipótese - do Multiverso - para descartá-la.

Multiverso Parte 1


Um multiverso ou multiuniverso é um conjunto de muitos universos. Existem muitos usos específicos do conceito, bem como sistemas nos quais é proposto que exista um multiverso. Ele pode significar:

Em física e cosmologia:

Multiverso (ciência): a teoria das cordas, estudos sobre a enigmática matéria escura e os resultados obtidos sobre a expansão crescente e sem retorno do nosso universo parecem exigir uma resposta que rompe com um paradigma fundamental - o universo é infinito e nele tudo está contido. A teoria do multiverso traz o sentido no nome: existiriam infindáveis universos numa espécie de queijo de energia quântica, onde bolhas se formam e somem sem parar. O nosso universo seria um deles.

Multiverso (cosmologia): Através do Hubble e outros telescópios, os físicos buscavam a comprovação de uma teoria: a de que a velocidade de expansão do universo chegaria a um limite provocado pela força da gravidade, e depois de bilhões de anos as galáxias voltariam a encolher e a se aproximar, até se condensarem novamente do ponto único primitivo de massa e energia absolutas - dando origem a mais um Big Bang. Encontraram o contrário. Não só a velocidade de expansão não está diminuindo como está aumentando. Ao fim das eras, nosso universo vai se desfazer no éter. De galáxias a estrelas, por fim até os átomos e moléculas irão se separar e nossa bolha de energia terá, enfim, estourado, como uma bolha de sabão.
Isto, frequentemente, é o resultado de tentativas para racionalizar a matemática subjacente na teoria quântica da cosmologia.

Interpretação de muitos mundos da física quântica, a qual propôs uma alternativa ao colapso da função onda. Cada evento não-determinístico efetivamente "divide" o mundo em dois ramos.
Teoria do universo-bolha (também conhecida como Teoria da bolha), na qual novos universos brotam dos antigos.
Universo oscilante, uma teoria na qual o universo vivencia infinitos "Big Crunches" seguidos por infinitos "Big Bangs". Cada universo sucede ao anterior.
Teoria da inflação caótica, a qual propõe uma teoria de multiverso aberto.

Universos paralelos



Universos paralelos es el nombre de una hipótesis física, en la que entran en juego la existencia de varios universos o realidades relativamente independientes. El desarrollo de la física cuántica, y la búsqueda de una teoría unificada (teoría cuántica de la gravedad), conjuntamente con el desarrollo de la teoría de cuerdas, han hecho entrever la posibilidad de la existencia de múltiples universos paralelos conformando un multiverso.

Universos paralelos o términos similares también se encuentran como temáticas de la literatura, particularmente en lo que por ejemplo se refiere al género literario fantastique.

Universos paralelos en física

Teoría de los universos

Una de las versiones científicas más curiosas que recurren a los universos paralelos es la interpretación de los universos múltiples o interpretación de los mundos múltiples (IMM), de Hugh Everett.Dicha teoría aparece dentro de la mecánica cuántica como una posible solución al problema de la medida en mecánica cuántica. Everett describió su interpretación más bien como una metateoría. Desde un punto de vista lógico la construcción de Everett evade muchos de los problemas asociados a otras interpretaciones más convencionales de la mecánica cuántica. Recientemente, sin embargo, se ha propuesto que universos adyacentes al nuestro podrían dejar una huella observable en la radiación de fondo de microondas, lo cual abriría la posibilidad de probar experimentalmente esta teoría.El problema de la medida es uno de los principales «frentes filosóficos» que abre la mecánica cuántica. Si bien la mecánica cuántica ha sido la teoría física más precisa hasta el momento, permitiendo hacer cálculos teóricos relacionados con procesos naturales que dan 20 decimales correctos y ha proporcionado una gran cantidad de aplicaciones prácticas (centrales nucleares, relojes de altísima precisión, ordenadores), existen ciertos puntos difíciles en la interpretación de algunos de sus resultados y fundamentos (el premio Nobel Richard Feynman llegó a bromear diciendo «creo que nadie entiende verdaderamente la mecánica cuántica»).

El problema de la medida se puede describir informalmente del siguiente modo:

De acuerdo con la mecánica cuántica un sistema físico, por ejemplo un conjunto de electrones orbitando en un átomo, queda descrito por una función de onda. Dicha función de onda es un objeto matemático que supuestamente describe la máxima información posible que contiene un estado puro.
Si nadie externo al sistema ni dentro de él observara o tratara de ver como está el sistema, la mecánica cuántica nos diría que el estado del sistema evoluciona determinísticamente. Es decir, se podría predecir perfectamente hacia dónde irá el sistema.
La función de onda nos informa cuáles son los resultados posibles de una medida y sus probabilidades relativas, pero no nos dice qué resultado concreto se obtendrá cuando un observador trate efectivamente de medir el sistema o averiguar algo sobre él. De hecho, la medida sobre un sistema es un valor aleatorio entre los posibles resultados.
Eso plantea un problema serio: si las personas y los científicos u observadores son también objetos físicos como cualquier otro, debería haber alguna forma determinista de predecir cómo tras juntar el sistema en estudio con el aparato de medida, finalmente llegamos a un resultado determinista. Pero el postulado de que una medición destruye la «coherencia» de un estado inobservado e inevitablemente tras la medida se queda en un estado mezcla aleatorio, parece que sólo nos deja tres salidas:

(A) O bien renunciamos a entender el proceso de decoherencia, por lo cual un sistema pasa de tener un estado puro que evoluciona deterministicamente a tener un estado mezcla o «incoherente».
(B) O bien admitimos que existen unos objetos no-físicos llamados «conciencia» que no están sujetos a las leyes de la mecánica cuántica y que nos resuelven el problema.
(C) O tratamos de proponer una teoría que explique el proceso de medición, y no sean así las mediciones quienes determinen la teoría.

Diferentes físicos han tomado diferentes soluciones a este «trilema»:

Niels Bohr, que propuso un modelo inicial de átomo que acabó dando lugar a la mecánica cuántica y fue considerado durante mucho tiempo uno de los defensores de la interpretación ortodoxa de Copenhague, se inclinaría por (A).
John von Neumann, el matemático que creó el formalismo matemático de la mecánica cuántica y que aportó grandes ideas a la teoría cuántica, se inclinaba por (B).
La interpretación de Hugh Everett es uno de los planteamientos que apuesta de tipo (C).
La propuesta de Everett es que cada medida «desdobla» nuestro universo en una serie de posibilidades (o tal vez existían ya los universos paralelos mutuamente inobservables y en cada uno de ellos se da una realización diferente de los posibles resultados de la medida). La idea y el formalismo de Everett es perfectamente lógico y coherente, aunque algunos puntos sobre cómo interpretar ciertos aspectos, en particular cómo se logra la inobservabilidad o coordinación entre sí de esos universos para que en cada uno suceda algo ligeramente diferente. Pero por lo demás es una explicación lógicamente coherente y posible, que inicialmente no despertó mucho entusiasmo sencillamente porque no está claro que sea una posibilidad falsable.

El Principio de simultaneidad dimensional, establece que: dos o más objetos físicos, realidades, percepciones y objetos no-físicos, pueden coexistir en el mismo espacio-tiempo. Este principio tiene correspondencia biunívoca con la teoría de Interpretación de Mundos Múltiples, IMM y la teoría de Multiverso de nivel III, aunque no ha sido planteado por Hugh Everett, ni tampoco por Max Tegmark.

Entre los especialistas que se inclinaron por (1) estaban, Stephen Hawking, Richard Feynman o Murray Gell-Mann, entre los que se decantaron por (2) estaba Roger Penrose. Aunque Hawking y Gell-Mann han explicado su posición. Hawking afirma en una carta a Raub que «El nombre 'Mundos Múltiples' es inadecuado, pero la teoría, en esencia, es correcta» (tanto Hawking como Gell-Mann llaman a la IMM, 'Interpretación de Historias Múltiples'). Posteriormente Hawking ha llegado a decir que «La IMM es trivialmente verdadera» en cierto sentido. Por otro lado Gell-Man en una reseña de un artículo del físico norteamericano Bruce DeWitt, uno de los principales defensores de la IMM, Murray Gell-Mann se mostró básicamente de acuerdo con Hawking: «... aparte del empleo desacertado del lenguaje, los desarrollos físicos de Everett son correctos, aunque algo incompletos». Otros físicos destacados como Steven Weinberg o John A. Wheeler se inclinan por la corrección de esta interpretación. Sin embargo, el apoyo de importantes físicos a la IMM refleja sólo la dirección que está tomando la investigación y las perspectivas actuales, pero en sí mismo no constituye ningún argumento científico adicional en favor de la teoría.

Los agujeros negros como entrada a los universos paralelos

Se ha apuntado que algunas soluciones exactas de la ecuación del campo de Einstein pueden extenderse por continuación analítica más allá de las singularidades dando lugar a universos espejos del nuestro. Así la solución de Schwarzschild para un universo con simetría esférica en el que la estrella central ha colapsado comprimiéndose por debajo de su radio de Schwarzschild podría ser continuada analíticamente a una solución de agujero blanco (un agujero blanco de Schwarzchild se comporta como la reversión temporal de un agujero negro de Schwarzschild).6 La solución completa describe dos universos asintóticamente planos unidos por una zona de agujero negro (interior del horizonte de sucesos). Dos viajeros de dos universos espejos podrían encontrarse, pero sólo en el interior del horizonte de sucesos, por lo que nunca podrían salir de allí.

Una posibilidad igualmente interesante son los universos Reissner-Nordström y de Kerr-Newman. Este último universo es una solución posible de las ecuaciones de Einstein que puede ser continuada analíticamente a través de una singularidad espacial evitable por un viajero. A diferencia de la solución completa de Schwarzchild, la solución de este problema da como posibilidad la comunicación de los dos universos sin tener que pasar por los correspondientes horizontes de sucesos a través de una zona llamada horizonte interno.



Noética


A noética (do grego nous: mente) é uma disciplina que estuda os fenômenos subjetivos da consciência, da mente, do espírito e da vida a partir do ponto de vista da ciência.Como conceito filosófico, em linhas gerais define a dimensão espiritual do homem.

Na filosofia

Apesar de ser uma disciplina de formulação recente, seu objeto e as metas que persegue já foram estudados por várias correntes de filosofia e fazem parte de todas as tradições esotéricas das religiões do mundo.No oriente Buda disse que o mundo é criado por nossos pensamentos,que a consciência está em toda parte e que a realidade e a vida são uma só, estando todos os seus elementos constituintes inextrincavelmente ligados por teias de interdependência.Diversos povos indígenas ao redor do mundo compartilham dessa visão em alguma medida.

Na tradição ocidental, a noética foi fortemente influenciada pelas teorias dos filósofos da Grécia Antiga a respeito da consciência, do conhecimento e do eu. Deriva dos termos gregos nous, a mente, a alma racional, a inteligência; noema, o objeto ou foco de nous, e noesis, que significa estritamente o ato de pensar em si, e também uma compreensão global, completa e instantânea de qualquer questão sem o intermédio da articulação pela linguagem, equivalente ao insight moderno ou ao conceito de intuição. Noesis contrasta com o significado de dianoia, que remete ao conhecimento racional discursivo ou dialético. Para Platão noesis era superior à dianoia, sendo a mais elevada atividade mental possível, habitando a esfera do Bem e da Harmonia divinos, e trabalhando com axiomas e princípios, ideias, formas e causas primordiais. É o que possibilita o acesso ao mundo divino, transcendente, absoluto, além do raciocínio humano comum.

Aristóteles dizia que o nous compreende tanto a capacidade humana de questionamento acerca do fundamento do ser, como esse próprio fundamento, que é experienciado como o motor orientador das questões: "Acentuemos que toda a substância vem a ser a partir de algo com o mesmo nome". Da parte do nous humano, o conhecimento questionante, isto é, o ato noético, é a compreensão da sua participação no fundamento do ser, possível em virtude da participação do nous divino no nous humano, sendo a noesis a capacidade perceptiva ou cognoscente do homem que o distingue dos animais. Ainda para ele a experiência noética é aquela que transforma o cosmos primordial - onde todas as coisas são consubstanciadas numa unidade transcendente - no fundamento do ser e no mundo objetivo, múltiplo e diferenciado, chamando esse conjunto de ousia, tudo o que é "convincentemente real".Tanto para Platão como para Aristóteles, nous expressava a irrupção do divino no processo da busca pelo conhecimento.A partir da definição clássica, o elemento noético foi absorvido pela doutrina judaica. Fílon escreveu que o cosmos noético não é nada mais que o logos de Deus em sua atividade criativa, justificando sua tese a partir do que consta no Gênesis. Dali o conceito passou para os primeiros filósofos cristãos. Basílio e Gregório Magno se referiram ao noético como o mundo espiritual, ontologicamente superior ao mundo em que vive o homem, definição que foi adotada por seus sucessores.

Outras definições

Segundo as definições de Viktor Frankl, fundador da Logoterapia,

"Homem e animais são constituídos por uma dimensão biológica, uma dimensão psicológica e uma dimensão social, contudo, o homem se difere deles porque faz parte de seu ser a dimensão noética. Em nenhum momento o homem deixa as demais dimensões, mas a essência de sua existência está na dimensão espiritual. Assim, a existência propriamente humana é existência espiritual. Neste sentido, a dimensão noética é considerada superior às demais, sendo também mais compreensiva porque inclui as dimensões inferiores, sem negá-las - o que garante a totalidade do homem".
A dimensão noética seria, então, uma dimensão não-determinada, mas determinante; a dimensão da unicidade, da identidade mais profunda do ser humano, implicando também a transcendência livre, criativa e responsável das limitações. Frankl assinala que ela é necessariamente inconsciente, pois impulsiona a pessoa para fora e para além de si mesmo, onde a consciência do eu deixa de existir e todo o interesse se volta para o outro. A dimensão noética pode se manifestar de várias formas - no trabalho e no amor altruístas, na intuição verdadeira e na experiência religiosa.Para Husserl, a noética, além de ser a dimensão espiritual, é o fator determinante na atribuição de significado à experiência. Ao animar o elemento material, entrelaçando-se em sínteses e continuidades múltiplo-unitárias, dá lugar à consciência de algo, de modo que em tal consciência pode "anunciar-se, demonstrar-se e determinar-se racionalmente a unidade da objetividade".Também afirmou que somente a subjetividade transcendental possui um verdadeiro sentido, e que o mundo objetivo está na sua dependência.Voegelin disse que o elemento noético aparece quando a consciência procura tornar-se explícita para si mesma e interpretar o seu próprio logos.

Segundo Tulving, noética é uma das três formas de consciência: anoética, com uma atenção simples a estímulos externos; noética, que envolve atenção de representações simbólicas do mundo, e autonoética, que envolve a atenção do self e a experiência pessoal estendida no tempo.Ronai da Rocha definiu como noético tudo que pertence ao intelecto ou mente humana: crenças, ideias, pensamentos e conceitos, e esta é uma das definições do termo para a Psicologia moderna, centrando sua atenção no aspecto cognitivo e sendo o elemento de contato do indivíduo com o mundo real exterior, possibilitando a formulação de juízos, abstrações, figurações e raciocínios coerentes e significativos.

Para Marc Halévy a noética é essencialmente a ciência do conhecimento. Não somente dos valores da epistemologia, dos mecanismos mentais e neurobiológicos descritos pelas ciências cognitivas, mas de maneira muito mais ampla, é o estudo de todos os aspectos do conhecer, da sua produção (criatividade), formulação (semiologia e metalinguagem), estruturação (teoria dos sistemas, paradigmas e ideologias), validação (critérios de pertinência, epistemologia) e proliferação de ideias (processos de apropriação e normalização) em seu sentido mais lato. Estuda também a dinâmica e os ciclos da vida, das ideias e das teorias, das condições de sua emergência, desenvolvimento, apogeu, decadência e extinção.Segundo Stratton, noética se refere a uma estrutura individual de conceitos, sendo o somatório de ideias, crenças e opiniões de cada um, e a forma pela qual tais conceitos se relacionam entre si e com o mundo externo.

A noética como ciência

História

A noética moderna teve um precursor na figura de Charles Darwin, que procurou estudar a evolução das espécies numa perspectiva global e sintética, mas foi primeiro definida pelo psicólogo norte-americano William James, dizendo que ela descreve "estados de insight em verdades profundas inalcançadas pelo intelecto discursivo. Estes insights seriam revelações e iluminações cheias de significado, mas todas inarticuladas; como regra, elas trazem consigo um curioso senso de autoridade". Ele foi um dos pioneiros da valorização do potencial da transcendência humana no terreno do estudo científico da consciência, enquanto que mais ou menos ao mesmo tempo, na Europa, neurologistas como Jean-Martin Charcot e Pierre Janet definiam a hipótese psicogênica para sintomas físicos. Esta hipótese foi levada adiante por psicanalistas e médicos da escola de Viena como Freud e Jung, e por outros norte-americanos, desenvolvendo uma complexa teoria de psicologia dinâmica do inconsciente para demonstrar que os sintomas das doenças muitas vezes são simbólicos de causas de origem física e/ou psíquica, lançando as bases em torno de 1930 da moderna psicossomática.

Outras contribuições foram as descobertas da Física a respeito da natureza última da matéria, que levaram Niels Bohr a dizer que em se tratando do comportamento do átomo, só se pode usar a linguagem de uma forma poética, e resultaram na formulação da Mecânica Quântica por vários cientistas, e na Teoria da Relatividade por Albert Einstein, colocando por terra a concepção mecanicista do universo estabelecida por Isaac Newton e seus antecessores.É interessante assinalar que Einstein observou que "a maior experiência que se pode ter é a do misterioso, que é a fonte de toda a beleza e do insight verdadeiros", e que Bohr foi aparentemente inspirado pela pintura cubista e sua visão múltipla do espaço.Outros cientistas como Robert Oppenheimer, Wilhelm Reich e Thomas Edison, foram influenciados pelos escritos teosóficos de Helena Blavatsky. Aliás a Teosofia teve um papel em nada desprezível no desenvolvimento da noética ao traçar um painel comparativo entre as várias religiões do mundo, antigas e modernas, aproximando o oriente do ocidente, e demonstrando que muito da filosofia e religião antigas tinham bases científicas e antecipavam descobertas da ciência moderna ocidental.Teilhard de Chardin, ao descrever a evolução da vida, cunhou o termo noosfera, a esfera do pensamento e do espírito humano, um nível abstrato formado pelo conhecimento autônomo e organizado numa rede de conexões infinitas, uma boa previsão do fenômeno da internet e da noética contemporânea. Novos dados para a estruturação da noética vieram do filósofo Henri Bergson, líder da escola intuicionista, atribuindo à intuição um papel superior na aquisição de verdadeiro conhecimento.

Também a arte moderna ofereceu novas pistas para o entendimento da consciência e dos processos psicológicos. O recém-citado Cubismo, o Dadaísmo, o Surrealismo, a Action painting nas artes plásticas, o "fluxo de consciência" da literatura de James Joyce, o teatro do absurdo de Antonin Artaud, Alfred Jarry e outros, foram alguns dos elementos que delinearam formas alternativas de aproximação, descrição e interpretação da subjetividade e da realidade objetiva, subvertendo hierarquias consagradas e lançando novos paradigmas estéticos onde a negação do império do racionalismo era uma tônica.

Entretanto, com a ascensão da escola behaviorista de psicologia, com o progresso exponencial das ciências materiais e com a revolução tecnológica na medicina ao longo do século XX, a pesquisa da subjetividade caiu em relativo descrédito, e somente na década de 1960, com o surgimento dos movimentos de contracultura, foi que um estudo mais sistemático da noética começou a ganhar novo impulso. Parte dessa recuperação se deveu a estudos clínicos a respeito da influência de alucinógenos sobre a consciência, e à comprovação de benefícios obtidos por doentes que praticavam a meditação transcendental ou recebiam terapêuticas que incluíam a autossugestão, a visualização e a hipnose. Na década de 1970 outros passos foram dados quando Robert Ader provou que o sistema imunológico de animais podia ser manipulado experimentalmente através de métodos de condicionamento comportamental, e quando David Spiegel documentou que pacientes de câncer tinham maior sobrevida quando participavam de grupos de apoio psicológico.Também nessa época foi provado que as plantas possuem uma espécie de consciência, responsiva tanto a estímulos ambientais quanto a pensamentos humanos. Outros experimentos acusaram uma capacidade de leucócitos retirados de doadores e mantidos separados em laboratório de responderem da mesma forma que seus doadores que eram submetidos a estímulos definidos, sugerindo a existência de um elo invisível entre ambos, numa forma de biocomunicação à distância em nível celular que foi atestada para outros tecidos e organismos.

Nesta mesma década o Instituto de Ciências Noéticas (IONS) nos Estados Unidos iniciou suas atividades com um modesto programa de pesquisa sobre os mecanismos internos da resposta curativa, aceitando a premissa de que a consciência desempenha um papel importante nos processos de cura e na manutenção da saúde, numa época em que tal premissa era rejeitada pela larga maioria dos pesquisadores das áreas biomédicas.Desde então a abordagem noética tem sido aplicada a uma grande variedade de tópicos de pesquisa, com resultados que desafiam as concepções do mundo mantidas pela ciência moderna ortodoxa. A própria ciência, elaborando sobre as descobertas da Física no início do século XX, chegou ao ponto de descrever a realidade através de quantificações relativas, redes de relações, infinitudes, intercâmbios matéria-energia, dimensões múltiplas e uma série de outros conceitos dificilmente definíveis pela lógica padrão, em muitos casos se valendo de metáforas para ilustrar ideias que são em essência intuitivas e caem fora do alcance da linguagem discursiva. Na opinião de O'Nuallaín parece que a Física moderna já não pode ser entendida sem o recurso a atos mentais remotos e autorreferentes, e assim não surpreende que muitos físicos apareçam como visionários ou semi-místicos.É bem conhecido o caso de Fritjof Capra, autor de vários best-sellers, que traçou paralelos entre a visão científica do mundo e a filosofia oriental, sendo uma referência para a escola do Pensamento sistêmico.

A noética é uma disciplina científica ainda pouco divulgada, não possui ainda uma estrutura ou um corpo de conceitos básicos bem definidos, sequer seu nome é reconhecido em larga escala - ainda que sua abordagem integradora e multirreferenciada já esteja em uso por muitos pesquisadores treinados na ciência convencional, que não se autodefinem como "noéticos" - e enfrenta ainda muita resistência de setores conservadores, mas, por contemplar uma multiplicidade de pontos de vista simultaneamente, tem crescido rápido.Seu desenvolvimento acelerado é também fruto dos grandes avanços na tecnologia da informação, que ao obrigar a uma reestruturação das formas de armazenamento e distribuição de informação, tornou indispensável uma reflexão profunda a respeito da natureza, estrutura e procedimentos do próprio conhecimento em geral.Recentemente a noética ganhou um destaque especial ao ser colocada como um dos temas principais do best-seller O Símbolo Perdido, de Dan Brown, que vendeu um milhão de cópias apenas no dia de seu lançamento. Desde o seu lançamento, o website do Instituto de Ciências Noéticas registrou um aumento de 1200% no número de acessos, e o número de associados cresceu em 300% em comparação ao mesmo período do ano passado.Contudo, como observou João Queiroz.

"Há uma explosão sem precedentes de estudos sobre consciência. Pesquisadores de muitas áreas — Computação, Etologia, Física e Matemática, Antropologia, Psicologia, Ciências e Neurociências Cognitivas, Filosofia, Linguística, etc. — organizam simpósios, periódicos, volumes e antologias, sites e cursos sobre o tema. Este parece, entretanto, ser o objeto de convergência pluri e interdisciplinar que mais produz divergência na recente História das Ciências. Multiplicam-se questões sobre definições e demarcações conceituais e terminológicas, sobre teorias, métodos, modelos, protocolos de investigação. Divergem, num mesmo departamento, visões gerais (general frameworks) sobre problemas básicos: como definir consciência?"
Colin Allen corroborou essa impressão dizendo que "a despeito da recente invasão de trabalhos filosóficos e neuropsicológicos sobre a consciência, muito permanece confuso sobre sua noção, incluindo, mesmo, se há tão somente uma única noção". Para Anthony Atkinson, "o conceito de consciência é notoriamente difícil de definir (…) porque se refere a um fenômeno heterogêneo."

Elementos centrais

Os pressupostos essenciais da noética são os conceitos, encontrados em várias tradições filosóficas e religiosas, de que o homem é o criador de sua própria vida, que a consciência impregna toda a realidade, que o homem tem outros meios de contactar a realidade além de seus cinco sentidos tradicionais, e também que muito do assim chamado "conhecimento objetivo" não tem nada de objetivo, mas é fruto apenas do consenso coletivo e se baseia em boa medida na subjetividade.Muitos psicólogos, desde que Jung trabalhou a questão dos mitos e arquétipos, abrindo a seara transcendental na Psicologia, reconhecem que o desejo pelo Absoluto, pela unidade transcendente com toda a vida e o universo, é uma das forças mais constantes e poderosas da psique humana, podendo-se documentá-lo através de inumeráveis registros históricos e artísticos desde que o homem apareceu sobre a Terra. Bynum disse que esse desejo, que chamou de noético, é tão central à própria natureza humana que boa parte das principais perturbações mentais se deve à sua frustração ou deformação por quaisquer tipos de circunstâncias, e saudou os esforços recentes no sentido de se reconhecer esse impulso profundo e suas manifestações como um objeto digno da investigação científica, da mesma forma que todos os outros grandes processos vitais, históricos e sociais do ser humano têm sido analisados com esse rigor e seriedade. Disse também que essa investigação se torna ainda mais autorizada quando lembramos que muitos dos grandes cientistas da história, tanto antiga como recente, têm se aproximado da religião e do misticismo em busca de inspiração para a solução de problemas científicos. Lembrou ainda que muitos casos de crises psíquicas, classificados no ocidente como neuroses ou psicoses, são descritos em culturas não-ocidentais como sinais saudáveis da emergência da dimensão espiritual na vida da pessoa.

Entre os objetivos da ciência noética estão:

Estabelecer uma validação para os fenômenos subjetivos da mente através do uso de um instrumental e de um método científico;
Estabelecer um corpo interdisciplinar de conhecimento verificável e acessível ao público, e evitar sua degenerescência em formas de cultismo ou ocultismo sob o domínio de seitas, religiões institucionalizadas ou outros grupos dogmáticos e exclusivos.
Dissolver a antiga oposição ciência-fé evidenciando seus pontos de identidade e a semelhança da sua busca para uma explicação do mundo e da vida humana, ainda que ambas usem métodos diversos e tenham pressupostos também distintos;
Criar uma nova e mais abrangente teoria da consciência;
Expandir a visão de como o mundo objetivo e os fenômenos subjetivos se inter-relacionam;
Enfatizar as implicações eminentemente humanas na pesquisa científica tradicional.
Pesquisar a hipótese de que nenhuma ciência pode ser realizada ou validada desconsiderando-se a influência da consciência que a dirige.
Estudar os fenômenos ditos paranormais.
Determinar o que há de verdade verificável nas tradições do folclore e da religião dos vários países do mundo.
Para isso incorpora a contribuição de estudos interdisciplinares da mente, da consciência e de diversos modos de conhecimento, com foco especial na ciência, saúde, psicossomática, psicologia, artes, ciências da cura e terapias holísticas, ciências sociais e espiritualidade. A noética é tanto uma expansão do escopo da ciência como uma redescoberta e revalorização de conceitos e práticas antigas tradicionais que foram abandonados ou desprezados pelos ocidentais modernos. Ao passo que o estudo da mente e da consciência na história antiga era realizado através da especulação abstrata, da fé pura ou da confiança acrítica no que disseram autoridades do passado, a noética moderna se vale do grande progresso da ciência materialista na descrição do mundo objetivo e da psicologia na descrição dos mecanismos e estados mentais, e procura transportar seus métodos empíricos para a esfera do estudo do conhecimento subjetivo e da herança de conhecimentos tradicionais de base folclórica ou religiosa da humanidade.De acordo com McPartland, a ciência noética é aquela que tem como seu objeto de estudo a estrutura normativa da existência humana. Como este objeto não pode ser compreendido todo apenas com a dedução lógica nem com a observação empírica, tem como peculiaridade o fato de que o observador participa do fenômeno a ser observado, que não é inteiramente objetivo.

A ciência noética não deve ser confundida com misticismo. O misticismo procura se conectar com o sobrenatural através da filosofia, fé e experiência religiosa. Já a noética pretende ser uma ciência, isto é, utiliza o método científico para testar suas teorias. Também difere da ciência materialista por descartar visões reducionistas da realidade, por concentrar-se no estudo da subjetividade e por levar em consideração elementos valorativos e teleológicos, e não apenas quantitativos e autolimitantes. Segundo Willis Harman, a noética acrescenta dados holísticos à pesquisa científica tradicional, e procura encontrar propósitos em modelos deterministas. Também se distingue por não dar tanto peso ao teste dos conhecimentos com vistas a uma possibilidade de efetuar previsões e exercer controle sobre os fenômenos, mas objetiva antes a compreensão dos processos envolvidos.

Perspectivas

Considerando a crescente necessidade de compreensão da interdependência de todos os elementos do universo, dos fenômenos e dos propósitos da vida, e de se trabalhar os desafios objetivos do mundo contemporâneo a partir de uma abordagem interdisciplinar num esforço colaborativo e não-competitivo, a noética tende a ter seus princípios assimilados a todos os aspectos da vida humana, a todos os processos de enfrentamento de dificuldades, de tomada de decisão e de valoração da experiência.O presente Dalai Lama, Tenzin Gyatso, afirmou que os ocidentais não poderão jamais compreender bem a ciência sem uma ajuda da filosofia oriental, pois já se tornou claro que a ciência, como ela hoje ainda é entendida em linhas gerais no ocidente, não é capaz de penetrar nos fundamentos da consciência.Marc Halévy referiu que o mundo está às portas de uma revolução noética, cujas bases serão o talento, a criatividade, a imaginação, a intuição e a capacidade de transmitir conhecimento mediante uma nova educação.A seguir algumas áreas transformadas pela abordagem noética:

No campo da medicina a noética tem experimentado avanços em larga escala. Um estudo desenvolvido em 1993 por pesquisadores da Universidade de Harvard, liderados por David Eisenberg, indicou que no período de um ano 34% da população de amostra se valeu da medicina alternativa e de métodos de cura pela fé para vencer doenças, movimentando bilhões de dólares. Também já é aceito pela comunidade médica em geral que a relação médico-paciente tem um peso determinante na eficácia do tratamento. Hipnose, visualização e técnicas de biofeedback são procedimentos terapêuticos já consagrados em vários hospitais dos Estados Unidos, cujo Instituto Nacional de Saúde tem financiado grandes projetos de combinação de práticas ortodoxas com outras heterodoxas, e mantém um Departamento de Medicina Alternativa. Diversas publicações especializadas têm aparecido nos últimos anos documentando pesquisas bem-sucedidas na área da integração mente e corpo.

Da mesma forma, para a administração de empresas e outras organizações já vem se tornando claro que abordagens tradicionais já não as tornam tão eficientes num mundo globalizado e de recursos naturais limitados, e se tornou imperativo se desenvolver métodos de trabalho em linhas múltiplas em um modelo de adaptabilidade permanente, num entendimento das organizações como comunidades interdependentes cujo funcionamento se compara a organismos ou ecossistemas vivos, e não como entidades mecânicas estáticas e mais ou menos desvinculadas de sua cultura e sociedade. Nessa linha de pensamento, passam a ser valorizadas a contribuição de todos os membros, a inteligência coletiva, como chamou Mase, para resolver todos os desafios emergentes, e o estabelecimento de uma estrutura que se baseie em laços de confiança mútua e de comprometimento com objetivos coletivos, num espírito de colaboração.

No terreno da educação, novas descobertas da ciência estão renovando as formas de aprender e ensinar. Já se sabe que o aprendizado é um processo de formação integral de pessoas e não de técnicos; não é um processo isolado, fragmentado e limitado às salas de aula, uma simples memorização cumulativa de informações desconexas, mas é afetado por fatores sociais e biológicos, precisa ser dirigido por uma estrutura consistente de valores, propósitos e significados, tornando-o complexo, multifocal, dinâmico e sempre em transformação, onde entram em jogo todas as dimensões do ser, toda a sua história pregressa e uma vasta rede de inter-relações com seu meio-ambiente humano e natural.De acordo com Stephanie Marshall, a questão que se propõe agora não é mais "o que você aprendeu hoje?", e sim "como você aprendeu hoje, e de que maneira isso afetou você?", fazendo que que nasçam "histórias de vidas e de aprendizados mais profundas, mais transcendentes e mais capacitantes". Busca-se ainda uma forma mais humana de transmissão do conhecimento eliminando a distância entre professor e aluno, removendo o mestre do pedestal da autoridade inquestionada e elevando o aluno ao nível de um ativo coeducador de si mesmo, capaz de contribuir até para a educação de seus próprios mestres. Também a ênfase parece estar se transferindo da mera qualificação técnica para os valores e os significados, para o estímulo à curiosidade, para o desenvolvimento de um espírito de pesquisa e descoberta, reconhecendo-se as particularidades de cada processo de aprendizado individual e ao mesmo tempo a necessidade de se formar nas classes um sentimento de ligação mais profunda e participativa entre seus membros, para a superação de dificuldades e a conquista de objetivos comuns.

Para as artes um novo campo de estudos foi aberto quando a ciência passou a prestar atenção aos efeitos que as cores, ritmos, sons, a luz e o espaço exercem sobre os estados psíquicos e os processos fisiológicos cerebrais, com a consequência de se fundar um novo ramo na Neurociência chamado Neuroestética, que procura determinar como a arte afeta o cérebro, usando como ferramentas a análise genética e o mapeamento neuronal. Outro ramo nascido da Neurociência foi a Neuro-história da arte, que estuda como funcionavam os cérebros dos grandes artistas e, incorporando métodos perceptivos e cognitivos, tenta definir os fundamentos biológicos da arte e sua evolução ao longo dos séculos. Uma visão plural da arte no ocidente também tem emergido com a incorporação de elementos estéticos e filosóficos não-ocidentais e de novas tecnologias para a criação e difusão de obras de arte, incluindo mídias computadorizadas e interativas, internet, vídeos 3D, hologramas, animações, programas de imersão em realidade virtual, e outros recursos técnicos avançados.

A Organização das Nações Unidas também têm apelado para a formação de uma nova consciência político-social global, que trate os problemas mundiais a partir de uma óptica multicultural e colaborativa. Como exemplo, desde 2001 está em andamento um projeto de criação de novas lideranças chamado Lideranças para Resultados. Através do estímulo de capacidades e talentos individuais através de uma "metodologia de transformação", pretende desenvolver potenciais humanos para que se abandonem modos de resposta automáticos aos desafios sociais e se engajem conscientemente para um melhoramento na vida de suas comunidades, reconhecendo que as pessoas podem influenciar o fluxo dos eventos e assim criar seus próprios futuros, individual e coletivamente. Segundo a diretora do programa, Monica Sharma, os resultados têm sido além das expectativas, treinando 4,5 milhões de pessoas que afetaram indiretamente para melhor a vida de 130 milhões de outras em quarenta países do mundo. O programa é baseado no desenvolvimento em cada pessoa da sua capacidade de assumir riscos com coragem, autocontrole e responsabilidade, de estabelecer parcerias e delegar poder, de direcionar esforços construtivamente, e é em essência um projeto inclusivo, sinérgico e coletivo, ainda que sua força esteja no interior de cada um.

Invocações e Evocações: Vozes Entre os Véus

Desde as eras mais remotas da humanidade, o ser humano buscou estabelecer contato com o invisível. As fogueiras dos xamãs, os altares dos ma...