terça-feira, 26 de janeiro de 2016

Epistemologia



Epistemologia (do grego ἐπιστήμη episteme: conhecimento científico, ciência; λόγος [logos]: discurso, estudo de) é o ramo da filosofia que trata da natureza, etapas e limites do conhecimento humano, especialmente nas relações que se estabelecem entre o sujeito e o objeto do conhecimento. Nesse sentido, pode ser também chamada teoria do conhecimento ou gnosiologia. Em sentido mais restrito, refere-se às condições sob as quais se pode produzir o conhecimento científico e dos modos para alcançá-lo, avaliando a consistência lógica de teorias. Nesse caso, identifica-se com a filosofia da ciência.

Existem limites epistemológicos, que se devem ao facto de a diversidade e a complexidade dos seres humanos e dos ambientes onde estes se desenvolvem tornarem virtualmente impossíveis os procedimentos de controle experimental.

Relaciona-se também com a metafísica. A sua problemática compreende a questão da possibilidade do conhecimento - nomeadamente, se é possível ao ser humano retratar o conhecimento total e genuíno-, dos limites do conhecimento (haveria realmente uma distinção entre o mundo cognoscível e o mundo incognoscível?) e da origem do conhecimento (por quais faculdades atingimos o conhecimento?.

Em geral, a epistemologia discute o conhecimento proposicional ou o "saber que". Esse tipo de conhecimento difere do "saber como" (know-how) e do "conhecimento por familiaridade". Por exemplo: sabe-se que 2 + 2 = 4 e que Napoleão foi derrotado na batalha de Waterloo. Essas formas de conhecimento diferem de saber como andar de bicicleta ou como tocar piano, e também diferem de conhecer uma determinada pessoa ou estar "familiarizado" com ela. Alguns filósofos consideram que há uma diferença considerável e importante entre "saber que", "saber como" e "familiaridade" e que o principal interesse da filosofia recai sobre a primeira forma de saber.

Em seu ensaio Os Problemas da Filosofia, Bertrand Russell distingue o "conhecimento por descrição" (uma das formas de saber que) do "conhecimento por familiaridade".Gilbert Ryle dedica atenção especial à distinção entre "saber que" e "saber como" em The concept of mind (O Conceito de Mente).Em Personal Knowledge, Michael Polanyi argumenta a favor da relevância epistemológica do saber-como e do saber-que. Usando o exemplo do equilíbrio envolvido no ato de andar de bicicleta, ele sugere que o conhecimento teórico da física para a manutenção do estado de equilíbrio não pode substituir o conhecimento prático sobre como andar de bicicleta. Para Polanyi, é importante saber como essas duas formas de conhecimento são estabelecidas e fundamentadas. Essa posição é a mesma de Ryle, que argumenta que, se não consideramos a diferença entre saber-que e saber-como, somos inevitavelmente conduzidos a um regresso ao infinito.

Mais recentemente, alguns epistemólogos (Ernest Sosa, John Greco, Jonathan Kvanvig, Linda Trinkaus Zagzebski) argumentaram que a epistemologia deveria avaliar as propriedades das pessoas (isto é, suas virtudes intelectuais) e não somente as propriedades das proposições ou das atitudes proposicionais da mente. Uma das razões é que as formas superiores de processamento cognitivo (como, por exemplo, o entendimento) envolveriam características que não podem ser avaliadas por uma abordagem do conhecimento que se restrinja apenas às questões clássicas da crença, verdade e justificação.

Crença

No discurso comum, uma "declaração da verdade" é uma típica expressão de fé ou confiança em uma pessoa, num poder ou em outra entidade - o que inclui visões tradicionais. A epistemologia se preocupa com o que acreditamos; isso inclui a verdade e tudo que nós aceitamos para nós mesmos como verdade.

Verdade

A verdade não é um pré-requisito para a crença. De outro modo, se algo é conhecido, categoricamente, não pode ser falso. Por exemplo: se uma pessoa acredita que a ponte é segura o suficiente para aguentar seu peso e tenta atravessá-la, mas a ponte se quebra devido ao peso, pode-se dizer que a pessoa acreditou que a ponte era segura, mas estava errada. Não seria correto afirmar que ele sabia que a ponte era segura, pois ela, claramente, não era. Em contraste, se a ponte aguentasse seu peso, ela diria que acreditou que a ponte era segura e, agora que cruzou a ponte e provou para si que a ponte é segura, ela sabe que é segura.

Justificação

A justificação se constitui das razões ou provas apresentadas em apoio à veracidade de uma crença ou de uma afirmação. É preciso, portanto, compreender as razões de uma crença e se tais razões têm um fundamento lógico.

Conhecimento


Conhecimento (do latim cognoscere, "ato de conhecer") é o ato ou efeito de conhecer. Como por exemplo: conhecimento das leis; conhecimento de um fato; conhecimento de um documento; termo de recibo ou nota em que se declara o aceite de um produto ou serviço; saber, instrução ou cabedal científico (homem com grande conhecimento); informação ou noção adquiridas pelo estudo ou pela experiência; consciência de si mesmo.

No conhecimento temos dois elementos básicos: o sujeito (cognoscente) e o objeto (cognoscível), o cognoscente é o indivíduo capaz de adquirir conhecimento ou o indivíduo que possui a capacidade de conhecer. O cognoscível é o que se pode conhecer.

O tema "conhecimento" inclui, mas não está limitado a, descrições, hipóteses, conceitos, teorias, princípios e procedimentos que são úteis ou verdadeiros. O estudo do conhecimento é a gnoseologia. Hoje existem vários conceitos para esta palavra e é de ampla compreensão que conhecimento é aquilo que se sabe de algo ou alguém. Isso em um conceito menos específico. Contudo, para falar deste tema é indispensável abordar dado e informação.

Dado é um emaranhado de códigos decifráveis ou não. O alfabeto russo, por exemplo, para leigos no idioma, é simplesmente um emaranhado de códigos sem nenhum significado especifico. Algumas letras são simplesmente alguns números invertidos e mais nada. Porém, quando estes códigos até então indecifráveis, passam a ter um significado próprio para aquele que os observa, estabelecendo um processo comunicativo, obtém-se uma informação a partir da decodificação destes dados. Diante disso, podemos até dizer que dado não é somente códigos agrupados, mas também uma base ou uma fonte de absorção de informações. Então, informação seria aquilo que se tem através da decodificação de dados, não podendo existir sem um processo de comunicação. Essas informações adquiridas servem de base para a construção do conhecimento. Segundo esta afirmação, o conhecimento deriva das informações absorvidas.Se constrói conhecimentos nas interações com outras pessoas, com o meio físico e natural. Podemos conceituar conhecimento da seguinte maneira: conhecimento é aquilo que se admite a partir da captação sensitiva sendo assim acumulável a mente humana. Ou seja, é aquilo que o homem absorve de alguma maneira, através de informações que de alguma forma lhe são apresentadas, para um determinado fim ou não. O conhecimento distingue-se da mera informação porque está associado a uma intencionalidade. Tanto o conhecimento como a informação consistem de declarações verdadeiras, mas o conhecimento pode ser considerado informação com um propósito ou uma utilidade.

Associamos informação à semântica. Conhecimento está associado com pragmática, isto é, relaciona-se com alguma coisa existente no "mundo real" do qual temos uma experiência direta.

O conhecimento pode ainda ser aprendido como um processo ou como um produto. Quando nos referimos a uma acumulação de teorias, ideias e conceitos o conhecimento surge como um produto resultante dessas aprendizagens, mas como todo produto é indissociável de um processo, podemos então olhar o conhecimento como uma atividade intelectual através da qual é feita a apreensão de algo exterior à pessoa.

A definição clássica de conhecimento, originada em Platão, diz que este consiste numa crença verdadeira e justificada. Aristóteles divide o conhecimento em três áreas: científica, prática e técnica.

Análise fenomenológica do conhecimento

A fenomenologia (método que permite descrever na sua pureza os fenómenos presentes à consciência, com o objectivo de determinar a sua estrutura, a sua essência) explica o fenómeno de um modo simples considerando o sujeito cognoscente e o objecto cognoscível. Existe, inicialmente, um sujeito e um objecto diferentes um do outro, sendo que estes partilham uma relação – o conhecimento. Este sujeito apenas é sujeito para este objecto e este objecto apenas é objecto para este sujeito, estes estão ligados por uma estreita relação, condicionando-se reciprocamente (correlação). A relação que sujeito e objecto partilham é dupla mas não reversível, isto é, os papéis de sujeito e objecto não são intermutáveis, a sua função é, portanto, diferente. Nesta relação a função do sujeito é apreender o objecto e a do objecto é a de ser apreendido pelo sujeito. Para que o sujeito possa conhecer, este tem que se transcender, entrando na esfera do objecto, onde capta as características do objecto e as faz entrar na sua própria esfera. O sujeito apenas tem noção do que apreendeu quando reentra em si. O sujeito sai, portanto, deste processo, modificado, dado que com ele traz apenas uma representação mental – imagem – do objecto, em tudo igual ao objecto em si.

Críticas e objeções à análise fenomenológica do conhecimento

Como, segundo a perspetiva fenomenológica, o conhecimento é um fenómeno que ocorre na mente humana desde de logo se remete para o nível da subjetividade. Por outro lado, como a representação do objecto é uma imagem mental, corre na mente de cada um, sendo influenciada por diferentes condicionantes. Pode, deste modo, propor-se, em vez de uma oposição entre sujeito e objecto, uma relação entre estes, inserida num contexto específico.

Conhecimento como crença verdadeira e justificada (CVJ)

O conhecimento pode ser compreendido como uma "crença verdadeira justificada", isto é, um dado sujeito tem uma crença – opinião, – essa crença é verdadeira e o sujeito tem boas razões para a justificarem. Assim sendo, crença, verdade e justificação são condições necessárias para que se constitua conhecimento, mas apenas no seu conjunto são suficientes. Crença é uma condição necessária pois não é possível conhecer sem acreditar. Por outro lado, esta não constitui uma condição suficiente pois esta não passa de uma opinião, podendo, então, ser falsa, saber/conhecer é, portanto, diferente de acreditar. Verdade é uma condição necessária uma vez que o conhecimento é factivo, ou seja, não se podem conhecer falsidades. No entanto esta não é por si só uma condição suficiente, dado que podemos acreditar em alguma coisa que é verdadeira sem que saibamos que esta é verdadeira. Justificação é uma condição necessária já que é necessário haver boas razões nas quais apoiar a verdade de uma crença. Contudo a justificação não é por si uma condição suficiente, porque ter razões para acreditar em algo não garante que essa crença seja verdadeira.

Crítica à teoria CVJ e contra-exemplos de Gettier

Edmund Gettier discorda, todavia, com esta teoria, na medida em que defende que crença, verdade e justificação não constituem, juntas, a condição suficiente para que haja conhecimento. Este apresenta a sua oposição sobre a forma de contra-exemplos. Nos seus contra-exemplos Gettier mostra que apesar da crença ser verdadeira e estar justificada, a justificação que o sujeito tem para essa crença não decorre dos aspetos relevantes da realidade que a tornam verdadeira. Assim, Gettier afirma que se as crenças forem acidentalmente ou por mera sorte verdadeiras não se constitui conhecimento.

Modos de conhecer

De que maneiras o sujeito cognoscente apreende o real? Geralmente consideramos o conhecimento como um ato da razão, pelo qual encadeamos ideias e juízos, para chegar a uma conclusão. Essas etapas compõem o nosso raciocínio. No entanto, conhecemos o real também pela intuição. Vejamos a diferença entre intuição e conhecimento discursivo.

A intuição

A intuição (do latim intuitio, do verbo intueor, "olhar atentamente", "observar". Intuição é portanto uma "visão", uma percepção sem conceito) é um conhecimento imediato - alcançado sem intermediários -, um tipo de pensamento direto, uma visão súbita. Por isso é inexprimível: Como poderíamos explicar em palavras a sensação do vermelho? Ou a intensidade do meu amor ou ódio? É também um tipo de conhecimento impossível de ser provado ou demonstrado. No entanto, a intuição é importante por possibilitar a invenção, a descoberta, os grandes saltos do saber humano.

A intuição expressa-se de diversas maneiras, entre as quais destacamos a empírica, a inventiva e a intelectual.

Intuição empírica

É o conhecimento imediato baseado em uma experiência que independe de qualquer conceito. Ela pode ser:

Sensível, quando percebemos pelos órgãos dos sentidos: o calor do verão (tato), as cores da primavera (visão), o som do violino (audição), o odor do café (olfato), o sabor doce (paladar/gustação);

Psicológica, quando temos a experiência interna imediata de nossas percepções, emoções, sentimentos e desejos.

Intuição inventiva

É a intuição do sábio, do artista, do cientista ao descobrirem soluções súbitas, como uma hipótese fecunda ou uma inspiração inovadora. Na vida diária também enfrentamos situações que exigem verdadeiras invenções súbitas, desde o diagnóstico de um médico até a solução prática de um problema caseiro. Segundo o matemático e filósofo Henri Poincaré, enquanto a lógica nos ajuda a demonstrar, a invenção só é possível pela intuição.

Intuição intelectual

Procura captar diretamente a essência do objeto. Descartes, quando chegou à consciência do cogito - o eu pensante -, considerou tratar-se de uma "primeira verdade" que não podia ser provada, mas da qual não se poderia duvidar: Cogito, ergo sum, que em latim significa "penso, logo existo". A partir dessa intuição primeira (a existência do eu como ser pensante), estabeleceu o ponto de partida para o método da filosofia e das ciências modernas.

Conhecimento discursivo

Discurso (do latim discursus, literalmente "ação de correr para diversas partes, de tomar várias direções".) Para compreender o mundo, a razão supera as informações concretas e imediatas recebidas por intuição e organiza-as em conceitos ou ideias gerais que, devidamente articulados pelo encadeamento de juízos e raciocínios, levam à demonstração e a conclusões. Portanto, o conhecimento discursivo, ao contrário da intuição, precisa da palavra, da linguagem. Por ser mediado pelo conceito, o conhecimento discursivo é abstrato. Abstrair significa "isolar", "separar de". Fazemos abstração quando isolamos um elemento que não é dado separadamente na realidade.

Tipos de conhecimento

Sensorial/sensível

É o conhecimento comum entre seres humanos e animais. Obtido a partir de nossas experiências sensitivas e fisiológicas (tato, visão, olfato, audição e paladar).

Intelectual

Esta categoria é exclusiva ao ser humano; trata-se de um raciocínio mais elaborado do que a mera comunicação entre corpo e ambiente. Aqui já pressupõe-se um pensamento, uma lógica.

Vulgar/popular

É a forma de conhecimento do tradicional (hereditário), da cultura, do senso comum, sem compromisso com uma apuração ou análise metodológica. Não pressupõe reflexão, é uma forma de apreensão passiva, acrítica e que, além de subjetiva, é superficial.

Científico

Preza pela apuração e constatação. Busca por leis e sistemas, no intuito de explicar de modo racional aquilo que se está observando. Não se contenta com explicações sem provas concretas; seus alicerces estão na metodologia e na racionalidade. Análises são fundamentais no processo de construção e síntese que o permeia, isso, aliado às suas demais características, faz do conhecimento científico quase uma antítese do popular.

Filosófico

Mais ligado à construção de ideias e conceitos. Busca as verdades do mundo por meio da indagação e do debate; do filosofar. Portanto, de certo modo assemelha-se ao conhecimento científico - por valer-se de uma metodologia experimental -, mas dele distancia-se por tratar de questões imensuráveis, metafísicas. A partir da razão do homem, o conhecimento filosófico prioriza seu olhar sobre a condição humana.

Religioso/teológico

Conhecimento adquirido a partir da fé teológica, é fruto da revelação da divindade. A finalidade do teólogo é provar a existência de Deus e que os textos bíblicos foram escritos mediante inspiração Divina, devendo por isso ser realmente aceitos como verdades absolutas e incontestáveis. A fé pode basear-se em experiências espirituais, históricas, arqueológicas e coletivas que lhe dão sustentação.

Declarativo

O conhecimento declarativo seria o referente a coisas estáticas, paradas, como por exemplo os conceitos de uma ciência, ou a descrição de um objeto. Um exemplo típico de conhecimento estático é o significado dos termos de classificação de relevo. Ao passo que o conhecimento procedural refere-se às coisas funcionando, como os processos, as transformações das coisas, e também como que deve ser o comportamento de um profissional em uma determinada situação. Um exemplo de conhecimento procedural seria a conduta indicada para um agricultor retirar a licença de um desmatamento que queira fazer em sua propriedade.

Encarando o conhecimento por outro ângulo, temos o conhecimento explícito, o qual especialista consegue formalizar em linguagem facilmente, de forma transmissível e eficaz para outra pessoa. Do outro lado temos o conhecimento tácito (normalmente mais complexo) que seria o “jogo de cintura” que o profissional vai ganhando com a prática de sua profissão. De maneira geral, o especialista costuma não ter noção de seus conhecimentos tácitos, e mesmo quando o têm, costuma não saber como ele funciona e nem a tamanho de sua abrangência.

O conhecimento científico

O desenvolvimento do método científico deu uma contribuição significativa para a nossa compreensão do conhecimento. Para ser considerado científico, um método inquisitivo deve ser baseado na coleta de provas observáveis, empíricas e mensuráveis sujeitas aos princípios específicos do raciocínio.O método científico consiste na coleta de dados através de observação e experimentação, bem como na formulação e teste de hipóteses.A ciência e a natureza do conhecimento científico também se tornaram objeto de estudo da filosofia. Como a própria ciência tem desenvolvido, o conhecimento desenvolveu um amplo uso que sido desenvolvido no âmbito da biologia / psicologia - discutido em outro lugar como meta-epistemologia ou epistemologia genética, e em certa medida, relacionadas com a "teoria do desenvolvimento cognitivo".

Note-se que "epistemologia" é o estudo de conhecimento e de como ele é adquirido. A ciência é "o processo usado todos os dias para completar os pensamentos logicamente através de inferência de fatos determinados por experimentos calculados." Sir Francis Bacon, crítico do desenvolvimento histórico do método científico, escreveu obras que estabeleceram e popularizaram uma metodologia indutiva para a pesquisa científica. Seu famoso aforismo "conhecimento é poder" é encontrado nas Meditações Sacras (1597).

Cognição

Cognição é o ato ou processo da aquisição do conhecimento que se dá através da percepção, da atenção, associação, memória, raciocínio, juízo, imaginação, pensamento e linguagem. A palavra Cognitione tem origem nos escritos de Platão e Aristóteles.

É o conjunto dos processos mentais usados no pensamento na classificação, reconhecimento e compreensão para o julgamento através do raciocínio para o aprendizado de determinados sistemas e soluções de problemas.

De uma maneira mais simples, podemos dizer que cognição é a forma como o cérebro percebe, aprende, recorda e pensa sobre toda informação captada através dos cinco sentidos.

Mas a cognição é mais do que simplesmente a aquisição de conhecimento e consequentemente, a nossa melhor adaptação ao meio - é também um mecanismo de conversão do que é captado para o nosso modo de ser interno. Ela é um processo pelo qual o ser humano interage com os seus semelhantes e com o meio em que vive, sem perder a sua identidade existencial. Ela começa com a captação dos sentidos e logo em seguida ocorre a percepção. É, portanto, um processo de conhecimento, que tem como material a informação do meio em que vivemos e o que já está registrado na nossa memória.

segunda-feira, 25 de janeiro de 2016

Hiperespacio


El hiperespacio es una forma de espacio que tiene cuatro o más dimensiones. El término aparece tanto en geometría, como en la descripción informal de ciertas teorías físicas.

Hiperespacio en geometría

La noción de hiperespacio puede concebirse como una generalización de los conceptos de espacio euclídeo de dimensión menor o igual que tres. De un modo algo somero se ejemplifica que un ente ("no curvo") con:

0 dimensiones: corresponde al punto
1 dimensión: a una recta.
2 dimensiones: a un plano
3 dimensiones: Un espacio (de 3D, que es el espacio que podemos percibir).
4 o más dimensiones: un (o más) hiperespacios.

Naturalmente las generalizaciones curvas de los conceptos anteriores pueden verse como variedades inmersas en un espacio euclídeo de dimensión superior. Una circunferencia que es una línea curva (espacio unidimensional) puede concebirse como una figura del espacio euclídeo bidimensional. Un hiperboloide que es una superficie curva puede considerarse dentro de un espacio euclídeo tridimensional, etc.

Hiperespacio en física

La noción de hiperespacio ha sido y es utilizada para especulaciones sobre desplazamientos superlumínicos; Stephen Hawking ejemplifica de un modo sencillo cómo se puede suponer a un hiperespacio de un modo topológico: supóngase que el universo de 3D espaciales fuera como un toro (la figura es usada por Hawking sólo con fines ilustrativos y se refiere a un toroide, cierta forma tridimensional), un viaje a velocidad c (como la velocidad de la luz) siguiendo el espacio (y el tiempo correlativo al mismo) dentro del toro para recorrerlo en un bucle o circuito sería más prolongado que si se tomara como atajo un hiperespacio, en la ilustración que da Hawking tal hiperespacio es representado como un trayecto (por ejemplo una recta) que sale del toro y conecta otro punto del mismo toro con menos espacio recorrido (y por ende menos tiempo...más velozmente)...

En tal caso no se habría superado realmente la velocidad c sino que se habría hecho un atajo entre puntos del espacio-tiempo usualmente muy distantes. Este ejemplo de hiperespacio es muy semejante a lo que se supone ocurre en un (actualmente hipotético) agujero de gusano.

En cuanto a Michio Kaku, éste observa la función beta de Euler y considera que si se añade una quinta dimensión a las cuatro conocidas (tres espaciales y una temporal) es posible plantear la teoría de la gran unificación, en la cual, por ejemplo las ecuaciones correspondientes a la luz y a la gravedad, quedarían unidas, en una teoría de tipo Kaluza-Klein. Según la teoría M tiene 11 dimensiones, según la teoría de cuerdas, tiene 10 dimensiones, y según la teoría de supercuerdas tiene 11 dimensiones.

Brana


Las branas son entidades físicas conjeturadas por la teoría M y su vástago, cosmología de branas.

En la teoría M, se postula la existencia de p-branas y d-branas (ambos nombres provienen parasintéticamente de "membrana"). Las p-branas son objetos de dimensionalidad espacial p (por ejemplo, una cuerda es una 1-brana). En cosmología de branas, el término "brana" se utiliza para referirse a los objetos similares al universo cuadridimensional que se mueven en un "bulk" (sustrato) de mayor dimensión. Las d-branas son una clase particular de p-branas.

Descripción

Según la teoría de cuerdas, las membranas existen en la undécima dimensión, en realidad son infinitas. Se dice que cada membrana corresponde a un universo, por ejemplo a nuestro universo le corresponde una membrana y las otras membranas serían universos paralelos. Según algunos físicos el universo es una membrana esférica, los bordes de las membranas forman ondulaciones las cuales están en constante movimiento, se dice que estas membranas se mueven con "forma de olas" en esta dimensión (11ª). Esta dimensión es sumamente delgada e infinitamente larga, estas membranas están en movimiento como las olas en el mar, es decir, las membranas serían burbujas en olas de mar que al chocar inician el big bang; es decir, el big bang es un fenómeno que ocurre una y otra vez.

En el marco de la teoría de cuerdas, la membrana (M) es un conjunto de dimensiones presente, ampliando sus límites.

Se ha llegado a explicar la causa del "Big Bang" por el choque de dos membranas, así, la explosión producida sería la causa del nacimiento y expansión del universo.

La materia y la energía sólo puede transmitirse a través de las cuatro primeras dimensiones, excepto la gravedad que puede difundirse en las once. La materia de una puede alterar el espaciotiempo de otra paralela. De hecho, fenómenos similares fueron los que indujeron la teoría.

Las membranas podrían estar separadas por distancias pequeñísimas unas de otras, incluso, según resultados experimentales, a millonésimas de milímetro. Gracias a este hecho se intentaría explicar por qué la gravedad parece menos fuerte de lo que en realidad es.

Las formas más postuladas son la de membranas planas y paralelas entre sí y la de paraboloide hiperbólico (silla de montar).

Si las membranas son planas y paralelas, la gravedad quedaría encajonada entre ambas, fluctuando entre una y la otra, pero siempre manteniéndose constante. Por el contrario, si las membranas adoptaran la forma de silla de montar, irían perdiendo paulatinamente energía y, por tanto, materia, hasta desaparecer sumido en la difusión por las once dimensiones.

P-brana

En física teórica, las P-branas o branas son términos de la teoría de supercuerdas usada para referirse a estructuras tipo membrana de una a once dimensiones, que representan objetos físicos de esta teoría. Una brana es una variedad diferenciable cuyo movimiento tiene lugar en un espacio-tiempo de gran número de dimensiones (diez u once dependiendo del tipo de teoría usada).

Se basaba originalmente en conclusiones sobre cuerdas unidimensionales. Para mediados de los años 90 llegó a ser evidente que las teorías de cuerdas se podían ampliar también hasta incluir objetos no 1-dimensionales llamados p-branas. El nombre "p-brana" viene de una generalización de la "membrana de dos dimensiones" a los p-branas de p dimensiones. Las cuerdas se pueden pensar como 1-branas. Las teorías de P-branas pueden contener varios componentes fundamentales por ejemplo objetos puntuales (0-branas), membranas de dos dimensiones (2-branas), objetos tridimensionales (3-branas), y objetos de otras dimensiones hasta ocho o nueve. la teoría M parece contener membranas de hasta 5-branas.

D-brana

En física teórica, las D-branas son una clase especial de P-branas, nombradas en honor del matemático Johann Dirichlet por el físico Joseph Polchinski. Las condiciones de contorno de Dirichlet se han utilizado desde hace mucho en el estudio de líquidos y de la teoría del potencial, donde implican especificar una cierta cantidad a lo largo de toda una frontera. En la dinámica de fluidos, la fijación de una condición de límite de Dirichlet podía significar asignar una velocidad del fluido conocida a todos los puntos en una superficie; al estudiar electrostática, se puede establecer condiciones límite de Dirichlet por la fijación de los valores conocidos del voltaje en localizaciones particulares, como las superficies de los conductores. En cualquier caso, las localizaciones en las cuales se especifican los valores se llaman una D-brana. Estas construcciones adquieren importancia especial en teoría de cuerdas, porque las cuerdas abiertas deben tener sus puntos finales unidas a D-branas.

Las D-branas se clasifican típicamente por su dimensión, que es indicada por un número escrito después de la D. Una D0-brana es un solo punto, una D1-brana es una línea, una D2-brana es un plano, y una D25-brana llena el espacio hiper-dimensional considerado en la teoría de la cuerda bosónica.

D-branas en teoría de cuerdas

Fondo teórico

La mayoría de las versiones de la teoría de cuerdas implican dos tipos de cuerda: cuerdas abiertas con puntos finales desligados y cuerdas cerradas que forman lazos cerrados. Explorando las consecuencias de la acción Nambu-Goto, queda claro que la energía puede fluir a lo largo de una cuerda, deslizándose hasta el punto final y desapareciendo. Esto plantea un problema: la conservación de la energía establece que la energía no debe desaparecer del sistema. Por lo tanto, una teoría consistente de cuerdas debe incluir lugares en los cuales la energía pueda fluir cuando deja una cuerda; estos objetos se llaman D-branas. Cualquier versión de la teoría de cuerdas que permite cuerdas abiertas debe incorporar necesariamente D-branas, y todas las cuerdas abiertas debe tener sus puntos finales unidos a estas branas. Para un teórico de cuerdas, las D-branas son objetos físicos tan "reales" como las cuerdas y no sólo entes matemáticos que reflejan un valor.

Se espera que todas las partículas elementales sean estados vibratorios de las cuerdas cuánticas, y es natural preguntarse si las D-branas están hechas de alguna modo con las cuerdas mismas. En un sentido, esto resulta ser verdad: entre el espectro de las partículas que las vibraciones de la cuerda permiten, encontramos un tipo conocido como taquión, que tiene algunas propiedades raras, como masa imaginaria. Las D-branas se pueden imaginar como colecciones grandes de taquiones coherentes, de un modo parecido a los fotones de un rayo láser.

Las cuerdas que están restringidas a D-branas se pueden estudiar por medio de una teoría cuántica de campos de 2 dimensiones renormalizable.

Cosmología de Mundo de Branas

Esto tiene implicaciones en la cosmología, porque la teoría de cuerdas implica que el universo tienen más dimensiones que lo esperado (26 para las teorías de cuerdas bosónicas y 10 para las teorías de supercuerdas) tenemos que encontrar una razón por la cual las dimensiones adicionales no son evidentes. Una posibilidad sería que el universo visible es una D-brana muy grande que se extiende sobre tres dimensiones espaciales. Los objetos materiales, conformados de cuerdas abiertas, están ligados a la D-brana, y no pueden moverse "transversalmente" para explorar el universo fuera de la brana. Este panorama se llama una Cosmología de branas. La fuerza de la gravedad no se debe a las cuerdas abiertas; los gravitones que llevan las fuerzas gravitacionales son estados vibratorios de cuerdas cerradas. Ya que las cuerdas cerradas no tienen por qué estar unidas a D-branas, los efectos gravitacionales podrían depender de las dimensiones adicionales perpendiculares a la brana.

Agujeros negros

Otro uso importante de D-branas ha sido el estudio de los agujeros negros. La teoría de D-branas permite asignar los estados cuánticos de los agujeros negros.

Cosmología de branas

La cosmología de branas se refiere a varias teorías de la física de partículas y de la cosmología motivadas por la teoría de supercuerdas y teoría M.

Las branas y el “bulk”

La idea central es que la parte visible de nuestro universo de cuatro dimensiones está limitada a una brana dentro de un espacio de dimensionalidad superior llamado el "Bulk", o “Mole“ o “Bulto“ en español. Las dimensiones adicionales, compactas, están enrolladas en un espacio de Calabi-Yau. En el modelo del "bulk", otras branas pueden estar moviéndose a través del bulk. Interacciones con el Bulk, y posiblemente con otras branas, pueden influenciar nuestro universo-brana y de allí que puede introducir efectos no vistos en más modelos cosmológicos estándar.

Explicación de la debilidad de la gravedad

Esta es una de las características atractivas de esta teoría, en la que explica del porque la debilidad de la gravedad lo es con respecto al resto de las fuerzas fundamentales de la naturaleza, solventando el llamado problema de jerarquía. En el escenario de branas, las otras tres fuerzas de la naturaleza, el electromagnetismo y las fuerzas nucleares débil y fuerte, están confinadas como cuerdas ancladas a nuestra 3-brana universo, difiriendo la gravedad, que se piensa sea como una cuerda cerrada no anclada, y por lo tanto, gran parte de su fuerza atractiva "filtra" o se escapa al "bulk". Como consecuencia de ello, la fuerza de la gravedad debe aparecer con más fuerza en las pequeñas escalas, donde menos fuerza gravitacional se ha "filtrado".

Modelos basados en la cosmología de branas

Existen dos grandes grupos de teorías basados en la cosmología de branas. El primer grupo mezcla aspectos de la teoría M con la cosmología inflacionaria. El segundo grupo, de más reciente formulación, argumenta la existencia de una cosmología de branas basada en la teoría M sin recurrir al modelo inflacionario. El modelo de Randall-Sundrum (RS1 y RS2) se puede ajustar a los criterios de cualquier modelo de ambos grupos.

En la cosmología inflacionaria el universo adquiere sus características observables (problema del horizonte, planitud y de monopolos magnéticos) después del Big Bang, mientras tanto en los modelos ecpirótico y cíclico las características observables derivan de un momento previo al big bang debido a un choque entre branas. El cosmólogo Alexander Vilenkin argumenta que en los modelos inflacionarios el tiempo esta autocontenido dentro del universo marcando el Big Bang su comienzo (tiempo finito). Mientras tanto el cosmólogo Neil Turok propone que en los modelos donde se dan los choques entre branas el tiempo ya existía antes del Big Bang (tiempo infinito).

Modelo del multiverso

En los modelos basados en la cosmología inflacionaria se puede imaginar un infinito océano que debido a las fluctuaciones de la física cuántica se forman branas como burbujas en el agua hirviendo. De está forma surgen de momento a momento Big Bangs y unas burbujas desaparecen y otras crecen (inflación) debido a las mismas fluctuaciones. Figuradamente cada universo se podría considerar como una burbuja (brana) nadando en un océano infinito de agua hirviendo (falso vacío). La formulación de esta teoría esta fuertemente influenciada por la interpretación de la mecánica cuántica de Hugh Everett.

Modelo del universo cíclico

En los modelos basados en el choque de branas, a diferencia de los modelos inflacionarios, cada brana ya existía antes del big bang y las características que llevaban antes del choque se imprimen en las características del siguiente universo formado después del choque. Los modelos pre-big bang, ecpirótico y cíclico pertenecen a este grupo de teorías.

Mecánica cuántica



La mecánica cuántica describe, en su visión más ortodoxa, cómo en cualquier sistema físico –y por tanto, en todo el universo– existe una multiplicidad de estados resultantes de incertidumbre en la especificacion completa a partir de observables. Los estados, habiendo sido descritos mediante ecuaciones matemáticas por los físicos, son denominados estados cuánticos. De esta forma la mecánica cuántica puede explicar la existencia del átomo y revelar los misterios de la estructura atómica, tal como hoy son entendidos; fenómenos que no puede explicar debidamente la física clásica o más propiamente la mecánica clásica.

De forma específica, se considera también mecánica cuántica, a la parte de ella misma que no incorpora la relatividad en su formalismo, tan sólo como añadido mediante la teoría de perturbaciones.La parte de la mecánica cuántica que sí incorpora elementos relativistas de manera formal y con diversos problemas, es la mecánica cuántica relativista o ya, de forma más exacta y potente, la teoría cuántica de campos (que incluye a su vez a la electrodinámica cuántica, cromodinámica cuántica y teoría electrodébil dentro del modelo estándar)y más generalmente, la teoría cuántica de campos en espacio-tiempo curvo. La única interacción que no se ha podido cuantificar ha sido la interacción gravitatoria.

La mecánica cuántica es el fundamento de los estudios del átomo, su núcleo y las partículas elementales (siendo necesario el enfoque relativista). También en teoría de la información, criptografía y química.

Contexto histórico

La mecánica cuántica es, cronológicamente, la última de las grandes ramas de la física. Se formuló a principios del siglo XX, casi al mismo tiempo que la teoría de la relatividad, aunque el grueso de la mecánica cuántica se desarrolló a partir de 1920 (siendo la teoría de la relatividad especial de 1905 y la teoría general de la relatividad de 1915).

Además al advenimiento de la mecánica cuántica existían diversos problemas no resueltos en el electrodinámica clásica. El primero de estos problemas era la emisión de radiación de cualquier objeto en equilibrio, llamada radiación térmica, que es la que proviene de la vibración microscópica de las partículas que lo componen. Usando las ecuaciones de la electrodinámica clásica, la energía que emitía esta radiación térmica tendía al infinito si se suman todas las frecuencias que emitía el objeto, con ilógico resultado para los físicos. También la estabilidad de los átomos no podía ser explicada por el electromagnetismo clásico, y la noción de que el electrón fuera o bien una partícula clásica puntual o bien una cáscara de dimensiones finitas resultaban igualmente problemáticas.

Radiación electromagnética

El problema de la radiación electromagnética fue uno de los primeros problemas resueltos en el seno de la mecánica cuántica. Es en el seno de la mecánica estadística donde surgen las ideas cuánticas en 1900. Al físico alemán Max Planck se le ocurrió un artificio matemático: si en el proceso aritmético se sustituía la integral de esas frecuencias por una suma no continua, se dejaba de obtener infinito como resultado, con lo que se eliminaba el problema; además, el resultado obtenido concordaba con lo que después era medido.

Fue Max Planck quien entonces enunció la hipótesis de que la radiación electromagnética es absorbida y emitida por la materia en forma de «cuantos» de luz o fotones de energía mediante una constante estadística, que se denominó constante de Planck. Su historia es inherente al siglo XX, ya que la primera formulación cuántica de un fenómeno fue dada a conocer por el mismo Planck el 14 de diciembre de 1900 en una sesión de la Sociedad Física de la Academia de Ciencias de Berlín.

La idea de Planck habría quedado muchos años sólo como hipótesis si Albert Einstein no la hubiera retomado, proponiendo que la luz, en ciertas circunstancias, se comporta como partículas de energía independientes (los cuantos de luz o fotones). Fue Albert Einstein quien completó en 1905 las correspondientes leyes de movimiento en su teoría especial de la relatividad, demostrando que el electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que se ha dado en llamar física clásica, es decir, la física no-cuántica.

Usó este punto de vista llamado por él «heurístico», para desarrollar su teoría del efecto fotoeléctrico, publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de Física de 1921. Esta hipótesis fue aplicada también para proponer una teoría sobre el calor específico, es decir, la que resuelve cuál es la cantidad de calor necesaria para aumentar en una unidad la temperatura de la unidad de masa de un cuerpo.

El siguiente paso importante se dio hacia 1925, cuando Louis De Broglie propuso que cada partícula material tiene una longitud de onda asociada, inversamente proporcional a su masa, y dada por su velocidad. Poco tiempo después Erwin Schrödinger formuló una ecuación de movimiento para las «ondas de materia», cuya existencia había propuesto De Broglie y varios experimentos sugerían que eran reales.

La mecánica cuántica introduce una serie de hechos contraintuitivos que no aparecían en los paradigmas físicos anteriores; con ella se descubre que el mundo atómico no se comporta como esperaríamos. Los conceptos de incertidumbre o cuantización son introducidos por primera vez aquí. Además la mecánica cuántica es la teoría científica que ha proporcionado las predicciones experimentales más exactas hasta el momento, a pesar de estar sujeta a las probabilidades.

Inestabilidad de los átomos clásicos

El segundo problema importante que la mecánica cuántica resolvió a través del modelo de Bohr, fue el de la estabilidad de los átomos. De acuerdo con la teoría clásica un electrón orbitando alrededor de un núcleo cargado positivamente debería emitir energía electromagnética perdiendo así velocidad hasta caer sobre el núcleo. La evidencia empírica era que esto no sucedía, y sería la mecánica cuántica quien resolvería este hecho primero mediante postulados ad hoc formulados por Bohr y más tarde mediante modelos como el modelo atómico de Schrödinger basados en supuestos más generales. A continuación se explica el fracaso del modelo clásico.



En mecánica clásica, un átomo de hidrógeno es un tipo de problema de los dos cuerpos en que el protón sería el primer cuerpo que tiene más del 99% de la masa del sistema y el electrón es el segundo cuerpo que es mucho más ligero. Para resolver el problema de los dos cuerpos es conveniente hacer la descripción del sistema, colocando el origen del sistema de referencia en el centro de masa de la partícula de mayor masa, esta descripción es correcta considerando como masa de la otra partícula la masa reducida que viene dada por
Siendo la masa del protón y  la masa del electrón. En ese caso el problema del átomo de hidrógeno parece admitir una solución simple en la que el electrón se moviera en órbitas elípticas alrededor del núcleo atómico. Sin embargo, existe un problema con la solución clásica, de acuerdo con las predicciones de electromagnetismo una partícula eléctrica que sigue un movimiento acelerado, como sucedería al describir una elipse debería emitir radiación electromagnética, y por tanto perder energía cinética, la cantidad de energía radiada sería de hecho:


Ese proceso acabaría con el colapso del átomo sobre el núcleo en un tiempo muy corto dadas las grandes aceleraciones existentes. A partir de los datos de la ecuación anterior el tiempo de colapso sería de 10-8 s, es decir, de acuerdo con la física clásica los átomos de hidrógeno no serían estables y no podrían existir más de una cienmillonésima de segundo.

Esa incompatibilidad entre las predicciones del modelo clásico y la realidad observada llevó a buscar un modelo que explicara fenomenológicamente el átomo. El modelo atómico de Bohr era un modelo fenomenológico que explicaba satisfactoriamente algunos datos, como el orden de magnitud del radio atómico y los espectros de absorción del átomo, pero no explicaba cómo era posible que el electrón no emitiera radiación perdiendo energía. La búsqueda de un modelo más adecuado llevó a la formulación del modelo atómico de Schrödinger en el cual puede probarse que el valor esperado de la acelaración es nulo, y sobre esa base puede decirse que la energía electromagnética emitida debería ser también nula. Sin embargo, la representación cuántica de Schrödinger es difícil de entender en términos intuitivos.

Desarrollo histórico

La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad del siglo XX. El hecho de que la energía se intercambie de forma discreta se puso de relieve por hechos experimentales como los siguientes, inexplicables con las herramientas teóricas anteriores de la mecánica clásica o la electrodinámica:

Espectro de la radiación del cuerpo negro, resuelto por Max Planck con la cuantización de la energía. La energía total del cuerpo negro resultó que tomaba valores discretos más que continuos. Este fenómeno se llamó cuantización, y los intervalos posibles más pequeños entre los valores discretos son llamados quanta (singular: quantum, de la palabra latina para «cantidad», de ahí el nombre de mecánica cuántica). La magnitud de un cuanto es un valor fijo llamado constante de Planck, y que vale: 6.626 ×10-34 julios por segundo.
Bajo ciertas condiciones experimentales, los objetos microscópicos como los átomos o los electrones exhiben un comportamiento ondulatorio, como en la interferencia. Bajo otras condiciones, las mismas especies de objetos exhiben un comportamiento corpuscular, de partícula, («partícula» quiere decir un objeto que puede ser localizado en una región concreta del espacio), como en la dispersión de partículas. Este fenómeno se conoce como dualidad onda-partícula.
Las propiedades físicas de objetos con historias asociadas pueden ser correlacionadas, en una amplitud prohibida para cualquier teoría clásica, sólo pueden ser descritos con precisión si se hace referencia a ambos a la vez. Este fenómeno es llamado entrelazamiento cuántico y la desigualdad de Bell describe su diferencia con la correlación ordinaria. Las medidas de las violaciones de la desigualdad de Bell fueron algunas de las mayores comprobaciones de la mecánica cuántica.
Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a aparecer esa "misteriosa" necesidad de cuantizar la energía.
Efecto Compton.
El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de varios físicos y matemáticos de la época como Schrödinger, Heisenberg, Einstein, Dirac, Bohr y Von Neumann entre otros (la lista es larga). Algunos de los aspectos fundamentales de la teoría están siendo aún estudiados activamente. La mecánica cuántica ha sido también adoptada como la teoría subyacente a muchos campos de la física y la química, incluyendo la física de la materia condensada, la química cuántica y la física de partículas.

La región de origen de la mecánica cuántica puede localizarse en la Europa central, en Alemania y Austria, y en el contexto histórico del primer tercio del siglo XX.

Suposiciones más importantes

Las suposiciones más importantes de esta teoría son las siguientes:

Al ser imposible fijar a la vez la posición y el momento de una partícula, se renuncia al concepto de trayectoria, vital en mecánica clásica. En vez de eso, el movimiento de una partícula 'puede ser explicado por una función matemática que asigna, a cada punto del espacio y a cada instante, la probabilidad de que la partícula descrita se halle en tal posición en ese instante (al menos, en la interpretación de la Mecánica cuántica más usual, la probabilística o interpretación de Copenhague). A partir de esa función, o función de ondas, se extraen teóricamente todas las magnitudes del movimiento necesarias.
Existen dos tipos de evolución temporal, si no ocurre ninguna medida el estado del sistema o función de onda evolucionan de acuerdo con la ecuación de Schrödinger, sin embargo, si se realiza una medida sobre el sistema, éste sufre un «salto cuántico» hacia un estado compatible con los valores de la medida obtenida (formalmente el nuevo estado será una proyección ortogonal del estado original).
Existen diferencias perceptibles entre los estados ligados y los que no lo están.
La energía no se intercambia de forma continua en un estado ligado, sino en forma discreta lo cual implica la existencia de paquetes mínimos de energía llamados cuantos, mientras en los estados no ligados la energía se comporta como un continuo.

Descripción de la teoría

Interpretación de Copenhague

Para describir la teoría de forma general es necesario un tratamiento matemático riguroso, pero aceptando una de las tres interpretaciones de la mecánica cuántica (a partir de ahora la Interpretación de Copenhague), el marco se relaja. La mecánica cuántica describe el estado instantáneo de un sistema (estado cuántico) con una función de onda que codifica la distribución de probabilidad de todas las propiedades medibles, u observables. Algunos observables posibles sobre un sistema dado son la energía, posición, momento y momento angular. La mecánica cuántica no asigna valores definidos a los observables, sino que hace predicciones sobre sus distribuciones de probabilidad. Las propiedades ondulatorias de la materia son explicadas por la interferencia de las funciones de onda.

Estas funciones de onda pueden variar con el transcurso del tiempo. Esta evolución es determinista si sobre el sistema no se realiza ninguna medida aunque esta evolución es estocástica y se produce mediante colapso de la función de onda cuando se realiza una medida sobre el sistema (Postulado IV de la MC). Por ejemplo, una partícula moviéndose sin interferencia en el espacio vacío puede ser descrita mediante una función de onda que es un paquete de ondas centrado alrededor de alguna posición media. Según pasa el tiempo, el centro del paquete puede trasladarse, cambiar, de modo que la partícula parece estar localizada más precisamente en otro lugar. La evolución temporal determinista de las funciones de onda es descrita por la Ecuación de Schrödinger.

Algunas funciones de onda describen estados físicos con distribuciones de probabilidad que son constantes en el tiempo, estos estados se llaman estacionarios, son estados propios del operador hamiltoniano y tienen energía bien definida. Muchos sistemas que eran tratados dinámicamente en mecánica clásica son descritos mediante tales funciones de onda estáticas. Por ejemplo, un electrón en un átomo sin excitar se dibuja clásicamente como una partícula que rodea el núcleo, mientras que en mecánica cuántica es descrito por una nube de probabilidad estática que rodea al núcleo.

Cuando se realiza una medición en un observable del sistema, la función de ondas se convierte en una del conjunto de las funciones llamadas funciones propias o estados propios del observable en cuestión. Este proceso es conocido como colapso de la función de onda. Las probabilidades relativas de ese colapso sobre alguno de los estados propios posibles son descritas por la función de onda instantánea justo antes de la reducción. Considerando el ejemplo anterior sobre la partícula en el vacío, si se mide la posición de la misma, se obtendrá un valor impredecible x. En general, es imposible predecir con precisión qué valor de x se obtendrá, aunque es probable que se obtenga uno cercano al centro del paquete de ondas, donde la amplitud de la función de onda es grande. Después de que se ha hecho la medida, la función de onda de la partícula colapsa y se reduce a una que esté muy concentrada en torno a la posición observada x.

La ecuación de Schrödinger es en parte determinista en el sentido de que, dada una función de onda a un tiempo inicial dado, la ecuación suministra una predicción concreta de qué función tendremos en cualquier tiempo posterior. Durante una medida, el eigen-estado al cual colapsa la función es probabilista y en este aspecto es no determinista. Así que la naturaleza probabilista de la mecánica cuántica nace del acto de la medida.

Formulación matemática

En la formulación matemática rigurosa, desarrollada por Dirac y von Neumann, los estados posibles de un sistema cuántico están representados por vectores unitarios (llamados estados) que pertenecen a un Espacio de Hilbert complejo separable (llamado el espacio de estados). Qué tipo de espacio de Hilbert es necesario en cada caso depende del sistema; por ejemplo, el espacio de estados para los estados de posición y momento es el espacio de funciones de cuadrado integrable , mientras que la descripción de un sistema sin traslación pero con un espín es el espacio{C}^{2n+1}. La evolución temporal de un estado cuántico queda descrita por la ecuación de Schrödinger, en la que el hamiltoniano, el operador correspondiente a la energía total del sistema, tiene un papel central.

Cada magnitud observable queda representada por un operador lineal hermítico definido sobre un dominio denso del espacio de estados. Cada estado propio de un observable corresponde a un eigenvector del operador, y el valor propio o eigenvalor asociado corresponde al valor del observable en aquel estado propio. El espectro de un operador puede ser continuo o discreto. La medida de un observable representado por un operador con espectro discreto sólo puede tomar un conjunto numerable de posibles valores, mientras que los operadores con espectro continuo presentan medidas posibles en intervalos reales completos. Durante una medida, la probabilidad de que un sistema colapse a uno de los eigenestados viene dada por el cuadrado del valor absoluto del producto interior entre el estado propio o auto-estado (que podemos conocer teóricamente antes de medir) y el vector estado del sistema antes de la medida. Podemos así encontrar la distribución de probabilidad de un observable en un estado dado computando la descomposición espectral del operador correspondiente. El principio de incertidumbre de Heisenberg se representa por la aseveración de que los operadores correspondientes a ciertos observables no conmutan.

Relatividad y la mecánica cuántica

El mundo moderno de la física se funda notablemente en dos teorías principales, la relatividad general y la mecánica cuántica, aunque ambas teorías usan principios aparentemente incompatibles. Los postulados que definen la teoría de la relatividad de Einstein y la teoría del quántum están apoyados por rigurosa y repetida evidencia empírica. Sin embargo, ambas se resisten a ser incorporadas dentro de un mismo modelo coherente. Desde mediados del siglo XX, aparecieron teorías cuánticas relativistas del campo electromagnético (electrodinámica cuántica) y las fuerzas nucleares (modelo electrodébil, cromodinámica cuántica), pero hasta la fecha (2016) no se tiene una teoría cuántica relativista del campo gravitatorio que sea plenamente consistente y válida para campos gravitatorios intensos (existen aproximaciones en espacios asintóticamente planos). Todas las teorías cuánticas relativistas consistentes usan los métodos de la teoría cuántica de campos.

En su forma ordinaria, la teoría cuántica abandona algunos de los supuestos básicos de la teoría de la relatividad, como por ejemplo el principio de localidad usado en la descripción relativista de la causalidad. El mismo Einstein había considerado absurda la violación del principio de localidad a la que parecía abocar la mecánica cuántica. La postura de Einstein fue postular que la mecánica cuántica si bien era consistente era incompleta. Para justificar su argumento y su rechazo a la falta de localidad y la falta de determinismo, Einstein y varios de sus colaboradores postularon la llamada paradoja de Einstein-Podolsky-Rosen (EPR), la cual demuestra que medir el estado de una partícula puede instantáneamente cambiar el estado de su socio enlazado, aunque las dos partículas pueden estar a una distancia arbitrariamente grande. Modernamente el paradójico resultado de la paradoja EPR se sabe es una consecuencia perfectamente consistente del llamado entrelazamiento cuántico. Es un hecho conocido que si bien la existencia del entrelazamiento cuántico efectivamente viola el principio de localidad, en cambio no viola la causalidad definido en términos de información, puesto que no hay transferencia posible de información. Si bien en su tiempo, parecía que la paradoja EPR suponía una dificultad empírica para mecánica cuántica, y Einstein consideró que la mecánica cuántica en la interpretación de Copenhague podría ser descartada por experimento, décadas más tarde los experimentos de Alain Aspect (1981) revelaron que efectivamente la evidencia experimental parace apuntar en contra del principio de localidad.Y por tanto, el resultado paradójico que Einstein rechazaba como "sin sentido" parece ser lo que sucede precisamente en el mundo real.

Geometría sagrada



El término Geometría Sagrada hace referencia al conjunto de formas geométricas que se encuentran presentes en el diseño de ciertos sitios considerados sagrados, principalmente iglesias, catedrales y mezquitas, junto con los significados simbólicos y esotéricos que se les atribuyen en base a sus propiedades.Debido a su trasfondo religioso y filosófico, su énfasis en la geometría y la matemática y su relación con la construcción de catedrales, la geometría sagrada es asociada con la masonería. Algunas personas que trabajan con la geometría sagrada afirman que estimula ambos hemisferios cerebrales a la vez; el derecho por estar relacionado con habilidades artísticas y viso-espaciales, y el izquierdo por estar relacionado con la matemática y la lógica, aunque cabe aclarar que esto se trata de una sobresimplificación de la actividad cerebral y la especialización de cada hemisferio.

Fundamentos de diseño

En todo diseño se tienen en cuenta cuatro componentes, lo conceptual, lo visual, lo relacional y lo práctico. Son elementos conceptuales aquellos que no son visibles: Son el punto, la línea, el plano y el volumen. Cuando los elementos conceptuales se hacen visibles, adquieren forma.

Las figuras geométricas

La palabra 'forma' se confunde con 'figura'. No obstante, una forma tri-dimensional puede tener múltiples figuras bi-dimensionales, cuando se la ve sobre una superficie lisa. La forma es entonces la apariencia visual total de un diseño y se identifica por su figura, tamaño, color y textura. La geometría descriptiva ha sido la encargada de la representación gráfica en superficies bidimensionales, de resolver los problemas del espacio en los que intervienen puntos, líneas y planos. Mediante proyecciones, translada los puntos de una figura a una superficie. Tal rama de la geometría resume la teoría del dibujo técnico.

El número Pi

El número pi es la relación entre la longitud de la circunferencia y su diámetro.

La sección áurea

El número áureo y la sección áurea están presentes en todos los objetos geométricos regulares o semiregulares en los que haya simetría pentagonal, pentágonos o aparezca de alguna manera la raíz cuadrada de cinco.

Relaciones entre las partes del pentágono.
Relaciones entre las partes del pentágono estrellado, pentáculo o pentagrama.
Relaciones entre las partes del decágono.
Relaciones entre las partes del dodecaedro y del icosaedro.

Los sólidos platónicos

Para Platón, hay cinco sólidos tridimensionales de aristas, ángulos y caras iguales, tales sólidos platónicos son: el tetraedro, el cubo, el octaedro, el icosaedro y el dodecaedro. Esta exposición la hace en su diálogo el Timeo, en el que plantea que de la quinta combinación, (dodecaedro) a Dios le sirvió para trazar el plano del universo.

Tetraedro – Fuego
Cubo – Tierra
Octaedro – Agua
Icosaedro – Agua
Dodecaedro – Eter o Akasha

Interpretación

Para Blavatsky la geometría es la quinta llave que permite interpretar la vida, las cuatro primeras son: La fisiológica, la psicológica, la astrológica y la metafísica, la sexta es la simbólica y la séptima la matemática.

Fisiología

Desde la fisiología la aplicación de la geometría se puede encontrar en el Hombre vitruviano propuesto por Leonardo da Vinci y Luca Paccioli. Acorde al pentalfa y su correspondiente sección aurea: cuando las relaciones del perímetro son iguales, se produce la relación pi y el número Φ (véase también: Matila Ghyka) . Para Fritjof Capra los tres criterios clave para la vida y sus teorías subyacentes son:

El patrón de organización, como configuración de relaciones (forma, orden y cualidad) que determina las características esenciales del sistema.
La estructura o la corporeización física (substancia, materia, cantidad) del patrón de organización del sistema.
El proceso vital como actividad involucrada en la continua corporeización física.
Rupert Sheldrake postula la existencia de los campos morfogenéticos, como agentes causales del desarrollo y mantenimiento de la forma biológica.

Los siete chakras están ubicados en el cuerpo humano de forma armónica, mediante los cuales ascienden espirales energéticas formando un ángulo de 90 grados a medida que pasan de un chakra el siguiente.

Psicología

La Psicología de la Gestalt plantea la existencia de todos irreductibles como un aspecto clave de la percepción. Se perciben patrones perceptuales integrados, conjuntos organizados dotados de significado. Para Carl Jung, un Mándala es un arquetipo (Jung) que representa los contenidos de conciencia de una persona, la manera como codifica la luz del conocimiento.

Astrología

Desde la astrología la división del zodíaco en doce partes, permite la comprensión del proceso de la vida, y se resume en tres libros en los cuales estudian y aprenden tres tipos de seres humanos.

El libro de la Vida. Las doce constelaciones. Para Iniciados.
El libro de la Sabiduría. Los doce planetas. Para Discípulos.
El libro de la Forma. Las doce jerarquías creadoras. Para la humanidad.
Por lo tanto, la astrología trata de la vida y las vidas, que animan los "puntos de luz" dentro de la vida universal.

Metafísica

Desde la metafísica el símbolo más representativo es el cubo de Metatrón, ya que contiene la réplica tridimensional de cuatro de los cinco sólidos platónicos, a los que Pitágoras llamaba sólidos perfectos. En las Escuelas de Egipto, a estas cinco formas, más la esfera se les consideraba originarias de los cinco elementos primordiales: tierra, fuego, aire, agua y éter.

Geometría

Teniendo en cuenta la geometría, la vida se inicia como un óvulo o esfera, pasa a convertirse en un tetraedro, después en una estrella tetraédrica y posteriormente en un cubo, a continuación en una nueva esfera y termina en un corpúsculo tubular.

Simbología

De acuerdo con la semiótica, un símbolo es la representación de una idea. Para Djwhal Khul la representación del punto, la línea, el triángulo, el cuadrado, la cruz, el pentágono y el círculo, significa el reconocimiento de un vínculo con el conocimiento que ha determinado el desarrollo hasta la fecha. Plantea que en todas las razas hay siete formas análogas y actualmente son veintiuno los símbolos básicos que en forma geométrica encierran los conceptos de la civilización. Están adquiriendo forma el loto y la antorcha flamígera.

La esfera giratoria de materia puede ser representada empleando los mismos símbolos generales cósmicos que se utilizan para representar la evolución:

El círculo representa el límite de la materia indiferenciada.
La circunferencia con un punto en el centro representa la producción de calor en el corazón de la materia como un punto de fuego.
La división del círculo en dos partes, marca la rotación activa y la iniciación del movimiento del átomo de la materia.
La división del círculo en cuatro partes representa la cruz de brazos iguales del espíritu santo, personificación de la materia inteligente activa. Como símbolo astrológico representa el planeta Tierra.
La Esvástica representa el fuego que se extiende de la periferia al centro en cuatro direcciones, que circula e irradia gradualmente alrededor de toda ella.

Matemática

Leonardo Fibonacci fue el matemático que descubrió determinado orden en el crecimiento de las plantas. La secuencia es 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233... Si se divide un término de esta secuencia por el anterior, repitiendo el proceso el número se va acercando a 1,6180339 (89/55), coincidiendo con el número áureo definido por Euclides. La causa de este modelo secuencial se encuentra en la espiral media dorada que gira sin principio ni fin.

En matemáticas, rosa polar es el nombre que recibe cualquier miembro de una familia de curvas de ecuación r(\theta) = \cos (k\theta)\, por asemejarse a una flor de pétalos. Esta familia, también conocida como rhodoneas (del griego rhodon, rosa), fue estudiada por el matemático italiano Luigi Guido Grandi, en torno al 1725, en su libro Flores Geometrici.

Geometría fractal

Sucesivos pasos de la construcción de la curva de Koch.
Fritjof Capra relaciona la geometría con las matemáticas de la complejidad para argumentar que la comprensión del patrón es fundamental para el entendimiento de la trama de la vida y que todas las cuestiones de patrón, orden y complejidad son esencialmente matemáticas.

Fue el matemático polaco naturalizado francés Benoît Mandelbrot, quien acuñó el término fractal para describir la geometría de una gran variedad de fenómenos naturales irregulares. La trama de la vida sería una estructura base de la conciencia, que distribuye cada totalidad como fractales de la estructura base. La matriz, por ende, tiende a ser una estructura de luz que engloba todo acondicionamiento de conciencia para ser esta estructura. En la psicología arquetípica, se le conoce a este patrón de luz como mandala.

Invocações e Evocações: Vozes Entre os Véus

Desde as eras mais remotas da humanidade, o ser humano buscou estabelecer contato com o invisível. As fogueiras dos xamãs, os altares dos ma...