martes, 4 de febrero de 2014

LOS MODELOS COSMOLÓGICOS






LOS MODELOS COSMOLOGICOS

Einstein sienta su teoría matemática de la gravedad sobre dos supuestos críticos, el primero, que el universo no cambia con el tiempo y el segundo, que la materia esta esparcida en forma pareja a través del universo.
Ambos supuestos vendrianse a derrumbar con las observaciones. El de la inmutabilidad del universo tendría la negativa de los descubrimientos de Hubble en 1929, que gracias a los datos obtenidos por el telescopio del monte Wilson, California, podría afirmar que el Universo se expande a la velocidad de su alejamiento. El segundo supuesto también vendría a ser falso en los hechos, pues como actualmente manifiesta el astrónomo Alan Lightman :
 “El supuesto de la homogeneidad que subyace al modelo del Big Bang es evidentemente falso para nuestro universo cercano. Este no presenta un fluido uniforme e indiferenciado que lo colme de modo regular. Por el contrario, es bastante desigual. La materia se aglomera en galaxias y las galaxias forman racimos de galaxias, y así sucesivamente.” [1]
Por lo tanto, ¿cómo puede obtenerse una fiel conceptualización de la gravedad con dos supuestos falsos?

Y en esto el mismo Newton tiene su cuota de responsabilidad por argumentar en una carta al teólogo Richard Bentley que el universo no podía estar contrayéndose o expandiéndose globalmente porque tales movimientos requieren por necesidad de un centro, tal como una explosión tiene su centro.
Y este relajo en el pensamiento del gran físico, acomodado en la opinión mantenida por siglos, fue como la cizaña al trigo, que cuando amabas son pequeñas se confunden y por eso se la llama falso trigo, pero a medida que crecen la primera perjudica a la segunda. De este modo nos vemos hoy con un estado de situación un tanto contradictorio porque las teorías modernas se encuentran apoyadas en formas caducas por la observación.
Un ejemplo de esto es el modelo cosmológico del Big Bang, creado por Alexander Friedman y redescubierto en el año 1927 por George Lemaître. Este modelo que se fundó como una alternativa al universo estático, tuvo como contrapartida, el aceptar la teoría de la gravedad de Einstein. De hecho, esta teoría generaría en el transcurso del tiempo una ciencia especulativa llamada hoy cosmología.

Si el lector me permite, trataré de fundamentar esta afirmación con una breve explicación:
Hoy día, la ciencia se apoya en un método experimental en el cual basa todas sus leyes. Pero es el caso que sus propias leyes son violadas a la hora de explicar sus teorías.
Si se afirma, como hoy se hace, que la gravedad proviene de la masa, entonces no se tendrá problemas en explicar porque Neptuno que se encuentra a más de 4500 millones de kilómetros puede tener un periodo de rotación de 15, 7 horas cuando la tierra a tan solo 156 millones de kilómetros tarda 24 horas nada más; como es que Júpiter posee una densidad de 1,3 g/cm3 inferior al agua y tiene una aceleración de la gravedad de 25,99 m/s2 , mientras que Mercurio con una densidad mayor de 6,2 g/cm3 posee un aceleración menor en superficie de 4 m/s2 . Pero la respuesta es que la ciencia, sí posee grandes inconvenientes en fundamentar estas incongruencias, como posee grandes obstáculos en explicar cómo es que Mercurio que esta tan cerca del sol puede tener un periodo rotativo tan lento comparado con Júpiter que se encuentra a 780 millones de km del astro rey.

Estas cuestiones y otras tantas se les podría adjudicar a la teoría gravitatoria actual como un peso muerto que no ha podido superar, pues aun ni con la teoría relativista tales escollos dejarían de ser. Si se postula con ella que la gravedad es producto de una inclinación del espacio (gravedad Einsteniana) podría preguntarse de que manera esa inclinación, esa curvatura, se produce. Es decir, habitualmente se nos explica que el planeta genera una deformación estacionaria en la tela espacio temporal y que esa deformación hace las veces de plano inclinado por el cual los planetas se deslizan geodésicamente; pero ¿qué es lo que produce esa deformación?
Si decimos que es el peso, estamos encerrándonos en una concepción falsa, ya que el planeta no tiene peso alguno según la teoría relativista, es decir las cosas solo pesan por una diferencia geométrica entre el espacio-tiempo y la masa. Por otro lado si la masa es la causa del espacio curvo, ¿quién o que genera la masa?
Por lo tanto nos vemos enfrentados ante otro gran cuestionamiento: ¿Puede un cuerpo deformar el espacio-tiempo?
Einstein rechazo de cuajo la idea del éter que han sostenido tantos físicos en la historia, tales como Newton, Huygens, el padre Pardies, Fresnel, Maxwel, Neuman, Lorentz, Fizeau, cada uno con una visión distinta de él. El abandono del Éter clásico fue debido igualmente al surgimiento del concepto de campo -de Faraday, pasando por Maxwell hasta Einstein y la Dinámica Cuántica. El Espacio pasó a ser tratado como algo dado, que está penetrado por campos presentes y propagándose incluso en el vacío careciente de materia ordinaria. Los campos pueden ser electromagnéticos, gravitacionales o supermasivos, y más recientemente han resucitado con cierta dificultad en el concepto de "espuma cuántica" o una "espuma espacial", un campo de punto cero (ZPF) o la energía oscura de las partículas ausentes de Higgs

Einstein en un principio adopto la idea del éter con las siguientes palabras: "Una reflexión más precisa nos enseña, no obstante, que la teoría de la relatividad especial no nos obliga a negar el éter. Podemos asumir la existencia de un éter; sólo (...) tenemos que extraer por abstracción la última característica mecánica que Lorenz aún le ha dejado (...), eso es, su inmovilidad. (...) Negar el éter es en última instancia asumir que el espacio vacío no tiene ningún tipo de cualidad física. (...) Recapitulando, podemos decir que según la teoría de la relatividad general el espacio está dotado de cualidades físicas; en este sentido, pues, existe un éter" (A. Einstein, "Éter y Relatividad", 1920).Pero, como se sabe, Einstein mismo después descartó esta noción.
La idea de Einstein es original, ya que descarta la noción de “fuerza” en la gravedad, y postula en cambio, una diferencia entre geometrías, es decir, que la gravedad es el resultado de la deformación de la tela espacio-temporal. Es interesante el planteamiento ya que saca de foco la noción tradicional, pero si uno se fija con cuidado, no resuelve en absoluto el origen de las fuerzas, ni mucho menos el de la gravedad, porque  si la tela se deforma es gracias a una fuerza ¿Cuál es esta?. No se nos puede responder que esta fuerza es la masa, la masa por sí sola no posee fuerza, ni tampoco se nos puede decir que es por una inclinación espacio temporal ya que esta inclinación debería producirse por la masa la cual en realidad no es nada por sí misma.
Pero entonces ¿qué es lo que genera la gravedad?

Cualquier modelo cosmológico deberá ser rechazado posteriormente si carece de una contemplación hacia realidades meta-físicas. Así le ha ocurrido al modelo del universo oscilante de Richard Tolman, creado en 1930. Este modelo supuso un universo en oscilaciones constantes, que atravesase periodos de expansión seguidos por otros de contracción. Este atisbo de verdad había nacido con un defecto mortal, el universo era de tipo cerrado. Para la década de 1960, Roger Pernose y Steve Hawking aprovecharían este defecto, que violaba la segunda ley de la termodinámica [2], para argumentar que no existía ningún mecanismo plausible capaz de producir oscilaciones.
Aquí cabría preguntar lo siguiente ¿No es considerado el Universo como un organismo? Y si lo es ¿No poseen los organismos pulsaciones repetidas, oscilaciones energéticas constantes?
Pero lejos de responder a esto, los modelos han venido siguiéndose uno tras otro, tratando de conciliar lo que se observaba experimentalmente con lo que estaba establecido por sistema. De esta forma, y tratando de encontrar una manera de explicar la constancia de las leyes universales, fue que nació el modelo del universo en estado continuo [3]. Este modelo proponía que el universo no cambiaba no el paso del tiempo, siendo la densidad promedio de la materia y la temperatura, una constante invariable. Puede verse aquí un intento por explicar la ley de la conservación de la energía, llevado a un extremo Aristotélico y que por no poder reunir en un solo modelo las leyes de creación, conservación y destrucción de la energía, tuvo que limitarse a una concepción artificial. Observaciones posteriores, como la de los Quasars (descubiertos en 1963) hicieron que el modelo perdiese credibilidad.
Otro modelo tendría la oportunidad de reivindicar a la ciencia cosmológica, este sería el modelo del universo inflacionario, postulado en el año 1980, y fue un intento de unificar las grandes teorías de la física [4]. A saber, la teoría de la fuerza electromagnética, la de la fuerza nuclear fuerte (que une las sub-partículas al núcleo atómico), la de la fuerza nuclear débil (que es la que genera radioactividad) y la de la gravedad, en donde todas estarían unidas en el comienzo del universo, alrededor de los10-8 segundos cuando su materia estaría a una temperatura aproximada a los 1014 grados centígrados. Con este modelo se pretendía solucionar el problema de la cosmología plana y el problema del horizonte sosteniendo que poco después del Big Bang, se produjo una pequeña expansión de tipo exponencial, llamada por algunos “Fase de Sitter”, que duraría milésimas de segundo pero que aun así, realizo una homogenización general que es la que hoy se conoce como radiación de fondo.

Este modelo, tuvo sus dificultades, resueltas en 1982, por Paul Steindhard, Andres Albrech y Andrei Linde, pues la gravedad negativa estipulada no llenaba el universo en forma pareja, pero aun así, con estos arreglos o retoques al mejor estilo “ o sale o sale”, el modelo sufrió la refutación teórica que argüía que, aunque éste era mucho más homogéneo que el modelo anterior, no dejaba de predecir inhomogeneidades en la infancia del universo y suficientemente grandes como para desnivelar la uniformidad que se observa en la radiación cósmica actual. Además de esto, este modelo necesitaba verificar una enorme cantidad de masa faltante que hoy día no es observable y para mayor confusión aun, el problema entrópico siguió siendo irresoluto.
Lo que los científicos no pueden explicar más allá de la amplia variedad de modelos creados, es como y porque las aglomeraciones se forman, y como y porque (sin mencionar el para qué) las galaxias se generan espiraloidalmente en torno a un centro, y para explicar esto, tratan en vano, de justificar tales congregaciones con movimientos uniformes que le den al principio y origen del universo una tendencia que genere dichas formaciones.
El modelo de materia oscura fría[5] desechado ya por observaciones realizadas en el año 1990 por S.J. Maddox, G. Efstathiou, W.Sutherland y J. Loveday, de la Universidad de Oxford, es otro ejemplo más de esta típica actitud de querer hacer del universo, una maquina automática en la cual antes de comenzar se le hecha un producto, se le regula la velocidad y se le fija una temperatura, para obtener como resultado, un universo a medida de muy acotadas concepciones.

Pero esto, no les ha eximido de enorgullecerse de sus inventos y comprobaciones, como los realizados por el satélite GP-B (Gravity Probe-B). En estos últimos años y en donde pudieron probar mediante un sistema de giroscopios la curvatura de lo que los llaman espacio-tiempo. Mas, y a despecho de la precisión proclamada por los expertos, no puede ser negado que, el 95 % de la sustancia que, según ellos, existe en el universo y lo hace funcionar, permanece sin clasificar y es totalmente desconocida[6].
Esta materia oscura, inventada por los científicos en los límites de la desorientación fue prevista después de que en el año 1933 el astrónomo suizo-norteamericano Fritz Zwicky llegó a obtener la cantidad de masa de una aglomeración de galaxias calculando la gravedad para que el grupo no se disperse. El resultado fue una masa total que era unas veinte veces mayor de lo que debería ser de acuerdo con las estrellas observables de esa galaxia. Así mismo en el año 1973 Jeremiah Ostriker y James Peebles dedujeron según análisis teóricos que la cantidad de masa en los discos de típicas galaxias en rotación no era suficiente para que ellas se separasen.
De esta forma, debería asumirse que la “masa oscura” según la llaman, gobierna el movimiento estelar de manera casi unánime ya que si se guían por la masa visible, el valor Omega [7] se reduciría a 0.01 lo que daría como resultado un universo abierto y totalmente contrario a lo esperado, negando rotundamente las bases del Big Bang. Aun incluyendo la masa oscura el resultado de Omega seria de 0.1 y por este motivo los científicos no solo están buscando desesperadamente a la masa oscura, sino a otra masa que ellos llaman “masa faltante”.

Creo que, esto último da una visual poco seria de la cuestión. ¿Cómo pueden mantenerse las mismas bases teóricas que hoy se utilizan cuando las fuerzas que gobiernan los movimientos estelares son completamente desconocidos? “En estos últimos años los astrónomos no dejan de inquietarse porque han comprendido que la materia luminosa que han observado y examinado durante siglos constituye un simple decimo de la totalidad. El descontento no solo se relaciona con la desconocida identidad de la materia oscura; tampoco se conocen su cantidad y su disposición en el espacio, lo que frustra cualquier intento por comprender  porque la masa luminosa está dispuesta como lo está” [8]
¿Por qué se siguen inventando masas oscuras para avalar los desconcertantes cálculos gravitatorios?

Esto no debe sorprendernos. Es la herencia que les ha tocado a los que renegaron de los verdaderos sabios como Platón que encontraba en este mundo una réplica inexacta de aquel otro que era geométrico y exacto, intuido por Kepler cuando le aplicaba al mecanismo orbital estructuras semejantes a los poliedros.
Y es por esto que los científicos se han ocupado de develar el origen del vasto universo cuando todavía desconocen el origen de su propio planeta. Sean perdido, indudablemente, en la extensión sin recabar en la profundidad y, como los niños, se han puesto a ensayar con las herramientas de los mayores, cuando deberían seguir con la palita y el balde en el arenero.
De acuerdo con las teorías ampliamente aceptadas, las vecindades de un sol galáctico deberían estar llenas de materia oscura. Ahora bien, un estudio realizado en Chile en el año 2012 utilizando, junto con otros telescopios, el telescopio MPG/ESO [9]  de 2.2 metros en el laboratorio La Silla, ha cartografiado los movimientos de más de 400 estrellas situadas a más de 13.000 años luz del sol y con esos datos han calculado la masa de materia en las vecindades de nuestro sol teniendo en cuenta un volumen que supera cuatro veces el utilizado anteriormente. Cuando el líder del equipo Cristian Moni Bidin del departamento de Astronomía de la universidad de Concepción en Chile tuvo que referir lo que dieron los resultados explico lo siguiente: “La cantidad de masa derivada encaja muy bien con lo que vemos  -estrellas, polvo y gas- en la región que rodea al sol, pero esto no deja espacio para materia extra –la materia oscura- que esperábamos encontrar. Nuestros cálculos muestran que debería haberse visto claramente en nuestras medidas. Pero, simplemente, ¡No estaba allí! (…) Pese a los nuevos resultados, la vía láctea rota sin duda más rápido de lo que cabría esperar si solo fuera materia visible. Por tanto, si la materia oscura no está presente donde suponíamos que debía estar, debemos encontrar una nueva solución para el problema de la materia que falta. Nuestros resultados contradicen los modelos aceptados actualmente. El misterio de la materia oscura acaba de hacerse aún más misterioso [http://www.eso.org/public/spain/news/eso1217/]

Esto deja ya sin mucho ánimo para seguir creyendo en la teoría de la materia oscura que no solo va en contra de la gravedad comúnmente aceptada, sino de la teoría del Big Bang.
A propósito de ello, cabe mencionar aquí otra observación reciente que se efectuó en el año 2011, la estrella encontrada por un equipo de astrónomos europeos con el Very Large Telescope de ESO en Cerro Paranal, Chile, compuesta casi totalmente de hidrógeno y helio con cantidades muy pequeñas de otros elementos químicos colocándola por ello en la “zona prohibida del Big Bang. Esta tenue estrella en la constelación de Leo llamada SDSSJ102915+172927 tiene una masa más pequeña que el sol y más de 3000 millones de años. La autora principal del estudio, Elizabetta Caffau dice: “Una teoría ampliamente aceptada predice que las estrellas de este tipo, con poca masa y cantidades extremadamente baja en metales, no debiera existir, porque las nubes de material en donde se formaron nunca podrían haberse condensado”. “Fue sorprendente encontrar por primera vez en esta <zona prohibida>, y esto significa que tendrán que revisarse algunos de los modelos de formación estelar”[ http://www.eso.org/public/spain/news/eso1132/]

En efecto, la teoría del Big Bang afirma que poco después de la explosión fueron creados tres elementos básicos, el Helio, el Hidrógeno y el Litio, mientras que todos los demás elementos se formaron posteriormente en el interior de las estrellas, siendo después expulsados gracias a las explosiones de supernova. Las estrellas que se formaron después, adquirieron estos elementos más pesados que los cosmólogos llaman metales. Pero esta estrella antigua no presenta la cantidad de litio esperado, llegando a tener unas cincuenta veces menos de lo que se cree produjo el Big Bang. Pircarlo Bonifacio proveniente del observatorio de Paris, Francia y miembro del equipo de investigación menciona lo siguiente. “Es un misterio como el Litio que se formó justo después del origen del universo fue destruido en esta estrella” y el confundido científico agrega para el colmo de sus males “Hemos identificado varias estrellas candidatas que podrían tener niveles de metales similares o incluso inferiores a la de SDSSJ102915+172927”.
Por lo que puede verse la ciencia transita por un camino más misterioso aún que la misma espiritualidad, porque ni siquiera ella en su esoterismo más oculto ha dejado en un desconcierto tan pronunciado al estudiante como en el que vemos en el científico de hoy.
La estrella en cuestión, aturde al científico por su falta de Litio, elemento que debiera existir por la antigüedad de la misma, pero su aturdimiento es mayor por la carencia de carbono que esta estrella presenta. Este último elemento junto al oxigeno son para los astrónomos los principales agentes de enfriamiento, sin los cuales, la presión, producto del calentamiento de la estrella, sería demasiado fuerte.
Así que ¿Cómo se formó esta estrella? Lamentablemente nadie lo sabe.

Esto demuestra la insuficiencia de una ciencia que, cargada de fórmulas, ecuaciones, transformaciones, tensores, vectores, etc, no puede ir más allá de lo que ofrece el plano físico. En resumen los modelos cosmológicos no nos han aportado mucho, ofrecidos ante el público como mecanismos fríos, matemáticamente observados, pero con una matemática desligada de la metafísica, una combinación verdaderamente infructuosa. De allí han nacido y permanecen hasta hoy en día, las concepciones irreales de las cuales la ciencia se basa para decirnos “Esta es la realidad de las cosas”, pero tal vez uno debería hacerse eco de las afirmaciones citadas por científicos rechazados del sistema cuando escriben que: “Usted debe darse cuenta de que, en general, sólo aproximadamente el 90% de los físicos son capaces de dar sentido a menos del 10% de lo que otros físicos dicen.”[10] y entonces en ese momento podrá entenderse cabalmente la frase del filosofo griego cuando dijo: “si se deja pasar un absurdo se llega a otros, y en eso no hay ninguna dificultad” [11]


NOTAS:
1.      Alan Lightman. Luz Antigua Cap. 7
2.      La cantidad de entropía del universo tiende a incrementarse en el tiempo.
3.      Concebido por Hermann Bondi, Thomas Gold y Fred Hoyle en 1948
4.      Las grandes teorías de la física son llamadas G.U.T, (Grand Unified Theories) Estas proponen que tres de las cuatro fuerzas fundamentales de la naturaleza son en realidad distintas versiones de una sola fuerza. Estas tres fuerzas son: La electromagnética, la nuclear fuerte y la fuerza nuclear débil. La fuerza gravitatoria seria la cuarta pero no ha podido ser unificada a estas tres por su dificultad de combinación con la mecánica cuántica.
5.       Materia Oscura Fria: La materia oscura fría o CDM (del inglés cold dark matter) es uno de los tipos de materia oscura propuesto a principios de los años 1980 para explicar la formación de estructura cósmica en el modelo del Big Bang. Partiendo con una cierta distribución para las fluctuaciones iniciales, la manera en que estas se amplifican y crecen depende de las características de la materia Las fluctuaciones en pequeñas escalas no son borradas, y la materia colapsa empezando por pequeñas escalas (menores que galaxias), y luego a escalas cada vez mayores, en una formación "de abajo arriba" (bottom-up). Según este modelo, en la época actual la materia aún está colapsando en las escalas de cúmulos. Durante más de una década la materia oscura fría fue la favorita, y las simulaciones computacionales la favorecían.
6.      Esto fue afirmado por Jeremiah Ostriker, James Peebles y Amos Yahil, entre otros tantos. Esta masa faltante es una hipótesis científica y es según ellos, una masa invisible que no emite radiación, ni luz óptica, ni ondas de radio, ni infrarojo, ni ultravioleta, ni rayos x. Lo que no es una hipótesis y forma parte de la cruel realidad es que el 95 % de la masa que regula el mecanismo del universo es completamente desconocida.
7.      Omega es la tasa que nivela la expansión actual con su densidad promedio. Es decir, Omega es igual a 1 cuando amabas fuerzas (expansión y densidad)  están estabilizadas. Es menor a 1 cuando la gravedad, la fuerza de concentración o centrípeta es mayor que la centrifuga o de expansión y es mayor a 1 cuando la expansión es mayor a la contracción. Esta medición significa que si Omega es 1 el universo es plano, si menor a 1 es cerrado, es decir en algún momento el universo se desintegrará, si es mayor a 1, el universo es abierto, o sea eterno. Por lo que se ve uno podría deducir de esto las tres etapas del crecimiento de cualquier organismo. La primera etapa ponderará en una mayor dinámica expansiva, la segunda nos remite a la etapa de estabilidad del universo en donde ambas corrientes se neutralizan y es por esto que la constante Omega les otorga a los científicos de hoy una total correspondencia entre la tasa de expansión y el promedio de densidad resultando un valor que oscila entre 0.1 y 2.0 pero que la mayoría de los científicos intuye muy cercanos al 1, es decir, una relación equilibrada entre densidad y expansión. La tercera posibilidad nos habla de la etapa de vejez del universo en donde las fuerzas expansivas disminuyen y las centrípetas aumentan hasta que el cuerpo, ya sin alma, comience a desintegrarse. Esto último explicaría el material formativo de los nuevos universos.
8.      Alan Lightman. Luz Antigua. Capítulo 7
9.      ESO es la principal organización astronómica intergubernamental de Europa
10.  156.NDMermin, Physics Today, 45 (11), 9 (1992).  [Citado por Bryan Wallace]
11.  Aristóteles. Física. Libro I.




viernes, 9 de agosto de 2013

CAMBIO DE POLARIDAD SOLAR EXPLICADO POR LA NASA

El cambio de polaridad del Sol podría afectar a la temperatura y las comunicaciones por radio


  • Desde 1976 se han registrado tres inversiones del polo magnético solar
  • Este proceso, que se producirá en los próximos meses, ocurre cada 11 años




El campo magnético del Sol, bajo cuyo influjo están la Tierra y el resto de planetas del sistema solar, completará una inversión de polaridad en los próximos tres a cuatro meses que podría afectar a las comunicaciones por radio y la temperatura del planeta.
"Este cambio tendrá repercusiones en todo el sistema solar", ha explicado el físico solar Todd Hoeksema, de la Universidad de Stanford, en California, en declaraciones para la NASA a las que cita Efe.
La inversión de polaridad -el norte pasará al sur y viceversa- ocurre cada once años, en la culminación de cada ciclo solar, cuando magnetismo interno del Sol se reorganiza

jueves, 8 de agosto de 2013

EL SISTEMA SOLAR COMO UN DINAMISMO HELICOIDAL

EL SISTEMA SOLAR COMO UN DINAMISMO HELICOIDAL



Resulta que la ciencia nos ha estado vendiendo un cuento bastante básico y las grandes teorías astronómicas están basadas en un modelo del sistema solar que no totalmente correcto. Esta perspectiva debería cambiar la forma de concebir los mecanismos y dinámicas de las fuerzas planetarias y solares.
Esta versión dinámica es la que se enseña en la NASA dejando al mundo en tinieblas. Muchos han salido a criticar este modelo, en una reacción que denota mas, la vergüenza no asumida del erudito que se da cuenta que no sabe nada,que por verdaderas razones refutatorias y argumentativas.
Este modelo fue ideado por el Dr. Pallathadka Keshava Bath y configurado computacionalmente  hace muy poco tiempo por DJSADHU.

Las razones por las cuales se presento este modelo es porque en el modelo anterior los planetas deberían viajar mas rápido o mas lento que el sol porque al moverse en círculos coplanares con el plano galáctico el resultado seria ese. Sise acepta la falta de coplanaridad, entonces se deberá aceptar también un modelo helicoidal. .El segundo motivo es que los planetas deberían ocultarse una vez al año con el modelo plano, mientras que la realidad muestra que los planetas están siempre visibles en todo el año.


La NASA misma no puede negar este tipo de dinamismos mientras siga teniendo gráficos explicativos del sistema electro-magnético del sol como estos:



Como se puede observar en este vídeo titulado "ScienceCast: The sun´s magnetic field is abaut to flip"el campo magnético se traslada vorticalmente hacia ambos lados con dos polaridades diferentes.

PLUTON DESTITUIDO DE SU CATEGORIA

Plutón ha sido destituído: Se ha dejado como planeta en una desición controversial





Después de años de años intenso debate, los astrónomos resolvieron hoy  degradar a Plutón en una redefinición mayor de planethood que se ha anunciado como una victoria del razonamiento científico sobre las influencias históricas y culturales. Pero la decisión ya está siendo objeto de acalorados debates.

"Plutón está muerto", dijo el investigador de Caltech Mike Brown, quien habló con los periodistas a través de una teleconferencia durante el seguimiento de la votación. La decisión también significa que un objeto del tamaño de Plutón que Brown descubrió tampoco será llamado un planeta.
"Plutón no es un planeta", dijo Brown. "Hay, por último, oficialmente, ocho planetas del sistema solar."
El voto involucrado sólo 424 astrónomos que permanecieron durante el último día de una reunión de la Unión Astronómica Internacional (UAI) en Praga.
"Estoy avergonzado por la Astronomía", dijo Alan Stern, jefe de la misión de Nuevos Horizontes de la NASA a Plutón y científico en el Instituto de Investigación del Suroeste. "Menos del 5 por ciento de los astrónomos del mundo votaron."
"Esta definición apesta, por razones técnicas", dijo Stern a SPACE.com . Se espera que la comunidad astronómica para anular la decisión. Otros astrónomos criticaron la definición como ambigua.
La resolución
La decisión establece tres categorías principales de objetos en nuestro sistema solar.
  • Planetas: Los ocho mundos desde Mercurio a Neptuno.
  • Planetas enanos: Plutón y cualquier otro objeto redondo que "no se ha limpiado la vecindad de su órbita, y no es un satélite."
  • Cuerpos Pequeños del Sistema Solar: Todos los demás objetos que orbitan alrededor del sol.
Plutón y su luna Caronte, que ambos han sido planetas bajo la definición inicial propuesta 16 de agosto , ahora quedan degradados, ya que son parte de un mar de otros objetos que ocupan la misma región del espacio. Tierra y los otros ocho planetas grandes han, por otro lado, han limpiado amplias zonas de espacio de cualesquiera otros objetos de gran tamaño.
"Plutón es un planeta enano por la definición ... y es reconocido como el prototipo de una nueva categoría de objetos transneptunianos", afirma la resolución aprobada.


Lógica de lo Contencioso
La votación se produjo después de ocho días de intenso debate que involucró a cuatro propuestas distintas en la reunión del grupo en Praga.
La propuesta inicial , golpeada por un grupo de siete astrónomos, historiadores y autores, intentó mantener a Plutón como un planeta, pero fue muy criticada por diluir el significado de la palabra. También habría hecho planetas fuera del asteroide Ceres y Caronte, la luna de Plutón. Pero no ahora.
"Ceres es un planeta enano. Es el único planeta enano en el cinturón de asteroides", dijo Brown. "Caronte es un satélite."
Se espera que la categoría de "planeta enano" para incluir docenas de objetos redondos ya descubiertos más allá de Neptuno. En última instancia, probablemente se encontrarán a cientos, dicen los astrónomos.
La palabra "planeta", originalmente descrita vagabundos del cielo que se mueve en un contexto relativamente fijo de estrellas. Plutón, descubierto en 1930 , estaba en el primer pensamiento a ser más grandes de lo que es.Tiene una órbita excéntrica que cruza el camino de Neptuno y también toma muy por encima y por debajo del plano principal del sistema solar.
Los recientes descubrimientos de otro objeto redondo y heladas en el reino de Plutón han llevado a la mayoría de los astrónomos están de acuerdo que el diminuto mundo nunca debería haber sido llamado un planeta.