CITAS, PROVERBIOS Y REFRANES CELEBRES

HAY UNA FUERZA MOTRIZ MÁS PODEROSA QUE EL VAPOR, LA ELECTRICIDAD Y LA ENERGÍA ATÓMICA: LA VOLUNTAD. ( Albert Einstein )

BUSQUEDA EN GOOGLE

Búsqueda personalizada
Loading...

ABC: Ciencia y Tecnología

Fuente: ABC.es

lunes, 10 de octubre de 2011

PLANETAS

Las nuevas tecnologías nos han ayudado a certificar que nuestro sistema solar no es exclusivo ni de nuestra galaxia ni mucho menos del resto del universo o cosmos.
La primera detección confirmada se hizo en 1992, con el descubrimiento de varios planetas de masa terrestre orbitando el púlsar PSR B1257+12.1 La primera detección confirmada de un planeta extrasolar que orbita alrededor de una estrella con características de la secuencia principal similar a nuestro Sol, se hizo en 1995 por los astrónomos Michel Mayor y Didier Queloz. El planeta descubierto fue 51 Pegasi b. Desde entonces se han sucedido en ritmo creciente los descubrimientos de nuevos planetas.
Hasta octubre de 2011 se han descubierto 567 sistemas planetarios que contienen un total de 692 cuerpos planetarios, 823 de estos sistemas son múltiples y 31 de estos planetas están por encima de las 13  MJ (1 MJ es la masa de Júpiter) por lo que muy probablemente sean estrellas enanas marrones.

video



Los planetas son fuentes de luz muy tenue en comparación con sus estrellas. En longitudes de onda visibles, por lo general tienen menos de una millonésima del brillo de su estrella madre. Es sumamente difícil detectar este tipo de fuente de luz tenue, y, además, la estrella madre tiene una luz deslumbrante que casi lo hace imposible.
Por las razones expuestas, los telescopios han fotografiado directamente no más de una decena de exoplanetas. Esto sólo ha sido posible para planetas que son especialmente grandes (por lo general mucho más grande que Júpiter) y muy distantes de su estrella madre. La mayoría de los planetas con imágenes directas también son muy calientes, por lo que emiten una intensa radiación infrarroja, entonces las imágenes han sido hechas en infrarrojos en vez de longitudes de onda visibles, con el fin de reducir el problema del resplandor de la estrella madre.
Por el momento, sin embargo, la gran mayoría de los planetas extrasolares conocidos sólo han sido detectados a través de métodos indirectos. Los siguientes son los métodos indirectos que han demostrado ser útiles:


Velocidades radiales:

Una estrella (al centro) y un planeta girando alrededor del centro de masa mutuo. Este movimiento estelar es detectable por el método de velocidades radiales.
Este método se basa en el efecto doppler. El planeta, al orbitar la estrella central, ejerce también una fuerza gravitacional sobre ésta de manera que la estrella gira sobre el centro de masa común del sistema. Las oscilaciones de la estrella pueden detectarse mediante leves cambios en las líneas espectrales según la estrella se acerca a nosotros (corrimiento hacia el azul) o se aleja (corrimiento al rojo). Este método ha sido el más exitoso en la búsqueda de nuevos planetas, pero sólo es eficaz en los planetas gigantes más cercanos a la estrella principal, por lo que sólo puede detectar una leve fracción de los planetas existentes.


Astrometría:


Dado que la estrella gira sobre el centro de masa se puede intentar registrar las variaciones de posición y el oscilar de la estrella. A pesar de que estas variaciones son muy pequeñas. En 2002, el Telescopio espacial Hubble tuvo éxito en el uso de astrometría para caracterizar un planeta descubierto previamente alrededor de la estrella Gliese 876.25.

Esta es la foto que realizó el Hubble a la estrella más brillante de la constelación de piscis.









Tránsitos:


Consiste en observar fotométricamente la estrella y detectar sutiles cambios en la intensidad de su luz cuando un planeta orbita por delante de ella. El método de tránsitos, junto con el de la velocidad radial, pueden utilizarse para caracterizar mejor la atmósfera de un planeta, como en los casos de HD209458b27 y los planetas OGLE-TR-40 y OGLE-TR-10. Este método, al igual que el de la velocidad radial, encuentra de forma más eficiente planetas de gran volumen, pero tiene la ventaja de que la cercanía del planeta a la estrella no es relevante, por lo que el espectro de planetas que puede detectar aumenta considerablemente. Los avances tecnológicos en fotometría  han permitido que la sonda Kepler  lanzada en 2009, tenga sensibilidad suficiente como para detectar planetas del tamaño de la tierra, hecho que se espera que suceda al término de su misión, a finales de 2012.

Variación en el tiempo de tránsito (VTT):

VTT es una variación sobre el método del tránsito, donde las variaciones en el tránsito de un planeta puede ser utilizado para detectar otro. El primer candidato planetario descubierto de esta manera es el exoplaneta WASP-3c, utilizando WASP-3b en el sistema de WASP-3 en el Observatorio Rozhen, el Observatorio de Jena y el Centro de Torun de Astronomía.. Este nuevo método es potencialmente capaz de detectar planetas como la Tierra o exolunas. Este método fue aplicado con éxito para confirmar las masas de los seis planetas de Kepler-11.

Medida de pulsos de radio de un pulsar:

Un pulsar (es el pequeño remanente, ultradenso de una estrella que ha explotado como una supernova) emite ondas de radio muy regularmente a medida que gira. Leves anomalías en el momento de sus pulsos de radio que se observan pueden ser utilizadas para rastrear los cambios en el movimiento del pulsar causado por la presencia de planetas..

Binaria eclipsante:

Si un planeta tiene una órbita de gran tamaño que la lleva alrededor de dos miembros de un sistema de estrella doble eclipsantes, entonces el planeta se puede detectar a través de pequeñas variaciones en el momento de los eclipses de las estrellas entre sí. Hasta diciembre de 2009, dos planetas se han encontrado por este método.

Microlentes gravitacionales:

El efecto de lente gravitacional ocurre cuando los campos de gravedad del planeta y la estrella actúan para aumentar o focalizar la luz de una estrella distante. Para que el método funcione, los tres objetos tienen que estar casi perfectamente alineados. El principal defecto de este método es que las posibles detecciones no son repetibles por lo que el planeta así descubierto debería ser estudiado adicionalmente por alguno de los métodos anteriores. Esta estrategia tuvo éxito en la detección del primer planeta de masa baja en una órbita ancha, designado OGLE-2005-BLG-390Lb.

Perturbaciones gravitacionales en discos de polvo:

En estrellas jóvenes con discos circumestelares de polvo a su alrededor es posible detectar irregularidades en la distribución de material en el disco circumestelar ocasionadas por la interacción gravitatoria con un planeta. Se trata de un mecanismo similar al que actúa en el caso de los satélites pastores de Saturno. De este modo ha sido posible inferir la presencia de un planeta orbitando la estrella Beta pictoris36 37 y de otro planeta orbitando la estrella Fomalhaut (HD 216956). En estrellas aún más jóvenes la presencia de un planeta gigante en formación sería detectable a partir del hueco de material gaseoso que dejaría en el disco de acrecimiento.

Detección visual directa:

Desde el principio, obtener imágenes/fotografías de los planetas extrasolares ha sido uno de los objetivos más deseados de la investigación exoplanetaria. Las fotografías ya sea de luz visible o infrarrojas podrían revelar mucha más información sobre un planeta que cualquier otra técnica conocida. Sin embargo esto ha revelado ser mucho más difícil técnicamente que cualquiera de las otras técnicas disponibles. Las razones de esto son varias, pero entre las principales, se encuentra la diferencia entre el brillo de las estrellas y el de los planetas. En el espectro de la luz visible, una estrella promedio es miles de millones de veces más brillante que cualquiera de sus hipotéticos planetas, y hasta hace poco ningún detector podía identificar los planetas a partir del brillo estelar.
La primera fotografía de un posible planeta extrasolar es una fotografía infrarroja tomada a la enana marrón 2M1207 por el Very Large Telescope en 2004. El cuerpo fotografiado (2M1207b), es un joven planeta de gran masa (4 masas jovianas) orbitado a 40 UA de la estrella 2M1207. Este planeta está a unos 2500 Kelvin de temperatura, debido a su reciente formación, calculada en aproximadamente 10 millones de años. Los expertos consideran que 2M1207 y 2M1207b son un ejemplo atípico, pues en este sistema, la estrella y el planeta están lejos (40 veces la distancia de la Tierra al Sol) y ambos emiten cantidades comparables de radiación infrarroja, pues la estrella es una enana marrón, y el planeta es todavía muy cálido, y por tanto, ambas son claramente visibles en la fotografía. Sin embargo, planetas de edad y órbitas comparables a la terrestre son todavía imposibles de detectar.

Este es el mapa estelar donde se han localizado los exoplanetas hasta ahora.














Tres posibles proyectos de la NASA permitirán ver directamente planetas extrasolares, incluso analizar su luz para ver si contienen vida: (2008)

Lyon y otros científicos e ingenieros trabajan en el Goddard Space Flight Center en tres misiones distintas: El Extrasolar Planetary Imaging Coronagraph (EPIC), el New Worlds Observer (NWO) y la misión eXtrasolar Planet Characterization (XPC).
La posibilidad de una misión dedicada a la búsqueda de planetas es tentadora, especialmente desde que hace más de una década empezaran a detectarse planetas extrasolares por métodos indirectos. Muchos de ellos son planetas gigantes gaseosos al estilo de nuestro Júpiter.
Las tres misiones propuestas usarán nueva tecnología que permita ver estos planetas directamente mediante el bloqueo de la luz de su estrella anfitriona. Aunque no es nada fácil.
La supresión de la luz estelar es imprescindible para visualizar planetas porque es demasiado brillante, mientras que los planetas no tienen luz propia y sólo reflejan la de su sol. Sin suprimir esta luz el planeta simplemente está perdido dentro de la luz cegadora de su estrella.
Los coronógrafos tipo VNC son una tecnología prometedora para ver directamente planetas gigantes y poder caracterizarlos, esta es una de las metas de EPIC.
La tecnología VNC suprime la luz estelar mediante la interferencia destructiva de las ondas electromagnéticas que la forman. Si las crestas de las ondas coinciden con los valles las ondas se cancelan. Se basa en un principio simple. La luz proveniente del telescopio se divide en dos haces, un haz recorre un camino ligeramente más largo que el otro y luego ambos se recombinan. La luz de la estrella se cancela y queda sólo la luz del planeta. Bajo este principio basta un telescopio que use este tipo de interferometría para lograr el objetivo y suprimir la luz justo en el punto central de la imagen en el que está la estrella.
Los experimentos que están realizando con este concepto avanzan a buen ritmo y los científicos implicados esperan conseguir el contraste necesario con luz blanca este año.
Por otro lado NWO y XPC buscarían planetas en la zona habitable alrededor de otras estrellas. Es decir, planetas susceptibles de mantener las condiciones para la vida tal y como la conocemos. Aunque estas dos misiones se diferencian en muchos aspectos, ambos sistemas utilizan una sombrilla desplegable para ocultar la luz estelar. La sombrilla y el telescopio volarían en formación en el espacio exterior separados por miles de kilómetros.
El NWO usará una sombrilla en forma de flor cuya sombra proyectada sobre el telescopio permitirá ver planetas situados hasta 50 milisegundos de arco de la estrella. Según Doug Leviton, que trabaja en este proyecto, es como tratar de ver un pelo de la ceja de una señorita al otro lado de un estadio de fútbol a simple vista.
NWO vería directamente exoplanetas y podría analizar su luz (tomar espectros) para de este modo saber si hay oxígeno, agua o metano, que son indicadores de posible vida.
XPC consistiría en un telescopio con un coronógrafo interno que bloquearía la luz de la estrella. Podría resolver planetas que orbitaran a su alrededor y quizás buscar indicadores de vida.

En principio, y según Lyon, cualquiera de estos métodos funcionará, pero hace falta un poco más de trabajo en la integración y en la fase de pruebas. Y naturalmente se necesita el necesario presupuesto.








miércoles, 28 de septiembre de 2011

NEUTRINOS MÁS VELOZ QUE LA LUZ



    En el Laboratorio europeo de Física de Partículas (CERN, junto a Ginebra) se ha realizado un experimento que, con un aparato que detecta los haces de neutrinos disparados desde el acelerador del CERN, LHC, a unos 700 kilómetros de distancia de Gran Sasso, para estudiar como se transmutan los neutrinos de un tipo en los de otro tipo. El caso es que se han topado con un resultado nada esperado.Resulta que al realizar la medición de la velocidad a la que se han lanzado, los cálculos hasta ahora no erroneos, daban un resultado mayor a la velocidad máxima de la luz. El efecto es inconcebible para los físicos ya que rompe una máxima preestablecida y aceptada de la teoría de la relatividad especial de Albert Einstein, pero hay que estudiarlo antes de descartarlo. Se ha publicado y presentado todos los datos del experimento, de modo muy técnico, para que puedan empezar a evaluar los datos los expertos ajenos al experimento, que se ha presentado en el Laboratorio Europeo de Física de Partículas (CERN), junto a Ginebra, en el auditorio principal de la institución y con transmisión abierta por internet. Los resultados obtenidos se han verificado tras la repetición del experimento unas 15.000 veces antes de darse a conocer. La intención de la publicación no es sin embargo la postulación de nuevas teorías, sino la petición a la comunidad científica mundial a contrastar los resultados y encontrar una explicación al fenómeno antes de darlo por un hecho irrefutable o erróneo.
    Por lo que en Japón y Estados Unidos han comenzado ya a estudiar este fenómeno.

    video

EL ACELERADOR  DE PARTÍCULAS




Un acelerador de partículas es un dispositivo que utiliza campos electromagnéticos para acelerar partículas cargadas hasta altas velocidades, y así, colisionarlas con otras partículas. De esta manera, se generan multitud de nuevas partículas que -generalmente- son muy inestables y duran menos de un segundo, o bien, permite estudiar más a fondo las partículas que fueron colisionadas por medio de las que fueron generadas. Hay dos tipos básicos de aceleradores de partículas: los lineales y los circulares. El tubo de rayos catódicos de un televisor es una forma simple de acelerador de partículas.

Los aceleradores de partículas imitan, en cierta forma, la acción de los rayos cósmicos sobre laatmósfera terrestre, lo cual produce al azar una lluvia de partículas exóticas e inestables. Sin embargo, los aceleradores prestan un entorno mucho más controlado para estudiar estas partículas generadas, y su proceso de desintegración.

Ese estudio de partículas, tanto inestables como estables, puede ser en un futuro útil para el desarrollo de la medicina, la exploración espacial, tecnología electrónica, etcétera.



Neutrino


Los neutrinos son partículas subatómicas de tipo fermiónico, sin carga y espín 1/2. Desde hace unos años se sabe, en contra de lo que se pensaba, que estas partículas tienen masa, pero muy pequeña, y es muy difícil medirla. Hoy en día (2011), se cree que la masa de los neutrinos es inferior a unos 5,5 eV/c2,2 lo que significa menos de una milmillonésima de la masa de un átomo de hidrógeno. Su conclusión se basa en el análisis de la distribución de galaxias en el universo y es, según afirman estos científicos, la medida más precisa hasta ahora de la masa del neutrino. Además, su interacción con las demás partículas es mínima por lo que pasan a través de la materia ordinaria sin apenas perturbarla.
La masa del neutrino tiene importantes consecuencias en el modelo estándar de física de partículas ya que implicaría la posibilidad de transformaciones entre los tres tipos de neutrinos existentes en un fenómeno conocido como oscilación de neutrinos.
En todo caso, los neutrinos no se ven afectados por las fuerzas electromagnética o nuclear fuerte, pero sí por la fuerza nuclear débil y la gravitatoria. Al conocerse con exactitud las reacciones nucleares que se dan en el Sol se calculó que un apreciable flujo de neutrinos solares tenía que atravesar la Tierra a cada instante. Este flujo es enorme pero los neutrinos apenas interactúan con la materia ordinaria. Incluso las condiciones del interior del Sol son "transparentes" a éstos. De hecho, un ser humano es atravesado por miles de millones de estas diminutas partículas por segundo sin que se entere. Así pues se hacía difícil concebir algún sistema que pudiese detectarlos.





Radiación cósmica de fondo

Se cree que, al igual que la radiación de microondas de fondo procedente del Big Bang, hay un fondo de neutrinos de baja energía en nuestro Universo. En la década de 1980 se propuso que estos pueden ser la explicación de la materia oscura que se piensa que existen en el universo. Los neutrinos tienen una importante ventaja sobre la mayoría de los candidatos a materia oscura: sabemos que existen. Sin embargo, también tienen problemas graves.

De los experimentos de partículas, se sabe que los neutrinos son muy ligeros. Esto significa que se mueven a velocidades cercanas a la velocidad de la luz. Así, la materia oscura hecha de neutrinos se denomina "materia oscura caliente". El problema es que, al encontrarse en rápido movimiento, los neutrinos habrían tendido a expandirse uniformemente en el Universo, antes que la expansión cosmológica los enfriara lo suficiente como para concentrarse en cúmulos. Esto causaría que la parte de materia oscura hecha de neutrinos se expandiera, siendo incapaz de formar las grandes estructuras galácticas que vemos.

Además, estas mismas galaxias y grupos de galaxias parecen estar rodeadas de materia oscura que no es lo suficientemente rápida para escapar de estas galaxias. Presumiblemente, esta materia proveyó el núcleo gravitacional para la formación de estas galaxias.. Esto implica que los neutrinos constituyen sólo una pequeña parte de la cantidad total de materia oscura
.

24 de febrero de 2012:
El CERN, el laboratorio europeo de física nuclear, reconoció ayer que en el experimento que detectó unos neutrinos más rápidos de la luz se produjeron al menos dos problemas técnicos que pudieron influir en el resultado: un cable mal conectado y una errónea sincronización de dos cronómetros.
El anuncio de que se había detectado un posible error, avanzado el miércoles por la noche en un blog de la revista Science, obligó a los investigadores del experimento Opera a ofrecer una explicación y a confirmar que en mayo, si se resuelven los problemas, se repetirá el envío de neutrinos para verificar si realmente iban tan rápido. Los problemas son ciertos, admitieron, pero aún es pronto para asegurar que condicionaron los resultados.

El experimento que originó la controversia consistió en lanzar haces de neutrinos desde la sede del CERN (Ginebra, Suiza) hasta el laboratorio de recepción del Gran Sasso (centro de Italia). En el experimento, comprobado con 15.000 neutrinos, las intrigantes partículas subatómicas recorrían de forma subterránea los 730 kilómetros de distancia y llegaban 60 nanosegundos antes que la luz.
EINSTEIN SIGUE IGUAL / Los resultados ponían en entredicho la teoría de la relatividad de Einstein -confirmada hasta la saciedad de forma experimental-, que establece que nada que pueda viajar más rápido que la luz. Muchos científicos manifestaron sus dudas sobre el experimento.
Ayer, los investigadores de Opera dieron algunos detalles de los problemas. El primero, por ejemplo, se originó por una conexión defectuosa en el cable de fibra óptica que conecta el reloj central del experimento con el GPS exterior. Eso sí, no es que estuviera desconectado. En esencia, la señal que discurre por la fibra mal conectada va más lento de lo que se había estimado, por lo que, una vez calculada la corrección, se obtiene como resultado una velocidad final más rápida. La segunda anomalía fue un error en el oscilador del cronómetro interno del experimento. Sorprendentemente, este fallo produce un efecto opuesto: puede diminuir la velocidad real.


lunes, 26 de septiembre de 2011

La sonata del guardián.: Sinopsis

La sonata del guardián.: Sinopsis:

En un mundo donde las leyes físicas se pueden alterar a voluntad, cuatro jóvenes, de una raza al borde de la extinción, se ven envueltos en una trama que no alcanzan a comprender. Sus destinos, ligados de algún modo al futuro del universo que los envuelve, se ven acosados por mentes maquinadoras. Ya cuando las cosas no podían empeorar más, antiguos señores del arte reaparecen para torcer su voluntad. Tras recibir la ayuda de dos desconocidos, deciden huir de la comarca vedada para siempre, mientras, la organización llamada Pantex les hostigará hasta el final.


miércoles, 14 de septiembre de 2011

CROP CIRCLES

Círculos en los cultivos.

Se les llama así por su forma geométrica que presentaban este tipo de dibujos en los inicios del fenómeno. Aunque con el paso del tiempo estas figuras han ido evolucionando en su complejidad y diversidad.
El primer reporte sobre el fenómeno de los dibujos en campos de cultivo se dió en Reino Unido en 1678, concretamente un 22 de agosto, que fué publicado en Estados Unidos. En el artículo comentaba que el agricultor que fué testigo de su creaciónvió una extraña criatura formando el círculo, que se apodó como el "demonio de segar"
Si bien en los años 70 un par de individuos se autoproclamaron autores de los círculos simples que aparecían en esta época en Inglaterra, con un invento que ellos mismos fabricaron para aplastar el cultivo y dar así la forma deseada, deja en el aire la autoría de las figuras mas complejas que se han ido observando a medida que pasaban los años y, en diferentes lugares del mundo como Nueva Zelanda, Alemania, India, etc...
La complejidad del fenómeno ha ido evolucionando de tal modo que se han llegado a reportar dibujos con mensajes encriptados en codigo binario e incluso rostros de seres con apariencia no humana en tres dimensiones.
En esta figura observada por primera vez en agosto de 2002, aparece un alien sosteniendo un disco de modo que pareciera un mensaje que nos entregan,. y lo curioso es que ese mensaje se escribió en forma de código binario, que hemos logrado descifrar en parte y que dice: "Desconfía de los portadores de falsos regalos y sus promesas rotas. Mucho dolor pero aún hay tiempo (palabra no identificada). Creed que el bién está ahi fuera. Nosotros nos oponemos a los engaños.









Imagen del mensaje de Arecibo

Reproducción del mensaje supuestamente extraterrestre, que se asemeja al mensaje de Arecibo.
El 19 de agosto del 2001, apareció la imagen del mensaje de Arecibo reproducida sobre un campo de trigo ubicado cerca del observatorio de radar de Chilbolton, en Wherwell, Hampshire, en una de las manifestaciones de estos pictogramas más impresionantes de los últimos tiempos. La imagen de Chilbolton reproduce, con asombrosa fidelidad, la matriz cuadriculada en números primos de 73 x 23 caracteres de Arecibo, con algunas variantes:5
El ser humano del mensaje terrestre aparece cambiado en este agroglifo por la figura de un ser macrocéfalo de aspecto humanoide.
La "doble hélice" del ADN original, fue cambiada por una de "triple hélice" en su costado derecho, sugiriendo un "hibridaje" entre los seres autores de este peculiar mensaje y la humanidad.
Nuestro sistema planetario, codificado en la señal de Arecibo con un sol central, cuatro planetas pequeños interiores y 4 gaseosos exteriores, mas el pequeño Plutón ubicado en las afueras del sistema (y en el cual la Tierra aparece ligeramente levantada con respecto al plano de la eclíptica para indicar que en él habitan los seres autores del mensaje), en la "respuesta" de Chilbolton figura un sistema planetario conformado, además del imprescindible sol central, por 4 planetas pequeños interiores (más una extraña conformación de 4 objetos en forma de cruz), dos gigantes exteriores y dos pequeños ubicados en las fronteras de este extraño conjunto planetario.
Siguiendo el parámetro del mensaje terrestre, en la imagen de Chilbolton dos de los planetas – el tercero y el cuarto – aparecen fuera del plano de la eclíptica, indicando que en estos dos mundos habitan los seres autores de la respuesta de Chilbolton.
Finalmente, en la parte de abajo del gráfico (y al igual que en el mensaje enviado por los científicos de la Tierra) se aprecia la figura de la antena utilizada para la transmisión del mensaje (el observatorio Arecibo). En la imagen de Chilbolton esta antena tiene forma de una curiosa flor con varios pétalos de 9 metros de diámetro.
Como nota aclaratoria, cabe decir que el mensaje de Arecibo es un mensaje de radio enviado desde el radiotelescopio de Arecibo en 1974. El mensaje tenía una longitud de 1679 bits y fue enviado en la dirección del cúmulo de estrellas de M13 situado a 25000 años-luz. Contiene información sobre la situación del Sistema Solar, de nuestro planeta y del humano. El mensaje fue diseñado por Frank Drake, Carl Sagan y otros. Debido a que al mensaje le tomará 25 milenios para llegar a su destino (y la respuesta otros 25), el mensaje de Arecibo fue más una demostración de los logros tecnológicos humanos que un intento real de establecer conversación con extraterrestres. Por lo cual la supuesta respuesta sólo llegaría (en caso de haberla) hacia el año 51.974 d. C, a menos de que no haya sido respondido por una forma de vida viviente en esa formación sino en alguna parte al comienzo del camino de ese mensaje

video

En la siguiente figura aparece un extraño dibujo que se asemeja a la figura que aparece en el mensaje respuesta de Arecibo, en la parte donde nosotros especificábamos el sistema empleado para emitir el mensaje al espacio, o sea, la antena de Arecibo. ¿ Es ésta la figura de la tecnología que ellos disponen para enviar mensajes al espacio? bien este mensaje se recibió mediante un dibujo en los cultivos de trigo, así que no se empleó esa tecnología. ¿Pero como llamas a alguien por teléfono si éste no tiene? y si tienen que usar nuestra tecnología para responder aún tendríamos que esperar 50.000 años en recibir la respuesta y en el caso que alguien la recibiera.

Las siguientes figuras están relacionadas con el calendario de los Mayas (los hombres de maíz), en una se puede observar como una cruz, que simboliza la posición de nuestros planetas del sistema solar en la fecha del 21 de diciembre de 2012:


El año 2012 y la profecía maya del fin del tiempo, el cambio de las edades se simboliza con el final del calendario de la Cuenta Larga Maya en 2012 por los maestros del conocimiento celestial, cronometradores de la antigüedad, los mayas, que tenían profundos conocimientos y comprensión de los ciclos naturales del tiempo en el que la vida evoluciona ... Este conocimiento vuelve a nosotros ahora, en la forma de Arte Sacro en el campo que conocemos como crop circles, empujando a despertar a la transformación espiritual que está en marcha ... aquí y ahora!...


Apareccieron en dos noches consecutivas en Silbury Hill, Wiltshire el 2 y 3 de agosto, según los residentes. Un experto en profecías del 2.012, dice que esta rueda es igual a la mayoría de los antiguos símbolos mayas que incluían "la doble espiral cuadrada - el símbolo maya para hocicos jaguar , lo que indica una entrada al inframundo ". Dado que, como es ampliamente conocido, el calendario maya indica el punto final de su tiempo en el año 2012,
Entre las muchas afirmaciones hechas sobre el simbolismo de esta formación,se cree que la rueda maya representaba a un "reloj de calendario, de cuenta regresiva para el año 2012.
Joe Mason explica el calendario de Piedra del Sol azteca. La porción del anillo exterior de la piedra dice que son serpientes gemelas, una clara y otra oscura. Cree que los dos representan a los gemelos Quetzalcoatl y Xolotl. Se refieren a Venus, que corresponde a la Estrella de la Mañana y la Estrella de la Tarde. Quetzalcóatl, por supuesto, también es conocido como Kukulkán (o Kukulcán) y la Serpiente Emplumada. Tal vez la representación de dos tipos de plumas en el centro de la pista en la formación de los gemelos emplumada de los aztecas. Se colocan en una disposición general Vesica Piscis, que también sugiere la dualidad.

El hombre mariposa es el  pictograma más grande que se han visto en los campos de cultivo. Este fue descubierto en Holanda, en un pueblo llamado Goes, el 7 de agosto de 2009. La imagen mide unos 530 m x 450 m. En ella, según los expertos que estudian este fenómeno, se simboliza al hombre culminando una nueva evolución espiritual, donde el Ego de la humanidad quedará eclipsado por una nueva espiritualidad y conexión con el mundo.


Una figura parecida a una medusa gigante, de más de 180 metros, apareció en un campo de cultivo de cebada en la localidad de Kingstone Coombes, en Oxfordshire, en lo que es considerado uno de los más interesantes “círculos en cultivos”.

Varios de los expertos señalan que la imagen es la primera en su tipo en el mundo.




video
video
En estos videos podemos ver como dos esferas luminosas realizan un crop circle. La opinión está dividida en cuanto a su autenticidad. Unos afirman que el video no está manipulado y otros dicen que sólo es un efecto producido por la superposición de dos videos, en fin que es un fake. En cuanto al primer video , a mi personalmente me llama la atención cómo sigue con la cámara una de esas luces a través de los cultivos, me parece que es bastante fiable, sin embargo no podemos certificar su autenticidad.
Está claro que no todos los dibujos son de origen paranormal. Grandes marcas de empresas han utilizado este fenómeno como gancho para promocionar sus productos o marcas. Otros han sido creados por auténticos artistas, de origen terrestre, que igualmente dan rienda suelta a su imaginación para crear sus proyectos y aprovechar la publicidad gratuita que se hace con estos temas a nivel mundial. Y luego queda esos pictogramas, para mi juicio bastante complejos, que aparecen de forma súbita en los cultivos de cereales de varios lugares del mundo y que no se da con una explicación creíble para todos.. Si so realmente ovnis los creadores de estos, qué nos quieren advertir? es únicamente un modo de tenernos expectantes y dudosos o realmente tienen un significado real? el tiempo nos dará más pistas.

lunes, 5 de septiembre de 2011

EL GRAFENO: MÁS VELOCIDAD Y EFICIENCIA EN TRANSMISIÓN DE DATOS

Un equipo de científicos rusos hallan el método para aprovechar de forma mucho más eficiente la radiación solar en forma de luz para transformarla en electricidad, aplicando su nuevo descubrimiento en la fabricación de paneles solares de última generación, cuyas prestaciones son muy superiores a los actuales y a un coste mucho más asequible. Esta tecnología tambíén supondría en su aplicación en artilugios de transmisión de datos utilizando canales ópticos, un aumento de velocidad de decenas o cientos de veces superior a las actuales.

Konstantín Serguéievich Novosiolov es un físico ruso-británico que junto con Andréy Gueim, recibieron el Premio Nobel de Física en 2010. Es miembro del grupo de trabajo de mesoscópica de la Universidad de Mánchester como investigador de la Royal Society.
Su estudio sobre el grafeno por el cual recibieron el premio Nobel de física les permitió desarrollar el modo en que éste cosiguiese absorver de modo más eficiente la luz solar y aprovechar al máximo la conductividad eléctrica que proporciona.


El grafeno es un material de tan solo un átomo de grosor compuesto por átomos de carbono densamente formados en una red cristalina en forma de panal de abeja. El material puede utilizarse para el desarrollo de varios equipos más eficientes que los que se producen actualmente, como por ejemplo pantallas táctiles, paneles solares y canales ópticos.



Sin embargo, el mayor obstáculo para estos usos del grafeno era su transparencia: absorbe sólo el 3% de la energía de la luz y de esta manera la mayor parte de las ondas de luz pasa a través del grafeno sin participar en la generación de corriente eléctrica. Los científicos lograron convertir el material en una 'trampa' de luz al extender en su superficie diminutas 'cintas' de oro y titanio de unos nanómetros de anchura, lo que aumentó la opacidad del material unas 20 veces.
La eficiencia de la absorción de la luz depende de la forma y de la posición de las placas de metal. Las mejores características las tenían las estructuras que por su forma asemejaban al peine con una separación de 100 nanómetros entre los 'dientes', de 300 nanómetros de largo. Este 'peine' hacía al grafeno prácticamente opaco y el material absorbía más del 60% de la luz.



Como resultado, en las placas de metal aparecían los denominados plasmones, las oscilaciones de electrones capaces de absorber y emitir la energía en forma de ondas de luz. Al mismo tiempo, la conductividad del material alcanzó índices 3,5 veces más altos que los del silicio, que es la base para los paneles solares modernos y los dispositivos ópticos de transmisión de información. De este modo se absorbe mejor las ondas de luz de cerca de 514 nanómetros de largo, que equivale al máximo de la radiación solar. Los físicos opinan que estos 'peines' se pueden utilizar no solo para desarrollar económicos y productivos transformadores de luz en electricidad para los sistemas de comunicación óptica, sino también para aumentar la velocidad de la transmisión de datos en decenas o incluso cientos de veces.

Las posibilidades de aplicación del grafeno escapan a nuestra imaginación, pero en la tecnología óptica la velocidad de transferencia de información en internet podría cambiar el mundo como lo conocemos. Hasta el momento solo se ha podido utilizar el tres por ciento de luminosidad a través de esta combinación, alcanzando veinte veces más la eficiencia que la forma actual de transmitir luz.
El grafeno, que posé propiedades de autoenfriamiento según estudios en la universidad de Illinois en Michigan, su conductividad térmica y eléctrica, su elasticidad y dureza (200 veces mayor que el acero) y más flexible y ligero que la fibra de carbono, además de reducir el llamado efecto Joule (se calienta menos al conducir electrones ), abre un abanico de posibilidades y aplicaciones del mismo que sin duda traerá consigo una serie de revoluciones tecnológicas en años venideros.

Aplicación en electrónica:

El grafeno tiene propiedades ideales para ser utilizado como componente en circuitos integrados. El grafeno tiene una alta movilidad de portadores, así como un bajo nivel de ruido, lo que permite que sea utilizado como canal en transistores de efecto de campo (FET). La dificultad de utilizar grafeno estriba en la producción del mismo material, en el substrato adecuado. Los investigadores están buscando métodos como la transferencia de hojas de grafeno desde el grafito (exfoliación) o el crecimiento epitaxial (como la grafitización térmica de la superficie del carburo de silicio - SiC). En diciembre de 2008, IBM anunció que habían fabricado y caracterizado transistores operando a frecuencias de 26 GHz. En febrero del 2010, la misma IBM anunció que la velocidad de estos nuevos transistores alcanzaba los 100 GHz.
En septiembre del 2010 se alcanzaron los 300 GHz.
Las publicaciones especializadas bullen con artículos que presentan a esta estructura de carbono como la Panacea universal en la tecnología y el reemplazo de dispositivos de Silicio por Grafeno; pero no toda la comunidad científica comparte este optimismo por el Grafeno. El célebre físico holandés Walt De Heer afirma que "el grafeno nunca reemplazará al silicio". "Nadie que conozca el mundillo puede decir esto seriamente. Simplemente, hará algunas cosas que el silicio no puede hacer. Es como con los barcos y los aviones. Los aviones nunca reemplazaron a los barcos".
Además el Grafeno no tiene una banda de resistividad, propiedad esencial. Eso significa que el grafeno no puede parar de conducir electricidad, no se puede apagar. En cambio el Silicio sí tiene dicha banda.















lunes, 22 de agosto de 2011

Fósiles de bacterias más antiguas de la Tierra

Un equipo de científicos ha hecho público el descubrimiento de fósiles microscópicos con más de 3.400 millones de años de antigüedad en el noroeste de Australia, un hallazgo que se trata de la evidencia más antigua de vida en la Tierra, informaron hoy medios locales.

La investigación, conjunta entre la Universidad de Australia Occidental y de la Universidad de Oxford del Reino Unido, se realizó en la zona de Strelley Pool, en la región de Pilbara.

Estos fósiles, hallados en buen estado de conservación entre granos de arena en una roca sedimentaria prehistórica, pertenecen a bacterias que necesitan el sulfuro para subsistir.

"Hemos proporcionado la primera evidencia de microorganismos que emplean sulfuro en su metabolismo", señaló el líder de la investigación, David Wacey, de la Universidad de Australia Occidental, en declaraciones citadas por el Sydney Morning Herald.

Los investigadores utilizaron técnicas muy sofisticadas para comprobar que estos microbios sobrevivieron gracias al sulfuro en este período de la Tierra en que el oxígeno era escaso y predominaban las altas temperaturas.

La hipótesis de sobrevivir en base al sulfuro era una característica que se pensaba existía en una de las primeras etapas de la Tierra, específicamente durante la transición de un mundo no-biológico a uno biológico, agregó Wacey.

Por su lado, el profesor de la Universidad de Oxford Martin Brasier expresó que el descubrimiento de los fósiles confirma que hace 3.400 millones de años existían "bacterias, que vivían sin oxígeno" en la Tierra.

"Podemos estar muy seguros de la antigüedad (de los fósiles) porque las rocas se formaron entre dos sucesiones volcánicas que reducen los cálculos sobre la edad a unos pocos millones de años", explicó Brasier en un comunicado citado por la agencia local AAP.

El investigador británico también destacó que estas bacterias son "comunes hoy en día" y se encuentran en acequias, fuentes de aguas termales, respiraderos hidrotermales u otros lugares con poco oxígeno.















Bacterias verdes del azufre

Clasificación científica
Dominio: Bacteria
Filo: Chlorobi
Clase: Chlorobia
Orden: Chlorobiales
Familia: Chlorobiaceae
Género
Chlorobium
Ancalochloris
Chloroherpeton
Pelodictyon
Prostheochloris
Las bacterias verdes sulfurosas son un pequeño grupo fotolitroautrofos obligados que usan H2S, S como donantes de electrones. Las estructuras donde se alamacenan los pigmentos fotosintéticos se conocen como clorosomas o vesículas clorobiales. Estos clorosomas contienen pigmentos bacterioclorófilos.
Estas bacterias se encuentran en las partes ricas de azufre y anaerobias de los lagos. Algunas de estas bacterias contienen vesículas para ajustar su profundidad para conseguir un óptimo de luz y H2S ya que estas bacterias no son móviles.
Las otras formas sin vesículas se encuentran en el fango rico en azufre en el fondo de los lagos y lagunas. Estas bacterias son bien diversas morfológicamente se encuentan como: bacilos, Cocos, Vibrios. Algunas crecen solas, en cadenas y pueden ser de colores verde grama o marrón chocolate
Bacterias Sulfurosas Chlorobium Pelodictyon P. clathratiforme
Realizan fotosíntesis Anoxigénica
Orden Rhodospirillales Es Gram negativo y contiene bacterioclorofila. Este orden posee pigmentos carotenoides que absorben energía solar y la transmiten a la bacterioclorofila. Estas bacterias son anaeróbias, pero no liberan O2 durante fotosíntesis, ya que sólo poseen el fotosistema I. Se encuentran en agua no salada o en ambiente marino bajo condiciones anaeróbias. Se dividen en 2 grupos a base a su pigmentación, las bacterias violetas y las bacterias verdes.
Chlorobiaceae esta familia se incluye las bacterias verdes sulfurosas) viven como fotolitótrofos usando H2S como donador de electrones para la fijación de CO2. Chloroflexaceae son bacterias verdes no sulfurosas.








miércoles, 15 de junio de 2011

TRANSGÉNICOS

-Qué es un producto transgénico?

Primero aclarar que cuando nos referimos a producto en realidad nos referimos a cualquier organismo vivo, ya que implícitamente son los únicos que tienen genes.
Aclarado esto, nos referimos a transgénico cuando queremos referenciar a un organismo modificado genéticamente, eso sí, de modo artificial. En laboratorios i llevado a cabo por científicos específicos como los ingenieros genetistas. Las siglas utilizadas en español OMG (organismo modificado genéticamente) y en inglés GMO ( genetically Modified organism ), són cada vez mas comunes en los envases de los alimentos que consumimos y a su vez no aparecen en todos los alimentos en los que deberían. Y és aquí donde comienzan algunos de los dilemas éticos, aunque no el único como ya veremos.
El procedimiento de precisión que se lleva a cabo para modificar un organismo consiste en incorporar segmentos de ADN, al azar o bien determinados, según lo que se desé en cada momento, bombardeando con partículas recubiertas del ADN que se pretende introducir al Genoma del organismo receptor que hay que modificar. En el momento que se ha introducido un nuevo material genético al núcleo de la célula receptora, ésta se transforma en otra nueva, y con capacidad de donar su nueva información genética a sus herederas, si no se ha esterilizado en el procedimiento.

















Proceso que permite introducir ADN desnudo en los tejidos vegetales. En este procedimiento el ADN recombinante (ADNr) es introducido en las células utilizando como vector plásmidos bacterianos; por medio de partículas microscópicas (micropartículas) de oro  o tungsteno  aceleradas a velocidades supersónicas, que atraviesan la pared y la membrana celular.


Representación simplificada de un transgen construido para que los componentes incluidos permitan la integración genética y su expresión con éxito.




1-Promotor: la secuencia promotora se encarga de que el gen sea expresado correctamente (traducido como un producto proteínico). El promotor es la llave que controla cuándo y dónde se expresará el gen en la planta. El promotor constitutivo (que se expresa en toda la planta) más usado es CaMV35S que proveniente del virus del mosaico de la coliflor (plásmido bacteriano
2-Transgen: es el gen de interés que va a ser insertado; se le llama transgen porque no pertenece a la planta u organismo madre.
3-Secuencia de Terminación: indica a la maquinaria celular que se ha alcanzado el final de la secuencia génica y que por lo tanto se debe terminar la trascripción e iniciar la traducción.
4-Gen Marcador: se agrega un gen marcador seleccionable al "constructo" génico con el fin de identificar las células o tejidos de la planta que han integrado con éxito el transgen. El gen marcador confiere resistencia a un antibiótico o un herbicida lo que que permite que las células que lo expresan puedan sobrevivir cuando éste se incorpora al medio de cultivo o selección.

Ventajas

Para los partidarios de la biotecnología existen las siguientes ventajas
Mejoras en el proceso industrial
En cuanto a las aplicaciones en agronomía y mejora vegetal en sentido amplio, poseen tres ventajas esenciales:
  • Una gran versatilidad en la ingeniería, puesto que los genes que se incorporan al organismo huésped pueden provenir de cualquier especie, incluyendo bacterias.
  • Se puede introducir un solo gen en el organismo sin que esto interfiera con el resto de los genes; de este modo, es ideal para mejorar los caracteres monogénicos, es decir, codificados por un sólo gen, como algunos tipos de resistencias a herbicidas.
  • El proceso de modificación genética demora mucho menos que las técnicas tradicionales de mejoramiento por cruzamiento; la diferencia es de años, en frutales, a meses.
Ventajas para los consumidores
Que fundamentalmente afectan a la calidad del producto final; es decir, a la modificación de sus características.
  • Producción de nuevos alimentos
  • Posibilidad de incorporar características nutricionales distintas en los alimentos
  • Vacunas indiscriminadas comestibles, por ejemplo: tomates con la vacuna de la hepatitis B.
Ventajas para los agricultores
Mejoras agronómicas relativas a la metodología de producción y su rendimiento.
  • Aumento de la productividad y la calidad aparente de los cultivos
  • Resistencia a plagas y enfermedades conocidas; por ejemplo, por inclusión de toxinas bacterianas, como las de Bacillus Thuringienesis específicas contra determinadas familias de insectos.
  • Tolerancia a herbicidas (como el glifosato o el glufosinato ), salinidad, fitoextracción en suelos metalíferos contaminados con metales pesados, sequías y temperaturas extremas.
  • Rapidez. El proceso de modificación genética demora mucho menos que las técnicas tradicionales de mejora por cruzamiento, que requiere varias generaciones para eliminar otros genes que se introdujeron en el mismo cruzamiento.
Ventajas para el ambiente
  • Algunas variedades transgénicas han permitido una simplificación en el uso de productos químicos, como en el caso del maiz Bt, donde el combate de plagas ya no requiere el uso de insecticidas químicos de mayor espectro y menor biodegradabilidad. Sin embargo en un estudio con pequeños granjeros en las tierras de Makhathini, KwaZulu Natal, Sud África adoptando algodón Bt (la variedad transgenica Bt del algodón) se demostro que el uso de este transgenico disminuye el uso de piretroide pero no elimina completamente, y se necesitan sigir utilizando otros pesticidas, también se demostro que no era rentable el uso de algodón Bt por su baja producción de algodón en estas tierras.
Nuevos materiales
Además de la innovación en materia alimentaria, la ingeniería genética permite obtener cualidades novedosas fuera de este ámbito; por ejemplo, por producción de plásticos biodegradables y biocombustibles.

Inconvenientes


Manifestación de ganaderos orgánicos contra los transgénicos.
Según los opositores a los transgénicos existen los siguientes inconvenientes
Resistencia a los antibióticos
Para localizar las células en que se ha incorporado y activado el gen introducido, un método común es la introducción de genes que determinan cierta resistencia a unos antibióticos, de modo que al añadir el antibiótico sobreviven solo las células resistentes, con el gen de resistencia incorporado y activo, y probablemente también con el gen que se desea introducir. Dicho método se utiliza con el fin de verificar que el gen de interés haya sido efectivamente incorporado en el genoma del organismo huésped. Estos genes acompañantes son denominados marcadores, y no son necesarios para el resultado final, solo simplifican el proceso para lograrlo. Existen otros marcadores que no tienen relación con la resistencia a quimioterápicos, como los de auxotrofía. Se teme que la inclusión de estos elementos en los alimentos transgénicos podría hacer que la resistencia a los antibioticos se transmitiera a las bacterias de la flora intestinal, y de esta a organismos patógenos. No obstante, por orden de la FAO los alimentos transgénicos comercializados deberían carecer de los mencionados genes de resistencia. Sin embargo, actualmente existen técnicas, como el empleo de la recombinasa Cre del fago P1, que permiten eliminar totalmente estos genes, solucionando el problema.
Mayor nivel de residuos tóxicos en los alimentos
  • Los cultivos de OMG conllevan un mayor uso de pesticidas. Un estudio basado en los datos del Departamento de Agricultura de los EUA ha demostrado que, en 2008, los cultivos transgénicos han necesitado un 26% más de pesticidas por hectárea que las variedades convencionales.
  • La posibilidad de usar intensivamente insecticidas a los que son resistentes los transgénicos hace que se vean afectadas y dañadas las especies colindantes (no resistentes). No obstante, existen evidencias científicas de que los cultivos de transgénicos resistentes a insecticidas permiten un menor uso de éstos en los campos, lo que redunda en un menor impacto en el ecosistema que alberga al cultivo.19
Las plantas transgénicas que producen protína Bt por ejemplo, no necesitan de pesticidas, por lo que se reduce la cantidad de agroquímicos necesarios.
Además están en desarrollo plantas capaces de fijar nitrógeno atmosférico, con lo que no requerirían de abonos nitrogenados.

Posibilidad de generación de nuevas alergias
  • Un estudio científico de 1999 mostró la posibilidad de que los alimentos transgénicos produjeran algún tipo de daño. En él se indicaba que el intestino de ratas alimentadas con patatas genéticamente modificadas (expresando una aglutinina de Gallanthus nivalis, que es una lectina) resultaba dañado severamente. No obstante, este estudio fue criticado debido a la existencia de errores en el diseño experimental y en el manejo de los datos. Por ejemplo, se incluyeron pocos animales en cada grupo experimental (lo que da lugar a una gran incertidumbre estadística), ni se analizó la composición química con precisión de las distintas variedades de patata empleadas, ni se incluyeron controles en los experimentos y finalmente, el análisis estadístico de los resultados era incorrecto.
Los casos de alergias no tendrían por que ser diferentes a los de los alimentos normales, pues los transgéncos por norma general solo expresan proteínas exógenas a las que ya estamos acostumbrados. Además, muchos transgénicos ni siquiera expresan proteínas nuevas, simplemente llevan secuencias antisentido que no pueden causar ninguna alergia por tratarse exclusivamente de DNA.
Dependencia de la técnica empleada
  • La precisión en la obtención de recombinantes, por ejemplo en su localización genómica, es muy dependiente de la técnica empleada: vectores, biobalística, etc.
Contaminación de variedades tradicionales
  • El polen de las especies transgéncias puede fecundar a cultivos convencionales, obteniéndose híbridos y transformando a estos cultivos en transgénicos. Este fenómeno ya ocurre con las variedades no transgénicas hoy en día. Esto se conoce como Contaminación genética. La solución a este problema son las plantas estériles, que se desarrollen normalmente pero no puedan reproducirse.
  • La transferencia horizontal a bacterias de la rizosfera, aunque posible, se considera un riesgo remoto.
Muerte de otros insectos o polinizadores
  • Aunque el empleo de recombinantes para toxinas de Bacillus thuringienesis es, por definición, un método específico, a diferencia de los plaguicidas convencionales, existe una demanda comercial que provoca el desarrollo de cepas que actúan conjuntamente contra lepidópteros, coleópteros y dípteros. Este hecho podría afectar a la fauna accesoria del cultivo. 
Impacto ecológico de los cultivos
Como hemos mencionado, algunos autores suponen que en las especies resistentes a herbicidas los agricultores los emplean en cantidades mayores, con lo cual causan un mayor impacto ambiental. Este posible riesgo ha sido desmentido para algunos OMG, como el maíz resistente a glifosato. Sin embargo, un estudio reciente, ha mostrado que las formulaciones y productos metabólicos de Roundup causarían la muerte de embriones, placentas, y células umbilicales humanos in vitro aún en bajas concentraciones.
La OMS ( organización mundial de la salud) dice al respecto:
Los diferentes organismos OGM incluyen genes diferentes insertados en formas diferentes. Esto significa que cada alimento GM y su inocuidad deben ser evaluados individualmente, y que no es posible hacer afirmaciones generales sobre la inocuidad de todos los alimentos GM. Los alimentos GM actualmente disponibles en el mercado internacional han pasado las evaluaciones de riesgo y no es probable que presenten riesgos para la salud humana. Además, no se han demostrado efectos sobre la salud humana como resultado del consumo de dichos alimentos por la población general en los países donde fueron aprobados. El uso continuo de evaluaciones de riesgo basándose en los principios del Codex y, donde corresponda, incluyendo el monitoreo post comercialización, debe formar la base para evaluar la inocuidad de los alimentos GM.
Mapa de 2010













El área global de cultivos transgénicos supera los 100 millones de hectáreas con un crecimiento del 13% un estudio pronostica que para el año 2015 habrá más de 200 millones de hectáreas.

En el siguiente documental que os muestro a continuación, subido en you tube por Portaloaca, denuncia los efectos negativos que provocan los productos agroquímicos y las semillas de soja transgénica que comercializa la empresa más grande del mundo del sector.
En síntesis, expone la cara más oscura de la lógica económica neoliberal, a través de la realidad agrícola de América del Norte y del Sur, especialmente de Argentina.
Hoy Monsanto es el primer semillero de soja, maíz, algodón y productor de agroquímicos del mundo. Quien dice semilla, dice Monsanto, pero también dice alimentos.
Es la empresa norteamericana que maneja el mercado mundial de la soja. Es la misma empresa que fabricó PCB, y ocultó durante 50 años que ese aceite era cancerígeno. Es la empresa que produce y que patentó las semillas de soja genéticamente modificadas, para resistir agroquímicos y tempestades, etc.

MI CONCLUSIÓN:
Todo avance tecnológico trabaja a favor de la mejora de nuestro desarrollo como humanos, ya sea para el desarrollo para la salud, comodidad, eficiencia productiva, entretenimiento etc. Sin embargo, en el momento en que priman los beneficios de las empresas, básicamente multinacionales, por su potencial económico y de influencia mundial sobre gobiernos, y en definitiva monopolizando los diversos sectores y coaccionando a los consumidores indirecta o directamente para consumir sus productos, sin evaluar los daños que se podrían derivar por sus malas acciones, sin ética ni prejuicios, y aún sabiendo los perjuicios que se pudieren derivar  por la consecución de sus objetivos, que no son otros que la obtención de más beneficios y más poder que se retroalimenta y augmenta exponencialmente, no es motivo de abandono aunque, de la esencia de su progreso que trabajaba para el desarollo humano, acabe perjudicandonos a corto o largo plazo. Así queda entonces distorsionada una realidad que nos hace dudar de si lo que nos ofrecen para nuestro beneficio personal o colectivo como humanos es o no su verdadera intención. 
Para mi no hay duda de la buena fe de muchos ingenieros genetistas que trabajan por nuestro beneficio, pero como ya es sabido, cuando intervienen factores económicos y de poder se puede corromper la intención y desviarse hacia otros fines.
¿Es un misil un arma ofensiva o defensiva? Está claro que puede ser ambas cosas, pero depende de nosotros decidir qué finalidad tendrá.

ZEITGEIST ADDENDUM

ZEITGEIST: MOVING FORWARD

Bosón de Higgs