viernes, 11 de junio de 2010

LED: Diodo emisor de luz ,es un dispositivo semiconductor (diodo) que emite luz incoherente de espectro reducido cuando se polariza de forma directa la unión PN del mismo y circula por él una corriente eléctrica. Este fenómeno es una forma de electroluminiscencia. El color, depende del material semiconductor empleado en la construcción del diodo y puede variar desde el ultravioleta, pasando por el visible, hasta el infrarrojo. Los diodos emisores de luz que emiten luz ultravioleta también reciben el nombre de UV LED y los que emiten luz infrarroja se llaman IRED.

Los diodos infrarrojos (IRED) se emplean desde mediados del siglo XX en
mandos a distancia de televisores, habiéndose generalizado su uso en otros electrodomésticos como equipos de aire acondicionado, equipos de música, etc., y en general para aplicaciones de control remoto, así como en dispositivos detectores, además de ser utilizados para transmitir datos entre dispositivos electrónicos como en redes de computadoras y dispositivos como teléfonos móviles, computadoras de mano, aunque esta tecnología de transmisión de datos ha dado paso al bluetooth en los últimos años, quedando casi obsoleta.
Los LEDs se emplean con profusión en todo tipo de indicadores de estado (encendido/apagado) en dispositivos de señalización (de tránsito, de emergencia, etc.) y en paneles informativos (el mayor del mundo, del
NASDAQ, tiene 36,6 metros de altura y está en Times Square, Manhattan). También se emplean en el alumbrado de pantallas de cristal líquido de teléfonos móviles, calculadoras, agendas electrónicas, etc., así como en bicicletas y usos similares. Existen además impresoras LED.
El uso de diodos LED en el ámbito de la iluminación (incluyendo la señalización de tráfico) es moderado y es previsible que se incremente en el futuro, ya que sus prestaciones son superiores a las de la
lámpara incandescente y la lámpara fluorescente, desde diversos puntos de vista. La iluminación con LEDs presenta indudables ventajas: fiabilidad, mayor eficiencia energética, mayor resistencia a las vibraciones, mejor visión ante diversas circunstancias de iluminación, menor disipación de energía, menor riesgo para el medio ambiente, capacidad para operar de forma intermitente de modo continuo, respuesta rápida, etc. Asimismo, con LEDs se pueden producir luces de diferentes colores con un rendimiento luminoso elevado, a diferencia de muchas de las lámparas utilizadas hasta ahora, que tienen filtros para lograr un efecto similar (lo que supone una reducción de su eficiencia energética). Cabe destacar también que diversas pruebas realizadas por importantes empresas y organismos han concluido que el ahorro energético varia entre un 70% y 80% respecto a la iluminación tradicional que se utiliza hasta ahora.[3] Todo ello pone de manifiesto las numerosas ventajas que los LEDs ofrecen en relación al alumbrado público.
Los
LEDs de Luz Blanca son uno de los desarrollos más recientes y pueden considerarse como un intento muy bien fundamentado para sustituir las bombillas actuales (lámparas incandescentes) por dispositivos mucho más ventajosos. En la actualidad se dispone de tecnología que consume el 92% menos que las bombillas incandescentes de uso doméstico común y un 30% menos que la mayoría de las lámparas fluorescentes; además, estos LEDs pueden durar hasta 20 años y suponer un 200% menos de costes totales de propiedad si se comparan con las bombillas o tubos fluorescentes convencionales.[4] Estas características convierten a los LEDs de Luz Blanca en una alternativa muy prometedora para la iluminación.
También se utilizan en la emisión de señales de luz que se trasmiten a través de
fibra óptica. Sin embargo esta aplicación está en desuso ya que actualmente se opta por tecnología láser que focaliza más las señales de luz y permite un mayor alcance de la misma utilizando el mismo cable. Sin embargo en los inicios de la fibra óptica eran usados por su escaso coste, ya que suponían una gran ventaja frente al coaxial (aun sin focalizar la emisión de luz).
Pantalla de leds: pantalla muy brillante, formada por filas de leds verdes, azules y rojos, ordenados según la arquitectura
rgb, controlados individualmente para formar imágenes vivas, muy brillantes, con un altísimo nivel de contraste, entre sus principales ventajas, frente a otras pantallas encontramos: buen soporte de color, brillo extremadamente alto, lo que le da la capacidad ser completamente visible bajo la luz del sol, es increiblemente resistente a impactos.


MATERIALES SUPERCONDUCTORES: Se denomina superconductividad a la capacidad intrínseca que poseen ciertos materiales para conducir corriente eléctrica sin resistencia y pérdida de energía nulas en determinadas condiciones.
La
resistividad eléctrica de un conductor metálico disminuye gradualmente a medida que la temperatura se reduce. Sin embargo, en los conductores ordinarios, como el cobre y la plata, las impurezas y otros defectos producen un valor límite. Incluso cerca de cero absoluto una muestra de cobre muestra una resistencia no nula. La resistencia de un superconductor, en cambio, desciende bruscamente a cero cuando el material se enfría por debajo de su temperatura crítica. Una corriente eléctrica que fluye en una espiral de cable superconductor puede persistir indefinidamente sin fuente de alimentación. Al igual que el ferromagnetismo y las líneas espectrales atómicas, la superconductividad es un fenómeno de la mecánica cuántica.
La superconductividad ocurre en una gran variedad de materiales, incluyendo elementos simples como el
estaño y el aluminio, diversas aleaciones metálicas y algunos semiconductores fuertemente dopados. La superconductividad no ocurre en metales nobles como el oro y la plata, ni en la mayoría de los metales ferromagnéticos.

EJEMPLOS:
-el cobre-aluminio-bronce-la mina del lapiz grafito


NANOTECNOLOGÍA:
Es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a nano escala.
Cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas.Nos interesa, más que su concepto, lo que representa potencialmente dentro del conjunto de investigaciones y aplicaciones actuales cuyo propósito es crear nuevas estructuras y productos que tendrían un gran impacto en la industria, la medicina (
nanomedicina), etc..
La nanotecnología avanzada, a veces también llamada fabricación molecular, es un término dado al concepto de ingeniería de nanosistemas (máquinas a escala nanométrica) operando a escala molecular. Se basa en que los productos manufacturados se realizan a partir de átomos. Las propiedades de estos productos dependen de cómo estén esos átomos dispuestos. Así por ejemplo, si reubicamos los átomos del grafito (compuesto por carbono, principalmente) de la mina del lápiz podemos hacer diamantes (carbono puro cristalizado). Si reubicamos los átomos de la arena (compuesta básicamente por sílice) y agregamos algunos elementos extras se hacen los chips de un ordenador.La característica fundamental de la nanotecnología es que constituye un ensamblaje interdisciplinar de varios campos de las ciencias naturales que están altamente especializados. Por tanto, los físicos juegan un importante rol no sólo en la construcción del microscopio usado para investigar tales fenómenos sino también sobre todas las leyes de la mecánica cuántica. Alcanzar la estructura del material deseado y las configuraciones de ciertos átomos hacen jugar a la química un papel importante. En medicina, el desarrollo específico dirigido a nanopartículas promete ayuda al tratamiento de ciertas enfermedades. Aquí, la ciencia ha alcanzado un punto en el que las fronteras que separan las diferentes disciplinas han empezado a diluirse, y es precisamente por esa razón por la que la nanotecnología también se refiere a ser una tecnología convergente.

marta romero

martes, 8 de junio de 2010

ejemplos de materiales composite

Plásticos reforzados con fibra:
Clasificados por el tipo de fibra:
Madera (fibras de celulosa en una matriz de lignina y hemicelulosa)
Plástico reforzado de fibra de carbono o CFRP o
Plástico reforzado de fibra de vidrio

Clasificados por la matriz:
Termoplásticos reforzados por fibra larga.
Termoplásticos tejidos de vidrio.
Compuestos termoformados o termoestables

Compuestos de matriz metálica o MMCs:
Cermet (cerámica y metal).
Fundición blanca.
Metal duro (carburo en matriz metálica)
Laminado metal-intermetal

Compuestos de matriz cerámica:
Hormigón/Concreto
Carbono-carbono reforzado (fibra de carbono en matriz de grafito).
Hueso (matriz ósea reforzada con fibras de colágeno)
Adobe (barro y paja)

Compuestos de matriz orgánica/agregado cerámico
Madreperla o nácar
Concreto asfáltico

Madera mejorada
Plywood
Tableros de fibra orientada.
Trex
Weatherbest (fibra de madera reciclada en matriz de polietileno)
Pycrete (serrín en matriz de hielo)

MARTA ROMERO

viernes, 4 de junio de 2010

MEMBRANAS Y MODULOS!

El Kevlar® o poliparafenileno tereftalamida es una poliamida sintetizada por primera vez en 1965 por la química Stephanie Kwolek, quien trabajaba para DuPont. La obtención de las fibras de Kevlar fue complicada, destacando el aporte de Herbert Blades, que solucionó el problema de qué disolvente emplear para el procesado. Finalmente, DuPont empezó a comercializarlo en 1972. Es muy resistente y su mecanización resulta muy dificil.
Esencialmente hay dos tipos de fibras de Kevlar: Kevlar 29 y Kevlar 49.
El Kevlar 29 es la fibra tal y como se obtiene de su fabricación. Se usa típicamente como refuerzo en tiras por sus buenas propiedades mecánicas, o para tejidos. Entre sus aplicaciones está la fabricación de cables, ropa resistente (de protección) o chalecos antibalas.
El Kevlar 49 se emplea cuando las fibras se van a embeber en una resina para formar un material compuesto. Las fibras de Kevlar 49 están tratadas superficialmente para favorecer la unión con la resina. El Kevlar 49 se emplea como equipamiento para deportes extremos, para altavoces y para la industria aeronáutica, aviones y satélites de comunicaciones y cascos para motos.
Esta poliamida contiene grupos aromáticos (se trata de una aramida) y hay interacciones entre estos grupos, así como interacciones por puentes de hidrógeno entre los grupos amida. Por estas interacciones, las fibras obtenidas presentan unas altas prestaciones al quedar perfectamente orientadas las macromoléculas en la misma dirección y muy bien empaquetadas.
Una membrana conductora iónica compuesta reforzada del polímero, y una célula de combustible con la eficacia mejorada que incluye la membrana conductora iónica compuesta reforzada del polímero se proporcionan. La membrana conductora iónica compuesta reforzada del polímero incluye una ayuda porosa, un polímero de intercambio iónico que impregne la ayuda porosa; y un agente que refuerza que impregna la ayuda porosa, el agente que refuerza incluyendo un material retentivo de la humedad y/o un catalizador para facilitar la oxidación del hidrógeno.
El módulo alto, fibras de alta resistencia del carbón, haciendo una estructura altamente orientada caracterizar por la presencia de los cristalitos del carbón alineó preferencial paralelo con el eje de la fibra, se produce de las echadas carbonosas que se han transformado, en pieza, a un estado de cristal líquido o supuesto de la “mesofase”. Cuando están calentadas a graphitizing temperaturas, estas fibras desarrollan la orden tridimensional característica del grafito polycrystalline

Marta Romero Gurdiel & Denís de la Fuente Cuervo

viernes, 21 de mayo de 2010

CELULA ARTIFICIAL

Craig Venter, el célebre -y controvertido- científico y empresario que echó leña al fuego de la carrera por la decodificación del genoma humano, acaba de lanzar otra de sus bombas mediáticas: anunció que planea crear una nueva forma de vida.
Según publicó The Washington Post, el proyecto ya cuenta con el respaldo del Departamento de Energía de los Estados Unidos -y un presupuesto de tres millones de dólares, y contempla fabricar un organismo unicelular artificial con el mínimo número de genes necesarios para sobrevivir. Si tiene éxito, una vez completo el organismo comenzaría a alimentarse y dividirse, creando una población celular diferente de todo lo conocido hasta el momento.
Junto con Hamilton Smith, premio Nobel de Fisiología y Medicina 1978, que lo secunda en esta aventura, Venter aseguró que la célula será mantenida en estricto confinamiento, y diseñada de tal modo que será incapaz de infectar a los seres humanos o de subsistir si escapa al medio ambiente.
Según The Washington Post, el trabajo podría tener en el futuro aplicaciones prácticas. Partiendo del Mycoplasma genitalium , un organismo que vive en el tracto genital humano y que está dotado de un genoma de apenas unos cientos de genes (el humano tiene entre 30.000 y 50.000), piensan remover el material genético, reemplazarlo por uno artificial y, eventualmente, agregarle funciones, como por ejemplo la capacidad de producir hidrógeno.
Sin embargo, los planes inmediatos, afirman, son más modestos: en principio intentarán integrar en un modelo virtual absolutamente todos los aspectos concebibles de la biología de un organismo, un desafío del que la ciencia hasta ahora nunca había salido triunfante. Y, dado que la química es la misma para todas las formas de vida terrestres, lograrían aclarar muchas cuestiones fundamentales de la biología.
"Pensamos que podríamos esbozar una definición molecular de la vida -declaró Venter-. Nuestra meta es entender cómo funcionan los componentes básicos de las células."
Por supuesto, una investigación de estas características no sólo promete una prolífica cosecha de conocimientos... sino también considerables inquietudes éticas: ¿un organismo hecho para sobrevivir en el laboratorio puede considerarse vida?, ¿tienen los científicos derecho a crear organismos? Y si así fuera, ¿podrían, como sugirió el propio Venter, dar pie para el diseño de nuevas armas biológicas?
Sin duda, el desafío posee los ingredientes de fantasía y audacia con que se escriben algunos de los capítulos más apasionantes de la historia de la ciencia. Pero, antes de dejar volar la imaginación, caben algunas consideraciones.
"Es muy difícil que una célula como ésta pueda utilizarse como arma biológica -dice Martín Lema, investigador especializado en el tema, del laboratorio de ingeniería genética y biología celular y molecular, y de la unidad de fisicoquímica, de la Universidad de Quilmes-. ¿Por qué? Porque un micoplasma de este tipo es muy frágil. Es un parásito que se adhiere a las células y vive de muchas de las sustancias nutritivas que fabrica su anfitriona. Y para qué hacer algo nuevo si es mucho más fácil usar organismos que ya existen en la naturaleza. Por ejemplo, para fabricar el ántrax habría que trabajar como cien años..."
Para el científico, el valor de un emprendimiento como éste radica en sus perspectivas comerciales. Permitiría, por ejemplo, desarrollar reactores biológicos más sencillos. "Cuando uno usa organismos completos -explica Lema- tiene ventajas y desventajas: ofrecen una cantidad de funciones prefabricadas, pero por otro lado poseen funciones que uno no emplea. Esto abriría la puerta para diseñar una maquinaria celular con las funciones estrictamente necesarias."
Por su parte, Osvaldo Uchitel, del laboratorio de fisiología y biología molecular de la Facultad de Ciencias Exactas de la UBA, subraya que "aunque hay elementos de la célula que se pueden generar artificialmente -la membrana, por ejemplo, es una capa lipídica, y si uno pone lípidos en agua espontáneamente toman una forma esférica-, las demás estructuras celulares no van sueltas dentro de ese espacio, y aún no sabemos cómo están ensambladas. Los estudios bioquímicos descubrieron cuáles son los elementos unitarios de un sistema biológico, pero no cómo están ubicados".
La evaluación de Lino Barañao, investigador del Instituto de Biología y Medicina Experimental, es algo diferente. "Teóricamente es posible -afirma-. Ya hay cromosomas artificiales. De hecho, sería posible partir de una célula natural, vaciarla y agregárselos. Hasta se podría fabricar un embrión sintético, y el individuo resultante sería... sintético."
Por eso, subraya, evolutivamente éste es un momento tanto o más importante que la aparición del primer organismo en la Tierra. "Esta es una revolución no sólo tecnológica, sino biológica. Todos usamos el mismo software -dice-, y conociéndolo estamos en condiciones de producir en un instante cambios que antes ocurrían por azar y requerían cientos de millones de años. También desde el punto de vista filosófico es un paso importante, porque esto podría probar que la vida puede constituirse a partir de sus partes. Por otro lado, que el hombre tenga el control sobre la vida conlleva una innegable responsabilidad: la de usar este conocimiento en forma sabia y no en busca de fama o rentabilidad. Lo preocupante no es el experimento biológico, sino el económico que hay detrás... y ése no pasa por comités de ética. Deberíamos estar reflexionando, no sobre peligros lejanos, sino acerca de cómo pretendemos que sea el mundo del futuro, con una humanidad feliz o con asimetrías tan notables como que se usen tres millones de dólares para sintetizar una célula, mientras hay chicos que se mueren de hambre."


MARTA,NEREA B.,DENIS

Accidente de Seveso, Italia, 1976


A las 12:37 del sábado 9 de julio de 1976, se produjo la rotura de un disco de ruptura en un reactor de la planta Icmesa Chemical Company en Seveso (Italia). Se produjo la emisión de sustancias tóxicas y, entre ellas, de dioxina (TCDD), muy tóxica. Se produjeron numerosos intoxicados y daños muy graves en cultivos, suelo y medio ambiente. Todavía se están pagando las consecuencias.
*
La tarde anterior al accidente, el reactor se cargó con 2.000 kg de triclorobenceno (TCB), 1.050 kg de hidróxido de sodio, 3.300 kg de etilenglicol y 600 kg de xileno. La reacción no terminó esa tarde, dejando el final para la mañana siguiente, cerrando el vapor y parando la agitación en el reactor. A la mañana siguiente, se produjo una reacción exotérmica incontrolada del tipo runaway, lo que generó un aumento de presión en el reactor y la apertura del disco de ruptura. El resultado fue la emisión de una nube tóxica que contenía TCDD en una concentración aproximada de 3.500 ppm y con aproximadamente entre 0,45 y 3 kg de TCDD. El área cubierta por la nube fue de aproximadamente 1.800 hectáreas y produjo numerosos daños a las personas (730 en el área).
Las lesiones fueron principalmente dérmicas, así como daños al medio ambiente (flora y fauna). Se produjeron daños también en la agricultura, ganadería, suelos contaminados, construcción, comercios, etc. En total, más de 300 millones de francos suizos ha tenido que abonar Roche en concepto de compensaciones al Estado Italiano por el accidente.
En la actualidad, todavía se están pagando indemnizaciones y las consecuencias no han desaparecido del todo.

denis marta nerea b. ,cristina

Gestión de los residuos radiactivos

Algunos residuos de baja actividad se eliminan muy diluidos echándolos a la atmósfera o las aguas en concentraciones tan pequeñas que no son dañinas y la ley permite. Los índices de radiación que dan estos vertidos son menores que los que suelen dar muchas sustancias naturales o algunos objetos de uso cotidiano como la televisión.
Los residuos de media o baja actividad se introducen en contenedores especiales que se almacenan durante un tiempo en superficie hasta que se llevan a vertederos de seguridad. Hasta el año 1992 algunos países vertían estos barriles al mar, pero ese año se prohibió esta práctica.
Los almacenes definitivos para estos residuos son, en general, subterráneos, asegurando que no sufrirán filtraciones de agua que pudieran arrastrar isótopos radiactivos fuera del vertedero. En España la instalación preparada para esto es la de El Cabril (Córdoba) en la que se podrán llegar a almacenar hasta 50 000 m3 de residuos de media y baja actividad.
Los residuos de alta actividad son los más difíciles de tratar. El volumen de combustible gastado que queda en las centrales de energía nuclear normales se puede reducir mucho si se vuelve a utilizar en plantas especiales. Esto se hace en algunos casos, pero presenta la dificultad de que hay que transportar una sustancia muy peligrosa desde las centrales normales a las especiales.
Los residuos que quedan se suelen vitrificar (fundir junto a una masa vítrea) e introducir en contenedores muy especiales capaces de resistir agentes muy corrosivos, el fuego, terremotos, grandes colisiones, etc. Estos contenedores se almacenarían en vertederos definitivos que deben estar construidos a gran profundidad, en lugares muy estables geológicamente (depósitos de arcilla , sales o macizos graníticos) y bien refrigerados porque los isótopos radiactivos emiten calor.
Se están estudiando varios emplazamientos para este tipo de almacenes, pero en el mundo todavía no existe ninguno, por lo que por ahora, la mayoría de los residuos de alta actividad se almacenan en lugares provisionales o en las piscinas de la misma central



denis nerea b. , marta y cristina

DATOS DE CONCENTRACIONES DE CO2:

La prueba definitiva de que el CO2 no es el regulador del clima se encuentra en los períodos Ordovícico-Silúrico y el Jurásico-Cretácico, cuando los niveles de CO2 fueron mayores de 4.000 ppmv (partes por millón en volumen) y cerca de 3.000 ppmv, respectivamente. Si la teoría del IPCC fuera correcta, durante esos períodos se hubiera producido un cambio climático desbocado inducido por el efecto invernadero mientras que, por el contrario, fueron épocas glaciales.
Respuesta científica
Cuando en el pasado los niveles de CO2 fueron mayores, la intensidad de la radiación solar era también mucho menor. El efecto combinado del sol y el CO2 encaja correctamente con el clima del momento.
Comentario
A lo largo de la historia de la Tierra ha habido ocasiones en que los niveles de CO2 en la atmósfera han sido superiores a los de la actualidad. Sorprendentemente, el planeta experimentó amplias regiones glaciales durante esos períodos. ¿Contradice esto el efecto del CO2? No, por un simple motivo: el CO2 no es el único regulador del clima. Para entender el clima del pasado es preciso incluir otros forzamientos. Para ello, un estudio agrupó 490 medidas indirectas (proxy) y reconstruyó los niveles de CO2 a lo largo de los últimos 540 millones de años ). Este período es conocido por la denominación de Eón Farenozoico.
Fig. 1.- Concentración atmosférica de CO2 a lo largo del Farenozoico. La línea de puntos muestra las predicciones del modelo del ciclo del carbono GEOCARB, y la zona gris corresponde al margen de incertidumbre. Las líneas continuas muestran representaciones suavizadas de los registros indirectos).
Los niveles atmosféricos de CO2 han alcanzado valores espectaculares en la gran antigüedad, tal vez llegando a 5.000 ppmv en el Ordovícico tardío, hace 440 millones de años. Sin embargo, la actividad solar es menor cuanto más lejos nos situemos en el tiempo. En el Farenozoico temprano, la actividad solar era un 4% menor que en la actualidad. El efecto combinado de esa intensidad solar con esos niveles de CO2 da como resultado neto lo que se representa en la figura 2. Los períodos de glaciación significativa se muestran en gris.
Fig. 2.- Forzamiento radiativo combinado del CO2 y del sol a lo largo del Farenozoico. Los valores están expresados en relación a los del período preindustrial (CO2 = 280 ppmv; luminosidad solar = 342 W/m2). Las bandas oscuras corresponden a períodos con fuerte evidencia de hielo generalizado.
Los períodos con bajos niveles de CO2 se corresponden con los de épocas glaciales (con una excepción notable, mencionada más abajo). Esto nos lleva al concepto del nivel umbral de CO2-hielo: el nivel de CO2 requerido para iniciar una glaciación. Cuando el sol es menos intenso, este umbral es mucho más elevado. Por ejemplo, mientras que el umbral de CO2-hielo se sitúa, en las condiciones actuales, en 500 ppmv, el umbral equivalente en el Ordovícico tardío (hace 450 millones de años) era de 3.000 ppmv.
Sin embargo, hasta hace poco se creía que los niveles de CO2 en el Ordovícico tardío eran muy superiores a 3.000 ppmv, lo que resultaba problemático en tanto que se sabía la Tierra estaba experimentando condiciones de glaciación. Los datos de CO2 en el Ordovícico tardío son escasos, y cubren un único punto cercano a este período. Este punto muestra un nivel de CO2 de 5.600 ppmv. Dado que la intensidad solar era del orden del 4% inferior que el nivel actual, el CO2 debería ser de 3.000 ppmv para permitir la condición glacial.
¿Puede reducirse el nivel de CO2 tan deprisa? Dada la baja resolución temporal del registro de CO2, esos datos no eran concluyentes.
Una investigación de los isótopos de estroncio de los sedimentos del momento arrojó mayor luz sobre la cuestión. La meteorización de las rocas retira CO2 de la atmósfera. Este proceso produce a su vez un isótopo particular del estroncio, que es llevado al océano por los ríos. La relación de los isótopos de estroncio en las capas de sedimento puede ser empleada para construir una indicación de la actividad de la meteorización continental. Este registro muestra que, cerca del Ordovícico mediano, el aumento de la meteorización conllevó un mayor consumo de CO2 por la corteza terrestre. Sin embargo, este hecho resultó compensado por la fuerte actividad volcánica, que añadía más CO2 a la atmósfera. Pero hace unos 446 millones de años, la actividad volcánica decayó, mientras que se mantuvo el nivel de meteorización. Esto hizo que el nivel de CO2 descendiera por debajo de las 3.000 ppmv, iniciándose el enfriamiento. Resulta pues que la disminución del nivel de CO2 fue la causa de la glaciación del Ordovícico.
Vemos pues que las comparaciones del clima actual con el de períodos de hace 500 millones de años requieren tener en cuenta la intensidad solar, mucho menos que la del presente. Pero ¿qué ocurrió en tiempos más recientes? El período más reciente en el que los niveles de CO2 fueron similares a los actuales (400 ppmv) se dio hace 15 millones de años, durante el Mioceno medio. ¿Cómo era el clima entonces? La temperatura media de la Tierra era entre 2,8 ºC y 5,5 ºC mayor. El nivel del mar entre 22,8 y 36,5 metros mayor. No había hielo permanente en el Ártico, y muy poco en la Antártica y en Groenlandia. Este importante acoplamiento entre CO2 y clima llevó al autor a concluir que “las observaciones geológicas de las que ahora disponemos, de los últimos 20 millones de años, soportan fuertemente la idea de que el dióxido de carbono ha sido un factor determinante del clima a lo largo de la historia de la Tierra” .
Si los climatólogos afirmaran que el CO2 fuera el único regulador del clima, sería difícil compatibilizar esta afirmación con los períodos glaciales. Pero todo climatólogo le dirá que el CO2 no es el único regulador. La climatóloga Dana Royer lo manifiesta mejor: “los registros geológicos contienen un tesoro oculto de ‘Tierras alternativas’ que permiten a los científicos estudiar de qué forma responden los distintos componentes del sistema climático a las variaciones de distintos forzamientos.”
Períodos anteriores de mayores concentraciones de CO2 no contradicen, pues, la noción de que el CO2 hace aumentar la temperatura. Por el contrario, confirman su estrecha relación.



NEREA B. , DENIS, CRISTINA Y MARTA