viernes, 11 de junio de 2010

LED: Diodo emisor de luz ,es un dispositivo semiconductor (diodo) que emite luz incoherente de espectro reducido cuando se polariza de forma directa la unión PN del mismo y circula por él una corriente eléctrica. Este fenómeno es una forma de electroluminiscencia. El color, depende del material semiconductor empleado en la construcción del diodo y puede variar desde el ultravioleta, pasando por el visible, hasta el infrarrojo. Los diodos emisores de luz que emiten luz ultravioleta también reciben el nombre de UV LED y los que emiten luz infrarroja se llaman IRED.

Los diodos infrarrojos (IRED) se emplean desde mediados del siglo XX en
mandos a distancia de televisores, habiéndose generalizado su uso en otros electrodomésticos como equipos de aire acondicionado, equipos de música, etc., y en general para aplicaciones de control remoto, así como en dispositivos detectores, además de ser utilizados para transmitir datos entre dispositivos electrónicos como en redes de computadoras y dispositivos como teléfonos móviles, computadoras de mano, aunque esta tecnología de transmisión de datos ha dado paso al bluetooth en los últimos años, quedando casi obsoleta.
Los LEDs se emplean con profusión en todo tipo de indicadores de estado (encendido/apagado) en dispositivos de señalización (de tránsito, de emergencia, etc.) y en paneles informativos (el mayor del mundo, del
NASDAQ, tiene 36,6 metros de altura y está en Times Square, Manhattan). También se emplean en el alumbrado de pantallas de cristal líquido de teléfonos móviles, calculadoras, agendas electrónicas, etc., así como en bicicletas y usos similares. Existen además impresoras LED.
El uso de diodos LED en el ámbito de la iluminación (incluyendo la señalización de tráfico) es moderado y es previsible que se incremente en el futuro, ya que sus prestaciones son superiores a las de la
lámpara incandescente y la lámpara fluorescente, desde diversos puntos de vista. La iluminación con LEDs presenta indudables ventajas: fiabilidad, mayor eficiencia energética, mayor resistencia a las vibraciones, mejor visión ante diversas circunstancias de iluminación, menor disipación de energía, menor riesgo para el medio ambiente, capacidad para operar de forma intermitente de modo continuo, respuesta rápida, etc. Asimismo, con LEDs se pueden producir luces de diferentes colores con un rendimiento luminoso elevado, a diferencia de muchas de las lámparas utilizadas hasta ahora, que tienen filtros para lograr un efecto similar (lo que supone una reducción de su eficiencia energética). Cabe destacar también que diversas pruebas realizadas por importantes empresas y organismos han concluido que el ahorro energético varia entre un 70% y 80% respecto a la iluminación tradicional que se utiliza hasta ahora.[3] Todo ello pone de manifiesto las numerosas ventajas que los LEDs ofrecen en relación al alumbrado público.
Los
LEDs de Luz Blanca son uno de los desarrollos más recientes y pueden considerarse como un intento muy bien fundamentado para sustituir las bombillas actuales (lámparas incandescentes) por dispositivos mucho más ventajosos. En la actualidad se dispone de tecnología que consume el 92% menos que las bombillas incandescentes de uso doméstico común y un 30% menos que la mayoría de las lámparas fluorescentes; además, estos LEDs pueden durar hasta 20 años y suponer un 200% menos de costes totales de propiedad si se comparan con las bombillas o tubos fluorescentes convencionales.[4] Estas características convierten a los LEDs de Luz Blanca en una alternativa muy prometedora para la iluminación.
También se utilizan en la emisión de señales de luz que se trasmiten a través de
fibra óptica. Sin embargo esta aplicación está en desuso ya que actualmente se opta por tecnología láser que focaliza más las señales de luz y permite un mayor alcance de la misma utilizando el mismo cable. Sin embargo en los inicios de la fibra óptica eran usados por su escaso coste, ya que suponían una gran ventaja frente al coaxial (aun sin focalizar la emisión de luz).
Pantalla de leds: pantalla muy brillante, formada por filas de leds verdes, azules y rojos, ordenados según la arquitectura
rgb, controlados individualmente para formar imágenes vivas, muy brillantes, con un altísimo nivel de contraste, entre sus principales ventajas, frente a otras pantallas encontramos: buen soporte de color, brillo extremadamente alto, lo que le da la capacidad ser completamente visible bajo la luz del sol, es increiblemente resistente a impactos.


MATERIALES SUPERCONDUCTORES: Se denomina superconductividad a la capacidad intrínseca que poseen ciertos materiales para conducir corriente eléctrica sin resistencia y pérdida de energía nulas en determinadas condiciones.
La
resistividad eléctrica de un conductor metálico disminuye gradualmente a medida que la temperatura se reduce. Sin embargo, en los conductores ordinarios, como el cobre y la plata, las impurezas y otros defectos producen un valor límite. Incluso cerca de cero absoluto una muestra de cobre muestra una resistencia no nula. La resistencia de un superconductor, en cambio, desciende bruscamente a cero cuando el material se enfría por debajo de su temperatura crítica. Una corriente eléctrica que fluye en una espiral de cable superconductor puede persistir indefinidamente sin fuente de alimentación. Al igual que el ferromagnetismo y las líneas espectrales atómicas, la superconductividad es un fenómeno de la mecánica cuántica.
La superconductividad ocurre en una gran variedad de materiales, incluyendo elementos simples como el
estaño y el aluminio, diversas aleaciones metálicas y algunos semiconductores fuertemente dopados. La superconductividad no ocurre en metales nobles como el oro y la plata, ni en la mayoría de los metales ferromagnéticos.

EJEMPLOS:
-el cobre-aluminio-bronce-la mina del lapiz grafito


NANOTECNOLOGÍA:
Es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a nano escala.
Cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas.Nos interesa, más que su concepto, lo que representa potencialmente dentro del conjunto de investigaciones y aplicaciones actuales cuyo propósito es crear nuevas estructuras y productos que tendrían un gran impacto en la industria, la medicina (
nanomedicina), etc..
La nanotecnología avanzada, a veces también llamada fabricación molecular, es un término dado al concepto de ingeniería de nanosistemas (máquinas a escala nanométrica) operando a escala molecular. Se basa en que los productos manufacturados se realizan a partir de átomos. Las propiedades de estos productos dependen de cómo estén esos átomos dispuestos. Así por ejemplo, si reubicamos los átomos del grafito (compuesto por carbono, principalmente) de la mina del lápiz podemos hacer diamantes (carbono puro cristalizado). Si reubicamos los átomos de la arena (compuesta básicamente por sílice) y agregamos algunos elementos extras se hacen los chips de un ordenador.La característica fundamental de la nanotecnología es que constituye un ensamblaje interdisciplinar de varios campos de las ciencias naturales que están altamente especializados. Por tanto, los físicos juegan un importante rol no sólo en la construcción del microscopio usado para investigar tales fenómenos sino también sobre todas las leyes de la mecánica cuántica. Alcanzar la estructura del material deseado y las configuraciones de ciertos átomos hacen jugar a la química un papel importante. En medicina, el desarrollo específico dirigido a nanopartículas promete ayuda al tratamiento de ciertas enfermedades. Aquí, la ciencia ha alcanzado un punto en el que las fronteras que separan las diferentes disciplinas han empezado a diluirse, y es precisamente por esa razón por la que la nanotecnología también se refiere a ser una tecnología convergente.

marta romero

martes, 8 de junio de 2010

ejemplos de materiales composite

Plásticos reforzados con fibra:
Clasificados por el tipo de fibra:
Madera (fibras de celulosa en una matriz de lignina y hemicelulosa)
Plástico reforzado de fibra de carbono o CFRP o
Plástico reforzado de fibra de vidrio

Clasificados por la matriz:
Termoplásticos reforzados por fibra larga.
Termoplásticos tejidos de vidrio.
Compuestos termoformados o termoestables

Compuestos de matriz metálica o MMCs:
Cermet (cerámica y metal).
Fundición blanca.
Metal duro (carburo en matriz metálica)
Laminado metal-intermetal

Compuestos de matriz cerámica:
Hormigón/Concreto
Carbono-carbono reforzado (fibra de carbono en matriz de grafito).
Hueso (matriz ósea reforzada con fibras de colágeno)
Adobe (barro y paja)

Compuestos de matriz orgánica/agregado cerámico
Madreperla o nácar
Concreto asfáltico

Madera mejorada
Plywood
Tableros de fibra orientada.
Trex
Weatherbest (fibra de madera reciclada en matriz de polietileno)
Pycrete (serrín en matriz de hielo)

MARTA ROMERO

viernes, 4 de junio de 2010

MEMBRANAS Y MODULOS!

El Kevlar® o poliparafenileno tereftalamida es una poliamida sintetizada por primera vez en 1965 por la química Stephanie Kwolek, quien trabajaba para DuPont. La obtención de las fibras de Kevlar fue complicada, destacando el aporte de Herbert Blades, que solucionó el problema de qué disolvente emplear para el procesado. Finalmente, DuPont empezó a comercializarlo en 1972. Es muy resistente y su mecanización resulta muy dificil.
Esencialmente hay dos tipos de fibras de Kevlar: Kevlar 29 y Kevlar 49.
El Kevlar 29 es la fibra tal y como se obtiene de su fabricación. Se usa típicamente como refuerzo en tiras por sus buenas propiedades mecánicas, o para tejidos. Entre sus aplicaciones está la fabricación de cables, ropa resistente (de protección) o chalecos antibalas.
El Kevlar 49 se emplea cuando las fibras se van a embeber en una resina para formar un material compuesto. Las fibras de Kevlar 49 están tratadas superficialmente para favorecer la unión con la resina. El Kevlar 49 se emplea como equipamiento para deportes extremos, para altavoces y para la industria aeronáutica, aviones y satélites de comunicaciones y cascos para motos.
Esta poliamida contiene grupos aromáticos (se trata de una aramida) y hay interacciones entre estos grupos, así como interacciones por puentes de hidrógeno entre los grupos amida. Por estas interacciones, las fibras obtenidas presentan unas altas prestaciones al quedar perfectamente orientadas las macromoléculas en la misma dirección y muy bien empaquetadas.
Una membrana conductora iónica compuesta reforzada del polímero, y una célula de combustible con la eficacia mejorada que incluye la membrana conductora iónica compuesta reforzada del polímero se proporcionan. La membrana conductora iónica compuesta reforzada del polímero incluye una ayuda porosa, un polímero de intercambio iónico que impregne la ayuda porosa; y un agente que refuerza que impregna la ayuda porosa, el agente que refuerza incluyendo un material retentivo de la humedad y/o un catalizador para facilitar la oxidación del hidrógeno.
El módulo alto, fibras de alta resistencia del carbón, haciendo una estructura altamente orientada caracterizar por la presencia de los cristalitos del carbón alineó preferencial paralelo con el eje de la fibra, se produce de las echadas carbonosas que se han transformado, en pieza, a un estado de cristal líquido o supuesto de la “mesofase”. Cuando están calentadas a graphitizing temperaturas, estas fibras desarrollan la orden tridimensional característica del grafito polycrystalline

Marta Romero Gurdiel & Denís de la Fuente Cuervo

viernes, 21 de mayo de 2010

CELULA ARTIFICIAL

Craig Venter, el célebre -y controvertido- científico y empresario que echó leña al fuego de la carrera por la decodificación del genoma humano, acaba de lanzar otra de sus bombas mediáticas: anunció que planea crear una nueva forma de vida.
Según publicó The Washington Post, el proyecto ya cuenta con el respaldo del Departamento de Energía de los Estados Unidos -y un presupuesto de tres millones de dólares, y contempla fabricar un organismo unicelular artificial con el mínimo número de genes necesarios para sobrevivir. Si tiene éxito, una vez completo el organismo comenzaría a alimentarse y dividirse, creando una población celular diferente de todo lo conocido hasta el momento.
Junto con Hamilton Smith, premio Nobel de Fisiología y Medicina 1978, que lo secunda en esta aventura, Venter aseguró que la célula será mantenida en estricto confinamiento, y diseñada de tal modo que será incapaz de infectar a los seres humanos o de subsistir si escapa al medio ambiente.
Según The Washington Post, el trabajo podría tener en el futuro aplicaciones prácticas. Partiendo del Mycoplasma genitalium , un organismo que vive en el tracto genital humano y que está dotado de un genoma de apenas unos cientos de genes (el humano tiene entre 30.000 y 50.000), piensan remover el material genético, reemplazarlo por uno artificial y, eventualmente, agregarle funciones, como por ejemplo la capacidad de producir hidrógeno.
Sin embargo, los planes inmediatos, afirman, son más modestos: en principio intentarán integrar en un modelo virtual absolutamente todos los aspectos concebibles de la biología de un organismo, un desafío del que la ciencia hasta ahora nunca había salido triunfante. Y, dado que la química es la misma para todas las formas de vida terrestres, lograrían aclarar muchas cuestiones fundamentales de la biología.
"Pensamos que podríamos esbozar una definición molecular de la vida -declaró Venter-. Nuestra meta es entender cómo funcionan los componentes básicos de las células."
Por supuesto, una investigación de estas características no sólo promete una prolífica cosecha de conocimientos... sino también considerables inquietudes éticas: ¿un organismo hecho para sobrevivir en el laboratorio puede considerarse vida?, ¿tienen los científicos derecho a crear organismos? Y si así fuera, ¿podrían, como sugirió el propio Venter, dar pie para el diseño de nuevas armas biológicas?
Sin duda, el desafío posee los ingredientes de fantasía y audacia con que se escriben algunos de los capítulos más apasionantes de la historia de la ciencia. Pero, antes de dejar volar la imaginación, caben algunas consideraciones.
"Es muy difícil que una célula como ésta pueda utilizarse como arma biológica -dice Martín Lema, investigador especializado en el tema, del laboratorio de ingeniería genética y biología celular y molecular, y de la unidad de fisicoquímica, de la Universidad de Quilmes-. ¿Por qué? Porque un micoplasma de este tipo es muy frágil. Es un parásito que se adhiere a las células y vive de muchas de las sustancias nutritivas que fabrica su anfitriona. Y para qué hacer algo nuevo si es mucho más fácil usar organismos que ya existen en la naturaleza. Por ejemplo, para fabricar el ántrax habría que trabajar como cien años..."
Para el científico, el valor de un emprendimiento como éste radica en sus perspectivas comerciales. Permitiría, por ejemplo, desarrollar reactores biológicos más sencillos. "Cuando uno usa organismos completos -explica Lema- tiene ventajas y desventajas: ofrecen una cantidad de funciones prefabricadas, pero por otro lado poseen funciones que uno no emplea. Esto abriría la puerta para diseñar una maquinaria celular con las funciones estrictamente necesarias."
Por su parte, Osvaldo Uchitel, del laboratorio de fisiología y biología molecular de la Facultad de Ciencias Exactas de la UBA, subraya que "aunque hay elementos de la célula que se pueden generar artificialmente -la membrana, por ejemplo, es una capa lipídica, y si uno pone lípidos en agua espontáneamente toman una forma esférica-, las demás estructuras celulares no van sueltas dentro de ese espacio, y aún no sabemos cómo están ensambladas. Los estudios bioquímicos descubrieron cuáles son los elementos unitarios de un sistema biológico, pero no cómo están ubicados".
La evaluación de Lino Barañao, investigador del Instituto de Biología y Medicina Experimental, es algo diferente. "Teóricamente es posible -afirma-. Ya hay cromosomas artificiales. De hecho, sería posible partir de una célula natural, vaciarla y agregárselos. Hasta se podría fabricar un embrión sintético, y el individuo resultante sería... sintético."
Por eso, subraya, evolutivamente éste es un momento tanto o más importante que la aparición del primer organismo en la Tierra. "Esta es una revolución no sólo tecnológica, sino biológica. Todos usamos el mismo software -dice-, y conociéndolo estamos en condiciones de producir en un instante cambios que antes ocurrían por azar y requerían cientos de millones de años. También desde el punto de vista filosófico es un paso importante, porque esto podría probar que la vida puede constituirse a partir de sus partes. Por otro lado, que el hombre tenga el control sobre la vida conlleva una innegable responsabilidad: la de usar este conocimiento en forma sabia y no en busca de fama o rentabilidad. Lo preocupante no es el experimento biológico, sino el económico que hay detrás... y ése no pasa por comités de ética. Deberíamos estar reflexionando, no sobre peligros lejanos, sino acerca de cómo pretendemos que sea el mundo del futuro, con una humanidad feliz o con asimetrías tan notables como que se usen tres millones de dólares para sintetizar una célula, mientras hay chicos que se mueren de hambre."


MARTA,NEREA B.,DENIS

Accidente de Seveso, Italia, 1976


A las 12:37 del sábado 9 de julio de 1976, se produjo la rotura de un disco de ruptura en un reactor de la planta Icmesa Chemical Company en Seveso (Italia). Se produjo la emisión de sustancias tóxicas y, entre ellas, de dioxina (TCDD), muy tóxica. Se produjeron numerosos intoxicados y daños muy graves en cultivos, suelo y medio ambiente. Todavía se están pagando las consecuencias.
*
La tarde anterior al accidente, el reactor se cargó con 2.000 kg de triclorobenceno (TCB), 1.050 kg de hidróxido de sodio, 3.300 kg de etilenglicol y 600 kg de xileno. La reacción no terminó esa tarde, dejando el final para la mañana siguiente, cerrando el vapor y parando la agitación en el reactor. A la mañana siguiente, se produjo una reacción exotérmica incontrolada del tipo runaway, lo que generó un aumento de presión en el reactor y la apertura del disco de ruptura. El resultado fue la emisión de una nube tóxica que contenía TCDD en una concentración aproximada de 3.500 ppm y con aproximadamente entre 0,45 y 3 kg de TCDD. El área cubierta por la nube fue de aproximadamente 1.800 hectáreas y produjo numerosos daños a las personas (730 en el área).
Las lesiones fueron principalmente dérmicas, así como daños al medio ambiente (flora y fauna). Se produjeron daños también en la agricultura, ganadería, suelos contaminados, construcción, comercios, etc. En total, más de 300 millones de francos suizos ha tenido que abonar Roche en concepto de compensaciones al Estado Italiano por el accidente.
En la actualidad, todavía se están pagando indemnizaciones y las consecuencias no han desaparecido del todo.

denis marta nerea b. ,cristina

Gestión de los residuos radiactivos

Algunos residuos de baja actividad se eliminan muy diluidos echándolos a la atmósfera o las aguas en concentraciones tan pequeñas que no son dañinas y la ley permite. Los índices de radiación que dan estos vertidos son menores que los que suelen dar muchas sustancias naturales o algunos objetos de uso cotidiano como la televisión.
Los residuos de media o baja actividad se introducen en contenedores especiales que se almacenan durante un tiempo en superficie hasta que se llevan a vertederos de seguridad. Hasta el año 1992 algunos países vertían estos barriles al mar, pero ese año se prohibió esta práctica.
Los almacenes definitivos para estos residuos son, en general, subterráneos, asegurando que no sufrirán filtraciones de agua que pudieran arrastrar isótopos radiactivos fuera del vertedero. En España la instalación preparada para esto es la de El Cabril (Córdoba) en la que se podrán llegar a almacenar hasta 50 000 m3 de residuos de media y baja actividad.
Los residuos de alta actividad son los más difíciles de tratar. El volumen de combustible gastado que queda en las centrales de energía nuclear normales se puede reducir mucho si se vuelve a utilizar en plantas especiales. Esto se hace en algunos casos, pero presenta la dificultad de que hay que transportar una sustancia muy peligrosa desde las centrales normales a las especiales.
Los residuos que quedan se suelen vitrificar (fundir junto a una masa vítrea) e introducir en contenedores muy especiales capaces de resistir agentes muy corrosivos, el fuego, terremotos, grandes colisiones, etc. Estos contenedores se almacenarían en vertederos definitivos que deben estar construidos a gran profundidad, en lugares muy estables geológicamente (depósitos de arcilla , sales o macizos graníticos) y bien refrigerados porque los isótopos radiactivos emiten calor.
Se están estudiando varios emplazamientos para este tipo de almacenes, pero en el mundo todavía no existe ninguno, por lo que por ahora, la mayoría de los residuos de alta actividad se almacenan en lugares provisionales o en las piscinas de la misma central



denis nerea b. , marta y cristina

DATOS DE CONCENTRACIONES DE CO2:

La prueba definitiva de que el CO2 no es el regulador del clima se encuentra en los períodos Ordovícico-Silúrico y el Jurásico-Cretácico, cuando los niveles de CO2 fueron mayores de 4.000 ppmv (partes por millón en volumen) y cerca de 3.000 ppmv, respectivamente. Si la teoría del IPCC fuera correcta, durante esos períodos se hubiera producido un cambio climático desbocado inducido por el efecto invernadero mientras que, por el contrario, fueron épocas glaciales.
Respuesta científica
Cuando en el pasado los niveles de CO2 fueron mayores, la intensidad de la radiación solar era también mucho menor. El efecto combinado del sol y el CO2 encaja correctamente con el clima del momento.
Comentario
A lo largo de la historia de la Tierra ha habido ocasiones en que los niveles de CO2 en la atmósfera han sido superiores a los de la actualidad. Sorprendentemente, el planeta experimentó amplias regiones glaciales durante esos períodos. ¿Contradice esto el efecto del CO2? No, por un simple motivo: el CO2 no es el único regulador del clima. Para entender el clima del pasado es preciso incluir otros forzamientos. Para ello, un estudio agrupó 490 medidas indirectas (proxy) y reconstruyó los niveles de CO2 a lo largo de los últimos 540 millones de años ). Este período es conocido por la denominación de Eón Farenozoico.
Fig. 1.- Concentración atmosférica de CO2 a lo largo del Farenozoico. La línea de puntos muestra las predicciones del modelo del ciclo del carbono GEOCARB, y la zona gris corresponde al margen de incertidumbre. Las líneas continuas muestran representaciones suavizadas de los registros indirectos).
Los niveles atmosféricos de CO2 han alcanzado valores espectaculares en la gran antigüedad, tal vez llegando a 5.000 ppmv en el Ordovícico tardío, hace 440 millones de años. Sin embargo, la actividad solar es menor cuanto más lejos nos situemos en el tiempo. En el Farenozoico temprano, la actividad solar era un 4% menor que en la actualidad. El efecto combinado de esa intensidad solar con esos niveles de CO2 da como resultado neto lo que se representa en la figura 2. Los períodos de glaciación significativa se muestran en gris.
Fig. 2.- Forzamiento radiativo combinado del CO2 y del sol a lo largo del Farenozoico. Los valores están expresados en relación a los del período preindustrial (CO2 = 280 ppmv; luminosidad solar = 342 W/m2). Las bandas oscuras corresponden a períodos con fuerte evidencia de hielo generalizado.
Los períodos con bajos niveles de CO2 se corresponden con los de épocas glaciales (con una excepción notable, mencionada más abajo). Esto nos lleva al concepto del nivel umbral de CO2-hielo: el nivel de CO2 requerido para iniciar una glaciación. Cuando el sol es menos intenso, este umbral es mucho más elevado. Por ejemplo, mientras que el umbral de CO2-hielo se sitúa, en las condiciones actuales, en 500 ppmv, el umbral equivalente en el Ordovícico tardío (hace 450 millones de años) era de 3.000 ppmv.
Sin embargo, hasta hace poco se creía que los niveles de CO2 en el Ordovícico tardío eran muy superiores a 3.000 ppmv, lo que resultaba problemático en tanto que se sabía la Tierra estaba experimentando condiciones de glaciación. Los datos de CO2 en el Ordovícico tardío son escasos, y cubren un único punto cercano a este período. Este punto muestra un nivel de CO2 de 5.600 ppmv. Dado que la intensidad solar era del orden del 4% inferior que el nivel actual, el CO2 debería ser de 3.000 ppmv para permitir la condición glacial.
¿Puede reducirse el nivel de CO2 tan deprisa? Dada la baja resolución temporal del registro de CO2, esos datos no eran concluyentes.
Una investigación de los isótopos de estroncio de los sedimentos del momento arrojó mayor luz sobre la cuestión. La meteorización de las rocas retira CO2 de la atmósfera. Este proceso produce a su vez un isótopo particular del estroncio, que es llevado al océano por los ríos. La relación de los isótopos de estroncio en las capas de sedimento puede ser empleada para construir una indicación de la actividad de la meteorización continental. Este registro muestra que, cerca del Ordovícico mediano, el aumento de la meteorización conllevó un mayor consumo de CO2 por la corteza terrestre. Sin embargo, este hecho resultó compensado por la fuerte actividad volcánica, que añadía más CO2 a la atmósfera. Pero hace unos 446 millones de años, la actividad volcánica decayó, mientras que se mantuvo el nivel de meteorización. Esto hizo que el nivel de CO2 descendiera por debajo de las 3.000 ppmv, iniciándose el enfriamiento. Resulta pues que la disminución del nivel de CO2 fue la causa de la glaciación del Ordovícico.
Vemos pues que las comparaciones del clima actual con el de períodos de hace 500 millones de años requieren tener en cuenta la intensidad solar, mucho menos que la del presente. Pero ¿qué ocurrió en tiempos más recientes? El período más reciente en el que los niveles de CO2 fueron similares a los actuales (400 ppmv) se dio hace 15 millones de años, durante el Mioceno medio. ¿Cómo era el clima entonces? La temperatura media de la Tierra era entre 2,8 ºC y 5,5 ºC mayor. El nivel del mar entre 22,8 y 36,5 metros mayor. No había hielo permanente en el Ártico, y muy poco en la Antártica y en Groenlandia. Este importante acoplamiento entre CO2 y clima llevó al autor a concluir que “las observaciones geológicas de las que ahora disponemos, de los últimos 20 millones de años, soportan fuertemente la idea de que el dióxido de carbono ha sido un factor determinante del clima a lo largo de la historia de la Tierra” .
Si los climatólogos afirmaran que el CO2 fuera el único regulador del clima, sería difícil compatibilizar esta afirmación con los períodos glaciales. Pero todo climatólogo le dirá que el CO2 no es el único regulador. La climatóloga Dana Royer lo manifiesta mejor: “los registros geológicos contienen un tesoro oculto de ‘Tierras alternativas’ que permiten a los científicos estudiar de qué forma responden los distintos componentes del sistema climático a las variaciones de distintos forzamientos.”
Períodos anteriores de mayores concentraciones de CO2 no contradicen, pues, la noción de que el CO2 hace aumentar la temperatura. Por el contrario, confirman su estrecha relación.



NEREA B. , DENIS, CRISTINA Y MARTA

viernes, 26 de marzo de 2010

NANOTECNOLOGIA

La nanotecnología es un campo de las ciencias aplicadas dedicado al control y manipulación de la materia a una escala menor que un micrómetro, es decir, a nivel de átomos y moleculas (nanomateriales). Lo más habitual es que tal manipulación se produzca en un rango de entre uno y cien nanómetros. Se tiene una idea de lo pequeño que puede ser un nanobot sabiendo que un nanobot de unos 50 nm tiene el tamaño de 5 capas de moleculas o atomos -depende de qué esté hecho el nanobot-.
Nano- es un prefijo griego que indica una medida, no un objeto, de manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinar, y cohesionado exclusivamente por la escala de la materia con la que trabaja.
Algunos países en vías de desarrollo ya destinan importantes recursos a la investigación en nanotecnología. La
nanomedicina es una de las áreas que más puede contribuir al avance sostenible del Tercer Mundo, proporcionando nuevos métodos de diagnóstico y cribaje de enfermedades, mejores sistemas para la administración de fármacos y herramientas para la monitorización de algunos parámetros biológicos.
INVERSION:
Actualmente, alrededor de 40
laboratorios en todo el mundo canalizan grandes cantidades de dinero para la investigación en nanotecnología. Unas 300 empresas tienen el término “nano” en su nombre, aunque todavía hay muy pocos productos en el mercado.
Algunos gigantes del mundo informático como
IBM, Hewlett-Packard ('HP)' NEC e Intel están invirtiendo millones de dólares al año en el tema. Los gobiernos del llamado Primer Mundo también se han tomado el tema muy en serio, con el claro liderazgo del gobierno estadounidense, que para este año ha destinado 570 millones de dólares a su National Nanotechnology Initiative.

En España, los científicos hablan de “nanopresupuestos”. Pero el interés crece, ya que ha habido algunos congresos sobre el tema: en Sevilla, en la Fundación San Telmo, sobre oportunidades de inversión, y en Madrid, con una reunión entre responsables de centros de nanotecnología de Francia, Alemania y Reino Unido en la Universidad Autónoma de Madrid.
Las empresas tradicionales podrán beneficiarse de la nanotecnologia para mejorar su competitividad en sectores habituales, como textil, alimentación, calzado, automoción, construcción y salud. Lo que se pretende es que las empresas pertenecientes a sectores tradicionales incorporen y apliquen la nanotectologia en sus procesos con el fin de contribuir a la sostenibilidad del empleo. Actualmente la cifra en uso cotidiano es del 0,1 % Con la ayuda de programas de acceso a la nanotecnologia se prevé que en 2014 sea del 15 % en el uso y la producción manufacturera.

FUTURAS APLICACIONES:
Según un informe de un grupo de investigadores de la Universidad de Toronto, en Canadá, las quince aplicaciones más prometedoras de la nanotecnología son:
Almacenamiento, producción y conversión de energia

Armamento y sistemas de defensa.
Producción agricola
.
Tratamiento y remediación de aguas.
Diagnóstico y cribaje de enfermedades.
Sistemas de administración de fármacos
.
Procesamiento de alimentos.
Remediación de la contaminación atmosférica
.
Construcción.
Monitorización de la salud.
Detección y control de plagas
.
Control de desnutrición en lugares pobres.
Informática.
Alimentos transgénicos.
Cambios térmicos moleculares (Nanotermología
).
RIESGOS:
Sustancias viscosas-Recientemente, un nuevo estudio ha mostrado como este peligro de la “sustancia viscosa gris” es menos probable que ocurra de como originalmente se pensaba. K. Eric Drexler considera un escenario accidental con sustancia viscosa gris improbable y así lo declara en las últimas ediciones de Engines of Creation. El escenario sustancia viscosa gris clamaba la Tree Sap Answer: ¿Qué oportunidades existen de que un coche pudiera ser mutado a un coche salvaje, salir fuera de la carretera y vivir en el bosque solo de savia de árbol?. Sin embargo, se han identificado otros riesgos mayores a largo plazo para la sociedad y el entorno.
Una variante de esto es la “Sustancia viscosa verde”, un escenario en que la nanobiotecnología crea una máquina nanométrica que se autoreplica que consume todas las partículas orgánicas, vivas o muertas, creando un cieno -como una masa orgánica muerta. En ambos casos, sin embargo, sería limitado por el mismo mecanismo que limita todas las formas vivas (que generalmente ya actúan de esta manera): energía disponible.
Veneno y toxicidad-A corto plazo, los críticos de la nanotecnología puntualizan que hay una toxicidad potencial en las nuevas clases de nanosustancias que podrían afectar de forma adversa a la estabilidad de las membranas celulares o distorsionar el sistema inmunológico cuando son inhaladas o ingeridas. Una valoración objetiva de riesgos puede sacar beneficio de la cantidad de experiencia acumulada con los materiales microscópicos bien conocidos como el hollín o las fibras de asbestos.
Hay una posibilidad que las nanopartículas en agua potable pudieran ser dañinas para los humanos y otros animales. Las células del colon expuestas a partículas de dióxido de titanio se ha encontrado que se descomponen a mayor velocidad de la normal. Las nanopartículas de dióxido de titanio se usan normalmente en pantallas de sol, haciéndolas transparentes, al contrario de las grandes partículas de dióxido de titanio, que hacen a las pantallas de sol parecer blancas.
Armas-La militarización de la nanotecnología es una aplicación potencial. Mientras los nanomateriales avanzados obviamente tienen aplicaciones para la mejora de armas existentes y el hardware militar a través de nuevas propiedades (tales como la relación fuerza-peso o modificar la reflexión de la radiación, por medio de cambios térmicos moleculares para aplicaciones sigilosas), y la electrónica molecular podría ser usada para construir sistemas informáticos muy útiles para misiles, no hay ninguna manera obvia de que alguna de las formas que se tienen en la actualidad o en un futuro próximo puedan ser militarizadas más allá de lo que lo hacen otras tecnologías como la ingeniería genética. Mientras conceptualmente podríamos diseñar que atacasen sistemas biológicos o los componentes de un vehículo (es decir, un nanomáquina que consumiera la goma de los neumáticos para dejar incapaz a un vehículo rápidamente), tales diseños están un poco lejos del concepto. En términos de eficacia, podrían ser comparados con conceptos de arma tales como los pertenecientes a la ingeniería genética, como virus o bacterias, que son similares en concepto y función práctica y generalmente armas tácticamente poco atractivas, aunque las aplicaciones para el terrorismo son claras.
La nanotecnología puede ser usada para crear dispositivos no detectables – micrófonos o cámaras de tamaño de una molécula, y son posibilidades que entran en el terreno de lo factible. El impacto social de tales dispositivos dependería de muchos factores, incluyendo quién ha tenido acceso a él, cómo de bien funcionan y cómo son usados. E.U.A. ha aportado gran parte de estos avances al igual que los chinos y franceses. Como dato la unión europea produce 29.64% de nanotecologia mundial otro 29 Estados Unidos y el resto pequenos países.
Memoria: En un laboratorio de IBM en Zurich, uno de los que ayudaron en la invención de aquel microscopio AFM de 1986, se trabaja en la miniaturización a nivel nanómetro del registro de datos. El sistema de almacenamiento se basa en un conjunto de 1024 agujas de AFM en una matriz cuadrada que pueden escribir bits de información de no más de 50 nanómetros de diámetro. El mismo conjunto es capaz luego de leer la información e incluso reescribirla.
La capacidad de guardar información a esa escala es una noticia excitante para el mercado, pues multiplica inmensamente la cantidad de información que se puede almacenar en un área determinada. El mejor sistema actual de registro, basado en la memoria magnética, puede guardar alrededor de dos gigabits por centímetro cuadrado; los físicos creen que el límite físico de la capacidad este sistema —no alcanzado aún— es de alrededor de 25 gigabits por centímetro cuadrado (64 gigabytes/in²).El sistema de matriz de agujas descripto más arriba, bautizado "Millipede" (Miriápodo, por tener mil patas), ofrece 35 gigabits por centímetro cuadrado (y hasta 80 gigabits si se utiliza una aguja única) y es capaz de hacerlo a la velocidad de los artefactos magnéticos actuales. Con unidades de almacenamiento provistas de matrices gigantescas, con millones de agujas, se puede lograr un almacenamiento en el orden de los terabytes, algo así como 40 veces lo que está disponible hoy de forma comercial.

MARTA ROMERO
DENÍS DE LA FUENTE

viernes, 5 de marzo de 2010

TRANSGENICOS

Amflora es el producto estrella de la multinacional alemana BASF, uno de los mayores grupos químicos del mundo. Esta patata contiene alteraciones genéticas que, según informa la empresa, producen un mayor porcentaje de almidón en las plantas. También produce, según los colectivos ecologistas, un gen de resistencia a los antibióticos.

BASF es una empresa química. Es la empresa química más grande del mundo superando a Dow Chemical Company y a DuPont, así como la primera con más ingresos por ventas en 2008.Su fábrica principal, basada aún en la ciudad de origen de la compañía (Ludwigshafen), se ha convertido en el recinto químico integrado más grande del mundo, con una superficie de 10 kilómetros cuadrados. El centro de producción dispone de dos mil edificios, 115 kilómetros de calles y aproximadamente 211 kilómetros de vías de tren, donde trabajan más de 33.000 empleados.
Un organismo modificado genéticamente (abreviado OMG) es aquél cuyo material genético es manipulado en laboratorios donde ha sido diseñado o alterado deliberadamente con el fin de otorgarle alguna característica específica.
Monsanto es una empresa que provee de productos para la agricultura. Es conocida por producir el herbicida más vendido en el mundo bajo la marca Roundup. También es productor líder de semillas genéticamente modificadas (los transgénicos).
A lo largo de su historia, Monsanto ha ido evolucionando en sus negocios. En sus inicios, en 1901 distribuían sacarina, para 1938 tenían negocios químicos como plásticos y resinas, en 1976 incursionaron en el negocio de los herbicidas y en 1981 se sumaron a la carrera biotecnológica. En el año 2000 contribuyó a descifrar el código genético del arroz, y anunció que la información obtenida en la investigación sería compartida con la comunidad científica mundial.
El maíz transgénico al que se le introducen artificialmente características biológicas nuevas provenientes de otras especies de plantas, animales o bacterias, para que adquiera capacidades inusitadas como la resistencia al uso de herbicidas, que la propia planta adquiera la propiedad matar insectos que la atacan o bien, que sus semillas pierdan la propiedad de reproducirse naturalmente, sin no es mediante la intervención de candados químicos. Se trata, entonces, de la creación de nuevas variedades que no existen como tales en la naturaleza, sino que han sido creadas de manera completamente artificial. Para tales cambios los creadores de organismos transgénicos en la actualidad requieren introducir ciertas características también genéticas, llamadas marcadores, que les permitan constatar el logro de sus fines.

Resumen:
La patata Amflora, diseñada por la empresa alemana BASF, no se dedicará al consumo humano, sino a la producción de almidón y piensos animales. La cultivarán agricultores que lleguen a acuerdos con la empresa creadora de la variedad, que espera aumentar sus beneficios en 30 millones al año. Los productores checos serán los primeros en adquirir la licencia para 150 hectáreas, informa Reuters.
La decisión acaba con un bloqueo de seis años y se produce semanas después del inicio del segundo mandato de José Manuel Durao Barroso. El presidente de la Comisión es un conocido entusiasta de los transgénicos, pero su hasta ahora comisario de Medio Ambiente, Stavros Dimas, tenía un perfil más escéptico.


MARTA ROMERO
ANFLORA:Hace algo más de un año, la compañía química BASF presentaba un nuevo producto, se trataba de la patata transgénica Amflora. En principio, este tipo de patata se había modificado genéticamente para que presentara un mayor contenido en amilopectina, una sustancia que se suele utilizar por la industria para producir almidón.
Al ser una patata concebida para fines industriales, sería lógico pensar que no se incorporaría a la cadena alimentaria, BASF solicitaba la aprobación del nuevo cultivo pero indicaba que no se podía descartar que la patata transgénica acabara apareciendo en la cadena alimentaria. La votación del Consejo Europeo de Agricultura que tuvo lugar entonces, no la aprobó.

MONSANTO: es una empresa que provee de productos para la agricultura. Es conocida por producir el herbicida más vendido en el mundo bajo la marca Roundup. También es productor líder de semillas genéticamente modificadas (los transgénicos).
A lo largo de su historia, Monsanto ha ido evolucionando en sus negocios. En sus inicios, en 1901 distribuían sacarina, para 1938 tenían negocios químicos como plásticos y resinas, en 1976 incursionaron en el negocio de los herbicidas y en 1981 se sumaron a la carrera biotecnológica. En el año 2000 contribuyó a descifrar el código genético del arroz, y anunció que la información obtenida en la investigación sería compartida con la comunidad científica mundial
OGM:Un organismo modificado genéticamente (abreviado OMG, OGM o GMO, este último del inglés Genetically Modified Organism) es aquél cuyo material genético es manipulado en laboratorios donde ha sido diseñado o alterado deliberadamente con el fin de otorgarle alguna característica específica. Comúnmente se los denomina transgénicos y son creados artificialmente en laboratorios por ingenieros genéticos.
Las técnicas de ingeniería genética que se usan consisten en aislar segmentos del ADN (material genético) para introducirlos en el genoma (material hereditario) de otro, ya sea utilizando como vector otro ser vivo capaz de inocular fragmentos de ADN (Agrobacterium tumefaciens, virus), ya sea bombardeando las células con micropartículas recubiertas del adn que se pretenda introducir, u otros métodos fisicos como descargas eléctricas que permitan penetrar los fragmentos de ADN hasta el interior del núcleo, a través de las membranas celulares.
MAIZ:El maíz, millo o elote (Zea mays) es una planta gramínea anual originaria de América introducida en Europa en el siglo XVI. Actualmente, es el cereal con mayor volumen de producción en el mundo, superando al trigo y el arroz. En la mayor parte de los países de América, el maíz constituye la base histórica de la alimentación regional y uno de los aspectos centrales de las culturas mesoamericana y andina.

BASF: (acrónimo de Badische Anilin und Soda Fabrik, en español: Fábrica Badense de bicarbonato de sodio y anilla) es una enpresa química. Fue fundada a mediados de 1865 en la ciudad de Ludwigshafen por Friedrich Engelhorn con el propósito de producir tintes. Es la empresa química más grande del mundo superando a Dow Chemical Company y a DuPont, así como la primera con más ingresos por ventas en 2008.
Su fábrica principal, basada aún en la ciudad de origen de la compañía (Ludwigshafen), se ha convertido en el recinto químico integrado más grande del mundo, con una superficie de 10 kilómetros cuadrados. El centro de producción dispone de dos mil edificios, 115 kilómetros de calles y aproximadamente 211 kilómetros de vías de tren, donde trabajan más de 33.000 empleados.
Contando en todo el mundo, son 96.695 empleados en los 5 continentes. En sus segmentos de negocios, BASF anunció ventas por valor de 62.304 millones de euros en 2008.
Entre 1925 y 1945 fue parte de IG Farben. Después de la Segunda Guerra Mundial, recuperó su independencia como empresa.


MARTA ROMERO

viernes, 12 de febrero de 2010

SUBENCIÓN ENERGIA SOLAR EN CASTILLA Y LEÓN

http://www.portalsolar.com/subvenciones-energia-solar-castilla-y-leon.html

Cristina
Marta
Denís

Ence invertirá 80 millones en la construcción de la mayor planta española de energía con biomasa

El grupo Ence invertirá 80 millones de euros en la construcción de la mayor planta de producción de energía con biomasa de España, que estará ubicada en San Juan del Puerto (Huelva) y que generará alrededor de 400 puestos de trabajo. Según informó el consejero delegado del grupo, Antonio Palacios, la planta se encuentra ahora en la fase de informes técnicos y evaluación con proveedores y podría estar en "pleno funcionamiento" a principios de 2011. Con 50 megavatios (MW) de potencia, producirá energía para abastecer el consumo de 150.000 habitantes.El consejero de Innovación, Ciencia y Empresa de la Junta de Andalucía, Martín Soler, destacó que esta nueva instalación sitúa a Andalucía como "líder en la producción de este tipo de combustible".En rueda de prensa para presentar el nuevo proyecto industrial de energías renovables de esta empresa, Soler destacó que actualmente Andalucía cuenta con 15 instalaciones de biomasa que suman 164 MW, el 44% del total nacional, que suponen electricidad anual para más de 246.300 viviendas, potencia a la que se sumarán los 50 MW de este proyecto de Ence. Así, la nueva planta generará 400 empleos en el sector rural y contará con una inversión de 80 millones de euros, "de los cuales cuatro han sido financiados por Innovación para proyectos de desarrollo tecnológico".De este modo, el titular de Innovación señaló que "con esta planta se entra de lleno en la nueva Estrategia de Diversificación y Consolidación Industrial" debido a que se cumplen los objetivos de "consolidar la industria, diversificar la actividad de manos de proyectos basados en I+D+i y por último se apuesta por la sostenibilidad". En este sentido, el consejero delegado de Ence hizo hincapié en que este proyecto se realiza en el marco de un acuerdo forestal alcanzado entre Ence y la Administración andaluza "para impulsar y desarrollar iniciativas conjuntas en materia de ordenación forestal y de incremento de la producción y productividad de madera y biomasa en el medio rural".OBJETIVOS DEL ACUERDOEste acuerdo pretende, entre otros objetivos, la transformación en bosque mediterráneo de la mayor parte del eucaliptal público abandonado o de bajo rendimiento, destinando a aprovechamiento industrial la madera y la biomasa de esas zonas; así como la reducción progresiva de la superficie de eucaliptal en Andalucía, simultáneamente a un incremento en la producción total de madera, mediante la aplicación de las técnicas desarrolladas por el grupo de I+D+i forestal de ENCE.Respecto a la creación de empleo, el consejero de Innovación matizó que "la biomasa crea 10 veces más empleo que otras energías renovables como la eólica o la fotovoltáica", a lo que añadió que "ese empleo es más sostenible en el tiempo", debido a que los puestos de trabajo están en su mayoría asociados a las labores necesarias de cultivo, cosecha y transporte de biomasa. Por su parte, Palacios señaló que la fábrica de celulosa tiene ya una potencia instalada en biomasa de 68,5 MW, el 35,7 por ciento de la potencia eléctrica con este tipo de energía renovable que se genera en Andalucía, que evitan la emisión a la atmósfera de 182.500 toneladas de dióxido de carbono y equivalen al consumo eléctrico anual de 100.000 hogares. Con la nueva planta de generación con biomasa, Ence duplicará su capacidad energética con esta fuente renovable hasta 118 MW en Huelva, capaz de abastecer las necesidades energéticas de una ciudad de 350.000 habitantes.AHORRO ENERGÉTICOAdemás, Soler subrayó que Ence "ha destinado en los últimos tres años 30 millones de euros para el ahorro energético, que han supuesto un ahorro de 56.612 toneladas equivalentes de petróleo al año, lo que supone una reducción acumulada de 167.263 toneladas de dióxido de carbono al año. La biomasa como fuente de generación de electricidad mejora la gestión del sistema eléctrico con energías renovables, "ya que no depende de factores atmosféricos y, por tanto, es modulable", matizó Soler, quien añadió que además aporta una alta tasa de horas anuales equivalentes a plena potencia, lo que implica que contribuye también al fomento de cultivos agroenergéticos".

cristina garcia

viernes, 29 de enero de 2010

ENERGIA SOLAR TERMOELÉCTRICA

España, Top 1 de Europa en energía solar termoeléctrica


Lo dice el Ministerio de Industria, Turismo y Comercio, que inauguró ayer en Puertollano "la primera central comercial de Europa de energía solar termoeléctrica de colectores cilindro parabólicos sin acumulación". España, además, ha sido la primera nación del mundo en poner en marcha una planta solar termoeléctrica comercial de tecnología de torre central y asimismo el primer país en enchufar a la red una planta con almacenamiento térmico por sales fundidas.
La energía solar termoeléctrica –esa que aprovecha el calor del sol para calentar fluidos que luego moverán turbinas generadoras de electricidad– está de moda en España. Si el país del "sol y playa" ya fue el primero en dar el salto de lo experimental a lo comercial (con la planta de torre central PS10, en Sevilla, y con la de almacenamiento en sales fundidas, Andasol 1, también en Andalucía), ahora se convierte en el primero de Europa en enchufar a la red comercial una central solar termoeléctrica de colectores cilindro parabólicos, con lo que las principales "versiones" que presenta a día de hoy la tecnología solar termoeléctrica ya tienen sus correspondientes ejemplos comerciales en territorio español.
El proyecto de Puertollano, la última de las tres instalaciones conectadas, presenta además una peculiaridad: está participada, en un 10%, por el Instituto para la Diversificación y Ahorro de la Energía (Idae), organismo dependiente del Ministerio de Industria, Turismo y Comercio (Mityc), "que demuestra así su apuesta por las energías renovables y el apoyo público a esta tecnología en la que España es el primer país europeo en potencia instalada". El 90% restante ha corrido a cargo de Iberdrola Renovables, el por otra parte primer promotor eólico del mundo.
La central de Puertollano, de 50 MW de potencia, producirá anualmente unos 114 millones de kilovatios hora, electricidad equivalente al consumo de 100.000 familias, y evitará la emisión de al menos 42.000 toneladas de CO2. La planta ha supuesto la creación de 60 empleos directos. La instalación cuenta con un área de captación solar de cerca de 290.000 metros cuadrados, ocupa 150 hectáreas de terreno y tiene 352 colectores cilindro parabólicos, equipados con unos 120.000 espejos parabólicos y 13.000 tubos absorbedores. Según el Mityc, "España tendrá 233 MW instalados a final de este año y 730 MW en 2010, superando con creces los objetivos propuestos en el Plan de Energías Renovables 2005/2010".
El nuevo Plan de Energías Renovables 2011-2020, en el que trabaja actualmente el Gobierno –informa el Mityc– fijará un objetivo para este periodo "que tenga en cuenta la rápida evolución que está teniendo esta tecnología". Quince empresas del sector –añade la nota de prensa del ministerio– son punteras como promotoras de tecnología básica y fabricantes de componentes. Además –añade la nota del ministerio– España cuenta con la Plataforma Solar de Almería, "el centro de investigación en energía solar termoeléctrica más importante del mundo".


Marta Romero

.Madrid impulsa el desarrollo de la energía geotérmica


España no sólo se vuelca por el desarrollo de la energía solar y eólica sino que también promociona el uso de la geotermia, al menos en Madrid.

Desde hace un tiempo La comunidad de Madrid, a través de la Consejería de Economía y Hacienda, vienen apoyando el desarrollo de la energía geotérmica cuya utilización puede llegar a suponer un ahorro del 60% en el consumo de la energía usada para calefacción, refrigeración y agua caliente sanitaria.

El potencial de aprovechamiento de la energía geotérmica es muy elevado, especialmente es de la llamada geotermia de baja temperatura, que no requiere unas condiciones geológicas o naturales especiales puesto que puede aprovecharse mediante bomba de calor, lo que la hace ideal para su utilización en edificios y viviendas.

España no sólo se vuelca por el desarrollo de la energía solar y eólica sino que también promociona el uso de la geotermia, al menos en Madrid.

Desde hace un tiempo La comunidad de Madrid, a través de la Consejería de Economía y Hacienda, vienen apoyando el desarrollo de la energía geotérmica cuya utilización puede llegar a suponer un ahorro del 60% en el consumo de la energía usada para calefacción, refrigeración y agua caliente sanitaria.

El potencial de aprovechamiento de la energía geotérmica es muy elevado, especialmente es de la llamada geotermia de baja temperatura, que no requiere unas condiciones geológicas o naturales especiales puesto que puede aprovecharse mediante bomba de calor, lo que la hace ideal para su utilización en edificios y viviendas.

Por otro lado el gobierno da impulso a uso de la geotermia mediante los incentivos económicos, pues se vienen otorgando ayudas a las instalaciones de intercambio geotérmico, para la producción de energía térmica, calor y/o frío y para climatización. Estas ayudas han sido muy bien recibidas el año pasado por los inversionistas y por esta razón el gobierno madrileño piensa continuarlas este año con una nueva orden, que está actualmente en preparación.


Ana Real Castelao

ENERGIA EOLICA

la produccion mundial total eolica en 2010--- 140.951
la produccion total española en 2009----18.119
TPWind explica en su SRA que el desarrollo de la energía eólica se producirá en tres etapas. Entre ahora y 2020 (es decir, en la primera etapa), es posible que la energía eólica llegue a cubrir casi el 15% de las necesidades de los consumidores de la UE, siendo la capacidad instalada total de 180 gigavatios/hora. Esta capacidad podría crecer hasta los 300 gigavatios/hora entre 2020 y 2030 (segunda etapa). Por último, la tercera etapa tendría como objetivo primordial incrementar las exportaciones europeas de energía eólica.


Denís de la Fuente Cuervo

La producción de energía hidráulica desciende hasta su mínimo histórico

Miércoles 07 de Octubre de 2009
Observatorio de la Electricidad, WWF destaca que la electricidad de origen hidráulico alcanzó en el mes de septiembre un mínimo histórico mensual. Por otra parte, la organización afirma que este también es el mes de septiembre que menos CO2 se ha emitido a la atmósfera desde 1999.

Fuente: WWF

El Observatorio de la Electricidad de WWF muestra que en los últimos doce meses ha disminuido la demanda de electricidad y se han reducido las emisiones de CO2, gracias al aporte de las nuevas energías renovables, como la eólica y la solar. Además, como consecuencia de la moderación en el consumo eléctrico, la apuesta decidida por las renovables en los años pasados y el cambio del carbón al gas, se ha conseguido llegar a septiembre con unas emisiones acumuladas de menos de 50 millones de toneladas de CO2. Según WWF, estas cifras no se veían desde la última década del siglo pasado, cuando se consumía mucha menos electricidad.

Sin embargo, este observatorio también señala que la energía hidráulica cada vez produce menos electricidad, pasando de los 1.882 GWh de septiembre de 2000 a los 944 de este año. Este descenso se debe a que los embalses españoles generan cada vez menos electricidad. WWF ha realizado un análisis de los últimos 10 años y concluye que la energía hidráulica en España ha producido entre 2004 y 2008 un 20,2% menos de media respecto a los cinco años anteriores (1999-2003).

Según WWF, las razones que puede haber detrás de este descenso de la producción hidráulica serían:

  • Menos precipitaciones y temperaturas más altas, lo que aumenta la evaporación desde los embalses. Esta modificación de los ciclos naturales está directamente relacionada con los efectos del cambio climático en España.
  • Mayor consumo de agua para otros usos, especialmente para regadíos y usos residenciales.
  • Aumento de los sedimentos de los ríos y pérdida del volumen de agua de los embalses como consecuencia de la naturaleza cada vez más violenta de las precipitaciones. Al caer mucha agua en poco tiempo, los procesos de erosión del territorio pueden aumentar.
  • Cambio de uso de la energía hidráulica por parte de las empresas eléctricas: en vez de utilizar esta tecnología para cubrir las necesidades mínimas de la sociedad, se podría estar utilizando principalmente para atender los picos de la demanda.

WWF considera que es importante identificar las causas de este descenso para saber si es un fenómeno pasajero o si existe una tendencia a largo plazo. En este caso, se podría integrar este factor en la planificación del sector eléctrico y en las políticas de mitigación de cambio climático. Evidentemente, no es lo mismo hacer políticas de mitigación en el sector pensando que la hidráulica va a producir 28.000-32.000 GWh al año, cuando en realidad sólo va a aportar 20.000-24.000 GWh. La diferencia puede significar entre 2 y 3 millones de toneladas de CO2 anuales si hay que generar el desfase con centrales de ciclo combinado, o un esfuerzo inversor mayor en otras energías renovables para que no aumenten las emisiones.

Según Heikki Willstedt, experto en Energía y Cambio Climático de WWF España: “Es preocupante ver cómo año tras año la energía hidráulica pierde protagonismo en el sistema eléctrico peninsular, ya que su aportación siempre ha sido importante para contener las emisiones del sector. Asimismo, para planificar adecuadamente el futuro del sector, es necesario hacer un análisis de fondo sobre las causas que están detrás de esta tendencia acentuada hacia una producción cada vez menor. Es probable que haya varios factores, pero es imprescindible identificarlos. No se pueden hacer políticas adecuadas de reducción de las emisiones, si no se sabe realmente cuál va a ser la aportación hidráulica a medio plazo”. Y concluye: “Todas las renovables son importantes para conseguir la descarbonización de la electricidad”.

Los datos más destacados de septiembre para el sistema peninsular son los siguientes:

Por duodécimo mes consecutivo baja la demanda eléctrica: -1,2% respecto a septiembre de 2008. La importante reducción de las emisiones de CO2 respecto al mes de septiembre de 2008 (-14%), gracias a la aportación de las tecnologías solares y la eólica. La mayor aportación de la generación eólica respecto a septiembre de 2008: (+12%). La exportación neta a nuestros países vecinos representa un 3,2% de la electricidad generada. Todas las tecnologías que queman combustibles fósiles han disminuido sus emisiones de CO2: Las centrales de ciclo combinado que queman gas natural un 5%, las de carbón un 21,4% y las de fuel-gas un 16,6%. Por cada kilowatio generado se emitieron 257 gramos de CO2. (Equivalentes a 0,257 Toneladas de CO2 por MWh). Las emisiones acumuladas hasta septiembre de 2009 son un 17,5% inferiores a las del mismo periodo del año pasado.



Nerea Blanco Morán

viernes, 15 de enero de 2010

2010 Año Internacional de la Biodiversidad

El mundo está convocado a tomar acción durante este año para proteger la variedad de la vida en la tierra, nuestra propia vida y nuestros alimentos, eso es la biodiversidad.

De acuerdo con el Convenio sobre la Diversidad Biológica (CDB), el término biodiversidad o diversidad biológica se define como la variabilidad de organismos vivos de cualquier fuente, incluidos los ecosistemas terrestres y marinos y otros ecosistemas acuáticos y los complejos ecológicos de los que forman parte; comprende la diversidad dentro de cada especie, entre las especies y de los ecosistemas.

La biodiversidad actual es el fruto de miles de millones de años de evolución, moldeada por procesos naturales y por nuestra influencia. La red de la vida de la cual somos parte integrante y de la cual dependemos, está compuesta por una gran variedad de plantas, animales y microorganismos. Además componen la diversidad biológica, la inmensa variedad de ecosistemas tales como las selvas, bosques, humedales, desiertos, montañas, glaciares, ríos, lagos y paisajes agrícola-ganaderos.

En cada uno de estos ecosistemas, los seres vivos, incluidos los seres humanos, forman una comunidad que interactúan entre sí y con el aire, el agua y el suelo alrededor de ellos.

La diversidad biológica es por lo tanto, la combinación de formas de vida y sus interacciones entre sí y con el resto del entorno que hace de la Tierra un lugar habitable y único para los seres humanos y proporciona un gran número de bienes y servicios que sostienen nuestras vidas.

Por qué es importante la biodiversidad
La biodiversidad es la base de una gran variedad de servicios de ecosistemas que contribuyen al bienestar del hombre. Estos incluyen servicios de suministro, como comida, agua, madera, fibras; servicios de regulación, como la regulación del clima, de inundaciones, enfermedades, desechos y calidad del agua; servicios culturales, como recreación, disfrute estético y realización espiritual; y servicios de soporte, como formación de suelo, fotosíntesis y reciclaje de nutrientes.

La European Environment Agency (EEA) asevera que, “la biodiversidad está desapareciendo con una rapidez alarmante, debido sobre todo a la forma en que abusamos de la naturaleza para sustentar la producción, el consumo y el comercio en la economía globalizada en la que vivimos. La pérdida y fragmentación de hábitats a consecuencia del desmonte de bosques y espacios naturales para construir viviendas y carreteras y plantar cultivos, la desecación de humedales, la represa de ríos en beneficio de la agricultura y la sobre pesca en los mares y océanos, son la causa principal de la pérdida de biodiversidad”.

Aunque la pérdida de biodiversidad no tiene el impacto social que el calentamiento global ha alcanzado con la ayuda de los medios de comunicación, la pérdida de ésta, que constituye nuestro capital natural, es igual y hasta de mayor importancia que el cambio climático.

Una idea para creer que se protege la Biodiversidad en contra de la contaminación

La Unión Mundial para la Naturaleza
La Unión Internacional para la Conservación de la Naturaleza (UICN), lanzó la iniciativa “Cuenta Atrás 2010”
http://www.countdown2010.net/, que agrupa a una red activa de miembros trabajando en el desarrollo de esfuerzos para luchar contra las causas de pérdida de biodiversidad como contribución a la mitigación de la pobreza y en beneficio de todas las formas de vida del planeta.

Los seres humanos dependemos de los ecosistemas para obtener toda una serie de servicios esenciales, como el abastecimiento de alimentos y materiales, la captura de dióxido de carbono de la atmósfera, el suministro de agua limpia, la protección del suelo contra la erosión y, también, como fuente de genes de la naturaleza que podrían tener utilidad en la agricultura o la medicina. Muchos estudios han señalado que los servicios de los ecosistemas dependen de cierto número de especies para que funcionen adecuadamente.

Pérdida por fertilizantes
La investigación liderada por el profesor Andy Hector, de la Universidad de Zurich, citada por Science Daily, muestra por primera vez los mecanismos exactos que conllevan a la pérdida de la biodiversidad de los campos después de haber seguido el proceso de fertilización.

Esta investigación demuestra que, cuando los campos son fertilizados, aumenta su productividad pero disminuye su biodiversidad. Este suministro adicional de nutrientes será una de las tres causas más importantes de la pérdida de la biodiversidad en este siglo.

El resultado de este estudio tiene implicaciones para el anejo sostenible del campo y para el desarrollo de una política de conservación.

Menos biodiversidad, más enfermedades
Los científicos opinan que la pérdida de biodiversidad puede incrementar las enfermedades infecciosas en humanos, debido a la continua extinción de plantas y animales.

La pérdida de biodiversidad y la destrucción del hábitat, incrementarían la incidencia y la distribución de enfermedades infecto contagiosas, ya que muchas de estas nuevas afecciones están emergiendo, y algunas de las que se consideraban locales se están globalizando.

Los virus de la Gripe H1N1, del Nilo Occidental, la malaria, y otras enfermedades que se han incrementado en los últimos años, estarían relacionados con la pérdida de biodiversidad.

Conclusión
La pérdida de biodiversidad podría acarrear repercusiones más graves de lo que se pensaba en un principio en servicios vitales de los ecosistemas, como la producción alimentaria y el abastecimiento de agua limpia.

Muchos científicos plantean que la Tierra está en medio de la sexta extinción en masa de la historia de la vida en nuestro planeta. Algunas estimaciones sugieren que el 50 por ciento de las especies conocidas podrían estar extintas a finales del presente siglo. Entre todos podemos revertir este proceso.

“No puede haber un objetivo más estimulante que empezar la era de la reconstrucción volviendo a tejer la maravillosa diversidad de la vida que aún nos rodea” Edward O Wilson

Por Norberto Ovando. Vicepresidente / Asociación Amigos de los Parques Nacionales - AAPN - Experto Comisión Mundial de Áreas Protegidas - WCPA - de la UICN.

Cristina Garcia

Marta Romero Gurdiel-------BIODIVERSIDAD













Cinco países latinoamericanos y la Unión Europea piden protección para más animales y plantas

Actualizado 16-10-2009

Ginebra.- Cinco países latinoamericanos -Argentina, Bolivia, Brasil, Guatemala y México- y la Unión Europea han propuesto incluir a diversos animales y plantas en una lista de especies de flora y fauna protegidas a nivel internacional.


Cada año, la pesca comercial supone la muerte de más de cien millones de tiburones en el mundo, incluidos decenas de millones sólo por sus aletas, según datos de la ONU. EFE/Archivo

"Argentina ha propuesto incluir el palo santo, un árbol del que se extrae un aceite conocido como 'guayaco' y que se utiliza en la elaboración de la mayoría de perfumes", explicó hoy a Efe el portavoz de la Convención sobre el Comercio Internacional de Especies Amenazadas de Fauna y Flora Silvestres (CITES), Juan Carlos Vásquez.

La CITES, un acuerdo internacional bajo la gestión de la ONU, cuenta con diversas listas de especies, según el nivel de amenaza que sufran y que puede ir hasta el peligro de extinción.

Brasil pidió la defensa del palo de rosa, un árbol muy valioso por el aceite esencial de su madera, empleado en la elaboración de fragancias de perfumes finos.

"La explotación comercial de esta especie es intensa y su regeneración natural y lenta, mientras que las semillas son intensamente depredadas por pájaros y insectos", explica Brasil en la solicitud de protección de esa especie que presentó a la CITES y a la que Efe tuvo acceso.

Entre los animales considerados en amenaza, Bolivia denunció que el "escarabajo rompe focos" se utiliza en algunos países "como cría para 'mascotas' y como organismos de lucha en exhibiciones", lo que ha generado una fuerte demanda en el mercado mundial.

A este respecto, Bolivia explica en su propuesta que esta situación "ha llevado a algunos comerciantes a promover su captura y comercialización involucrando a campesinos de la región en una actividad que es ilícita".

En tanto, México ha pedido mayor protección para el cocodrilo de pantano y Guatemala ha salido en defensa de la iguana garrobo, que, a pesar de la importancia que tiene dentro de los ecosistemas, es vulnerable ante el comercio ilegal, la sobreexplotación y la pérdida de su hábitat.

Igualmente, Estados Unidos propuso incluir 6 tipos de tiburones "extremadamente importantes para el comercio internacional debido a la demanda creciente de aletas de tiburones, de su carne, aceite de hígado y otros productos", explicó por su parte la ONG Oceana, defensora de los ecosistemas marinos.

Cada año, la pesca comercial supone la muerte de más de cien millones de tiburones en el mundo, incluidos decenas de millones sólo por sus aletas, según datos de la ONU.

Por su parte, la Unión Europea reiteró su pedido para la protección de dos especies adicionales de tiburones, cuya defensa ya había solicitado en 2007 pero le fue denegada.

Estados Unidos presentó además a la CITES una solicitud pidiendo que el oso polar entre en la categoría de animales en peligro de extinción, lo que haría que su comercio fuera autorizado solamente bajo circunstancias excepcionales.

Para el resto de especies, quedar bajo la protección de la CITES supondría que su importación y exportación tendrían que ser autorizadas mediante licencias.

Con este sistema se busca garantizar que su comercio se mantiene en niveles sostenibles y no supone un peligro para su supervivencia.

Estas peticiones de protección serán debatidas en la próxima Conferencia de los Estados Parte de la CITES, que tendrá lugar en Doha (Qatar) en marzo próximo

Denís de la Fuente Cuervo-----BIODIVERSIDAD













Mañana se traslada a Portugal el primero de los 16 linces cedidos por España



Actualizado 25-10-2009

Sevilla.- "Azahar", una hembra de 5 años, será el primero de los dieciséis linces ibéricos cedidos por España que llegue, mañana, al centro construido en Silves, en el Algarve, para extender a Portugal el programa de cría en cautividad de este felino, considerado el de mayor riesgo de extinción del planeta.



Este lince será trasladado a primera hora de la tarde desde el Zoo-botánico de Jerez de la Frontera (Cádiz) hasta el centro de Silves, que se suma así a la red de cría en cautividad del lince ibérico integrada por los centros de El Acebuche (Doñana), La Olivilla (Sierra Morena) y el Zoo-botánico jerezano, todos ellos en Andalucía, a los que podría unirse en 2010 el que se construye en Zarza de Granadilla (Cáceres).

España tiene previsto completar antes del 15 noviembre, mediante sucesivos envíos, el traslado de los dieciséis linces cedidos a Portugal en virtud del protocolo suscrito por ambos gobiernos el pasado 28 de julio, según han informado a Efe fuentes del Gobierno andaluz.

Andalucía preserva la única población viable de este felino, compuesta por unos 300 ejemplares, repartidos en dos zonas de Sierra Morena, y por unos cincuenta individuos que sobreviven en Doñana.

Portugal no sólo se adhiere a partir de ahora al programa de cría en cautividad del lince ibérico, con el que compartirá los ejemplares que nazcan en los próximos años sino que también se compromete a acondicionar antes de tres años un espacio natural donde se reintroducirán ejemplares en libertad para que este felino reconquiste nuevos territorios, objetivo último de la cría en cautividad de este felino.

Tras "Azahar" está previsto que el viernes 30 de octubre se trasladen hasta Silves otros cuatro linces, esta vez desde el centro de La Olivilla, un envío al que seguirán otros hasta completar el traspaso de los dieciséis linces seleccionados.

Estos ejemplares han sido elegidos siguiendo los criterios científicos para preservar la máxima variabilidad genética y para favorecer los emparejamientos que, se espera, comiencen el próximo noviembre, fecha de inicio del periodo de celo de este felino.

Al traslado del primer lince ibérico cedido por España a Portugal asistirán diversas autoridades medioambientales andaluzas, españolas y portuguesas.