Overblog Seguir este blog
Administration Create my blog
5 abril 2011 2 05 /04 /abril /2011 01:39

 

 

 

 

 




Aprender de los demás

Amartya Sen
Thomas W Profesor Universidad de Lamont y Profesor de Economía y Filosofía de la Universidad de Harvard, Cambridge, MA, EE.UU.
The Lancet, Volumen 377, Número 9761 de 2011


Página web: http://bit.ly/giZNan


"... .. Tailandia ha hecho un uso amplio de lo que ellos llaman la Asamblea Nacional de Salud, en el que hay debates abiertos sobre lo que el público se enfrenta a problemas en la atención de la salud y en campos relacionados, así como sobre la forma en que se puede quitar. Esto ha ido con los progresos realizados en Tailandia en la introducción de la atención universal de salud pública, y ha sido muy bien complementado por los comentarios de la gente, con una ganancia considerable en la eficiencia y alcance. En una democracia que funciona, la India puede aprender de los demás sobre cómo el público puede ser contratado en la promoción de la salud de todos. No es un papel muy importante para los medios de comunicación y de liderazgo político, de todas las partes, en el avance de esta causa nacional importante, al hacer el mejor uso de las facilidades que ofrece la democracia.


Si llega el caso, algunos de los avances reales que ha sucedido en los últimos años en la India ha venido de la discusión pública y la agitación. Esto se aplica, por ejemplo, para la entrega de almuerzo cocinado en las escuelas, y las intervenciones seleccionadas en el desarrollo del niño en las instituciones preescolares. Estos nuevos cambios han tenido efectos positivos, aunque su uso no es uniforme en todo el país, y tiene que ser ampliado y mejorado.


China todavía no tiene ninguno de estos importantes instrumentos de la atención básica de salud, pero podría ser importante para China también, desde que China, a pesar de su rendimiento medio alto tiene lagunas identificables (cuya existencia ha sido pioneeringly estudiadas por el Desarrollo de China Fundación para la Investigación). China también tendrá que aprender de los demás para eliminar las bolsas de resistencia de las privaciones. India se enfrenta, por supuesto, una tarea mucho más grande.


Aprender de otros países sigue siendo tan importante hoy como lo fue en tiempo Yi Jing, hace casi 1400 años ... ... ... "


Twitter http://twitter.com/eqpaho

Repost 0
24 marzo 2011 4 24 /03 /marzo /2011 17:37

 

 

 

 

La crisis que no fue
¿Cómo un puñado de operadores en un reactor lisiado evitó una catástrofe mayor en la planta de Fukushima.

Geoff Brumfiel


Aumento de humo de un reactor en la planta nuclear de Fukushima Daiichi significó los trabajadores tuvieron que ser evacuadas.

Prensa Asociación imágenes


 

 



El terremoto de magnitud 9.0 sacudió Fukushima Daiichi central nuclear a las 2:46 pm el 11 de marzo, pero la emergencia real comenzó una hora más tarde. Un muro de agua arrasó en todo el sitio, lavar líneas eléctricas y los tanques de combustible para los generadores de copia de seguridad de emergencia diseñados para asumir si no el poder de la cuadrícula. Dentro de la sala de control del reactor 1 unidad, apagaron las luces y los medidores analógicos de cosecha de la década de 1970 se desvió a cero.

Probablemente pasarán años antes de que nadie sabe exactamente lo que ocurrió dentro de los tres reactores de Fukushima Daiichi que parecen haber parcialmente fundidas a raíz del tsunami. Pero desde los informes de prensa, declaraciones públicas y entrevistas con expertos, es posible trabajar en el escenario más probable. Y ya está claro que las decisiones tomadas en las primeras 24 horas por el puñado de operadores en la sala de control probablemente evitó una mucho mayor catástrofe nuclear que la que ahora se enfrenta a Japón.

En los momentos después de que perdió el poder, los operadores "literalmente hubiera ciegos", dice Margaret Harding, un ingeniero nuclear en Wilmington, North Carolina. Harding trabajó durante dos décadas con General Electric, concebido de reactores de agua en ebullición de Fukushima, y fue testigo de una interrupción similar en 1984 durante una prueba de seguridad en un reactor de agua hirviendo en Suiza. "Básicamente las luces de emergencias entraron el y todos los paneles fueron negros", dice Harding.

Durante la prueba Suiza, el poder regresó en 5 minutos. En Fukushima, las baterías se corrieron un puñado de luces de emergencia en la sala de control y unos instrumentos de seguimiento signos vitales del reactor, tales como la presión dentro del núcleo.

El núcleo se fue al lado. Dentro de un edificio grande, con forma de cubo, encerrado en un buque de contención concreto pesado, sentó una cápsula gruesa, acero llenada de alrededor de 50 toneladas de uranio. Hasta una hora antes, que el combustible había sido bombear 460 megavatios de energía, pero el reactor había automáticamente apaga inmediatamente después del terremoto. Barras de control de Boron–Carbon entre las largas columnas de combustible habían empapado de neutrones y detuvo las reacciones nucleares.

Modelo de respuesta
Eso no significa que el reactor estaba frío. Radiactivos derivados de las reacciones de fisión todavía generaron calor — algunos 7 megavatios, modelos de equipo preliminar por el laboratorio Nuclear Nacional en Sellafield, Reino Unido, sugieren. El combustible debía ser enfriado activamente.

Sin poder, operadores podrían utilizar vapor de buque de presión del reactor, además de una cantidad mínima de energía de la batería, para impulsar una bomba que mantendría el agua de enfriamiento que circulan. Lo que probablemente no sabían era que el sistema de refrigeración había surgido una fuga. La fuga causó los niveles de agua dentro del núcleo para colocar, permitiendo que el combustible al calor, que genera más vapor y creció la presión dentro del recipiente de acero. El sistema de refrigeración de emergencia fue incapaz de hacer frente, de acuerdo con un comunicado de prensa de la compañía Tokio de la energía eléctrica (TEPCO), operador de la planta. A las 7:03 PM se declaró el estado de emergencia nuclear. Menos de 2 horas más tarde, evacuaciones comenzaron dentro de un radio de 2 km de la planta.

"Los camiones de bomberos fueron brillantes. No estoy seguro que habría pensado."


4:00 De la mañana había alcanzado la presión dentro del recipiente de acero grueso de 1 unidad 840 kilopascales (kPa), más del doble el límite de funcionamiento, de acuerdo a la Nuclear y la Agencia de Seguridad Industrial, el regulador nuclear japonesa. Los niveles de radiación en la puerta del sitio habían comenzado a subir por encima de fondo, aunque estaban todavía lejos de ser peligrosas. A las 5:44 horas el cordón de evacuación se amplió a 10 kilómetros.

En algún momento, los niveles de agua caídos debe han dejado el combustible expuesto. Los pellets de uranio se encierran en un reactor como unidad 1, tubos largos y flacos de aleación de circonio, elegido porque no inhibe los neutrones necesarios para impulsar las reacciones de fisión de. Como las temperaturas aumentaron más de 1000 ° C, el vapor en el recipiente a presión comenzó a oxidar el circonio, probablemente liberando gas de hidrógeno. Mientras tanto, gránulos de combustible, liberados de su concha, empezaron a caer en la parte inferior del reactor. La crisis había comenzado.

Este fue el momento crucial. Si los operadores en la unidad 1 no podían detener la crisis, el combustible se reunían en la parte inferior de la nave. Los pellets de uranio, ahora en estrecha proximidad, podrían empiecen a intercambiar neutrones y reanudar sus reacciones nucleares generadoras de calor. Lentamente, la pila podría construir una 'masa crítica' que reiniciara el proceso nuclear normalmente utilizado para generar electricidad.

Punto de inflexión
Nadie puede estar seguro de esta secuencia de acontecimientos porque nunca ha habido un colapso completo en un reactor de agua hirviendo. Harding dice que piensa que es poco probable que los procesos nucleares habría reanimado. Incluso si lo hicieran, el peor de los casos, en su opinión, es que el combustible habría quemado a través del vaso de acero de presión y desparramaron en la 'estera base', una losa de hormigón gruesa que se habría extendido por el combustible, las reacciones de fisión de extinción.

Pero incluso que podría haber sido catastrófico. El gas de hidrógeno volátiles generado por el circonio era seguro dentro del recipiente a presión de acero, pero fue obligado a explotar si se expone al aire en el recipiente de contención exterior. Si la explosión fue lo suficientemente grande, podría haber sobrepasado paredes gruesas concretas del buque exterior.

Este escenario es muy poco probable, pero lo ocurrido, los trabajadores que luchan por salvar la planta seguramente habría recibido una dosis letal de la radiación, dice Malcolm Sperrin, un físico médico del hospital Royal Berkshire de Reading, Reino Unido. Los ciudadanos cerca de la planta podrían haber sido un riesgo mayor de cáncer durante su vida, dice. Y la contaminación habría hecho mucho más difícil las operaciones de emergencia en los reactores, que también estaban en problemas. La situación podría fácilmente han spiralled fuera de control.

Pocos metros distancia fue un gran depósito de agua de mar. Podría detener la debacle del reactor, pero los operadores no tenían manera la bomba en el núcleo. Generadores de emergencia no pueden estar conectados en el sistema, por razones que aún no está claros.

En algún momento, alguien en el sitio dio cuenta de que los bomberos eran esencialmente gigantes bombas portátiles con sus propias fuentes de alimentación. "Los camiones de bomberos fueron brillantes", dice Harding, "no estoy seguro que habría pensado." Los motores se corrió a la planta y enganchados en el sistema de refrigeración de emergencia sin vida. Sin embargo, todavía era un problema: la presión en el núcleo era demasiado alta para bombas de los motores a la fuerza en el agua de mar.

Alrededor de las 2: 30 el sábado por la tarde, los operadores comenzaron a ventilar la presión desde el buque de contención. Una hora más tarde algo encendió el gas que había creado dentro del edificio exterior durante la ventilación. Flipado arriba toda unidad 1 y cuatro trabajadores resultaron heridos, aunque el buque de contención concreto resistente a continuación parece haber sobrevivido a la explosión.

Reacción en cadena
La explosión, transmitido a todo el mundo, fue el primero de una serie de reveses en el reactor complejo. En los días subsiguientes, reactores 3 y 2 siguieron una ruta similar a la unidad 1 (consulte 'Una crisis desarrollo'); cada uno fue sacudido por una explosión masiva de hidrógeno. En las unidades 3 y 4, las piscinas para almacenar utilizan combustible perdida su agua de enfriamiento y se cree que las varillas comenzaron a fundirse, emitiendo hidrógeno más explosivo junto con potentes radiaciones.

En el momento de escribir, material radiactivo de Fukushima Daiichi sigue a soplar en Japón en niveles lo suficientemente altos como para afectar a Sperrin, aunque dice que no son inmediatamente peligrosos. En las próximas semanas y meses, las autoridades de Gobierno, seguridad y TEPCO suelen enfrentar fuertes críticas. Se preguntan ¿qué salió mal.

 

 

 

 

 



Aún así, en la unidad 1 ha pasado la crisis inmediata. Con la presión hacia abajo, bomberos comenzaron a inundar el reactor con agua de mar a las 8:20 PM el 12 de marzo, permitiendo que el combustible enfriar lentamente a una temperatura segura. La respuesta en la unidad 1 también proporcionó un modelo para la estabilización de los otros dos reactores. Y día a día, la desintegración radiactiva en los núcleos de reactor es vertiente. Podría ser días o semanas antes de que los reactores son verdaderamente seguros, pero por ahora las cosas mantienen estables.

En cuanto a los operadores en la unidad 1, dice Harding, "Creo que realmente hicieron respondido muy bien".

Repost 0
22 marzo 2011 2 22 /03 /marzo /2011 00:02

TEORÍA DE LAS CUERDAS
La teoría de cuerdas es un modelo fundamental de la física que básicamente asume que las partículas materiales aparentemente puntuales son en realidad "estados vibracionales" de un objeto extendido más básico llamado "cuerda" o "filamento".


¿Cómo son las interacciones en el mundo sub-atómico?:
líneas espacio-tiempo como las partículas subatómicas,
en el Modelo estandar(izquierda) o Cuerdas cerrada
sin extremos y en forma de círculo como afirma la
teoría de cuerdas(derecha)

De acuerdo con esta propuesta, un electrón no es un "punto" sin estructura interna y de dimensión cero, sino una cuerda minúscula que vibra en un espacio-tiempo de más de cuatro dimensiones. Un punto no puede hacer nada más que moverse en un espacio tridimensional. De acuerdo con esta teoría, a nivel "microscópico" se percibiría que el electrón no es en realidad un punto, sino una cuerda en forma de lazo. Una cuerda puede hacer algo además de moverse; puede oscilar de diferentes maneras. Si oscila de cierta manera, entonces, macroscópicamente veríamos un electrón; pero si oscila de otra manera, entonces veríamos un fotón, o un quark, o cualquier otra partícula del modelo estándar. Esta teoría, ampliada con otras como la de las supercuerdas o la Teoría M, pretende alejarse de la concepción del punto-partícula.

La siguiente formulación de una teoría de cuerdas se debe a Jöel Scherk y John Schwuarz, que en 1974 publicaron un artículo en el que demostraban que una teoría basada en objetos unidimensionales o "cuerdas" en lugar de partículas puntuales podía describir la fuerza gravitatoria. Aunque estas ideas no recibieron en ese momento mucha atención hasta la Primera revolución de supercuerdas de 1984. De acuerdo con la formulación de la teoría de cuerdas surgida de esta revolución, las teorías de cuerdas pueden considerarse de hecho un caso general de teoría de Kaluza-Klein cuantizada. Las ideas fundamentales son dos:

Los objetos básicos de la teoría no serían partículas puntuales sino objetos unidimensionales extendidos (en las cinco teorías de cuerdas convencionales estos objetos eran unidimensionales o "cuerdas"; actualmente en la teoría-M se admiten también de dimensión superior o "p-branas"). Esto renormaliza algunos infinitos de los cálculos perturbativos.
El espacio-tiempo en el que se mueven las cuerdas y p-branas de la teoría no sería el espacio-tiempo ordinario de 4 dimensiones sino un espacio de tipo Kaluza-Klein, en el que a las cuatro dimensiones convencionales se añaden 6 dimensiones compactificadas en forma de variedad de Calabi-Yau. Por tanto convencionalmente en la teoría de cuerdas existe 1 dimensión temporal, 3 dimensiones espaciales ordinarias y 6 dimensiones compactificadas e inobservables en la práctica.
La inobservabilidad de las dimensiones adicionales está ligada al hecho de que éstas estarían compactificadas, y sólo serían relevantes a escalas tan pequeñas como la longitud de Planck. Igualmente, con la precisión de medida convencional las cuerdas cerradas con una longitud similar a la longitud de Planck se asemejarían a partículas puntuales.

DESARROLLOS POSTERIORES
Posteriormente a la introducción de las teorías de cuerdas, se consideró la necesidad y conveniencia de introducir el principio de que la teoría fuera supersimétrica; es decir, que admitiera una simetría abstracta que relacionara fermiones y bosones. Actualmente la mayoría de teóricos de cuerdas trabajan en teorías supersimétricas; de ahí que la teoría de cuerdas actualmente se llame teoría de supercuerdas. Esta última teoría es básicamente una teoría de cuerdas supersimétrica; es decir, que es invariante bajo transformaciones de supersimetría.

Actualmente existen cinco teorías de [super]cuerdas relacionadas con los cinco modos que se conocen de implementar la supersimetría en el modelo de cuerdas. Aunque dicha multiplicidad de teorías desconcertó a los especialistas durante más de una década, el saber convencional actual sugiere que las cinco teorías son casos límites de una teoría única sobre un espacio de 11 dimensiones (las 3 del espacio, 1 temporal y 6 adicionales resabiadas o "compactadas" y 1 que las engloba formando "membranas" de las cuales se podría escapar parte de la gravedad de ellas en forma de "gravitones"). Esta teoría única, llamada teoría M, de la que sólo se conocerían algunos aspectos, fue conjeturada en 1995.

VARIANTES DE LA TEORÍA
La teoría de supercuerdas del espacio exterior es algo actual. En sus principios (mediados de los años 1980) aparecieron unas cinco teorías de cuerdas, las cuales después fueron identificadas como límites particulares de una sola teoría: la Teoría M. Las cinco versiones de la teoría actualmente existentes, entre las que pueden establecerse varias relaciones de dualidad son:

La teoría tipo I, donde aparecen tanto "cuerdas" y D-branas abiertas como cerradas, que se mueven sobre un espacio-tiempo de 10 dimensiones. Las D-branas tienen 1, 5 y 9 dimensiones espaciales.
La teoría tipo IIA, es también una teoría de 10 dimensiones pero que emplea sólo cuerdas y D-branas cerradas. Incorpora dos gravitines (partículas teóricas asociadas al gravitón mediante relaciones de supersimetría). Usa D-branas de dimensión 0, 2, 4, 6, y 8.
La teoría tipo IIB.
La teoría heterótica-O, basada en el grupo de simetría O(32).
La teoría heterótica-E, basada en el grupo de Lie excepcional E8. Fue propuesta en 1987 por Gross, Harvey, Martinec y Rohm.
El término teoría de cuerda floja se refiere en realidad a las teorías de cuerdas bosónicas de 26 dimensiones y la teoría de supercuerdas de 10 dimensiones, esta última descubierta al añadir supersimetría a la teoría de cuerdas bosónica. Hoy en día la teoría de cuerdas se suele referir a la variante supersimétrica, mientras que la antigua se conoce por el nombre completo de "teoría de cuerdas bosónicas". En 1995, Edward Witten conjeturó que las cinco diferentes teorías de supercuerdas son casos límite de una desconocida teoría de 11 dimensiones llamada Teoría-M. La conferencia donde Witten mostró algunos de sus resultados inició la llamada Segunda revolución de supercuerdas.

En esta teoría M intervienen como objetos animados físicos fundamentales no sólo cuerdas unidimensionales, sino toda una variedad de objetos no perturbativos, extendidos en varias dimensiones, que se llaman colectivamente p-branas (este nombre es un apócope de "membrana").

CONTROVERSIA SOBRE LA TEORÍA
Controversia sobre la teoríaAunque la teoría de cuerdas, según sus defensores, pudiera llegar a convertirse en una de las teorías físicas más predictivas, capaz de explicar algunas de las propiedades más fundamentales de la naturaleza en términos geométricos, los físicos que han trabajado en ese campo hasta la fecha no han podido hacer predicciones concretas con la precisión necesaria para confrontarlas con datos experimentales. Dichos problemas de predicción se deberían, según el autor, a que el modelo no es falsable, y por tanto, no es científico,[1] o bien a que «La teoría de las supercuerdas es tan ambiciosa que sólo puede ser del todo correcta o del todo equivocada. El único problema es que sus matemáticas son tan nuevas y tan difíciles que durante varias décadas no sabremos cuáles son».[2]


FALSACIONISMO Y TEORÍA DE CUERDAS
Artículo principal: Criterio de demarcación
La Teoría de cuerdas o la Teoría M podrían no ser falsables, según sus críticos.[3] [4] [5] [6] [7] Diversos autores han declarado su preocupación de que la Teoría de cuerdas no sea falsable y como tal, siguiendo las tesis del filósofo de la ciencia Karl Popper, la Teoría de cuerdas sería equivalente a una pseudociencia.[8] [9] [10] [11] [12] [13]

El filósofo de la ciencia Mario Bunge ha manifestado recientemente:

La consistencia, la sofisticación y la belleza nunca son suficientes en la investigación científica.

La Teoría de cuerdas es sospechosa (de pseudociencia). Parece científica porque aborda un problema abierto que es a la vez importante y difícil, el de construir una teoría cuántica de la gravitación. Pero la teoría postula que el espacio físico tiene seis o siete dimensiones, en lugar de tres, simplemente para asegurarse consistencia matemática. Puesto que estas dimensiones extra son inobservables, y puesto que la teoría se ha resistido a la confirmación experimental durante más de tres décadas, parece ciencia ficción, o al menos, ciencia fallida.
La física de partículas está inflada con sofisticadas teorías matemáticas que postulan la existencia de entidades extrañas que no interactúan de forma apreciable, o para nada en absoluto, con la materia ordinaria, y como consecuencia, quedan a salvo al ser indetectables. Puesto que estas teorías se encuentran en discrepancia con el conjunto de la Física, y violan el requerimiento de falsacionismo, pueden calificarse de pseudocientíficas, incluso aunque lleven pululando un cuarto de siglo y se sigan publicando en las revistas científicas más prestigiosas.

Mario Bunge, 2006.[7]

No obstante, en el estado actual de la ciencia, se ha dado el paso tecnológico que puede por fin iniciar la búsqueda de evidencias sobre la existencia de más de tres dimensiones espaciales, ya que en el CERN y su nuevo acelerador de partículas se intentará, entre otras cosas, descubrir si existe el bosón de Higgs y si esa partícula se expande solo en 3 dimensiones o si lo hace en más de 3 dimensiones, y se pretende lograr estudiando las discordancias en las medidas y observaciones de la masa de dicha partícula si finalmente se encuentra, por lo que en conclusión la teoría de cuerdas estaría, recientemente, intentando entrar en el campo de la falsabilidad.

Repost 0
12 marzo 2011 6 12 /03 /marzo /2011 16:39



 









Francia pone a 260 millones de euros en infraestructura de investigación
Efectivo estímulo pretende hacer instalaciones nacionales de clase mundial.

"Instituto de Gene de Francia cerca de París,es el
punto de encuentro".

El Gobierno francés la semana pasada anunció 260 millones de euros (360 millones de dólares) en la nueva financiación de más de diez años para nueve proyectos de infraestructura nacional de médicos y de investigación de Ciencias de la vida y dos proyectos de demostración en biotecnología.

La financiación es parte de la primera ola de un paquete de estímulo económico de 35 - millones de euros: el gran emprunt, o préstamo grande, ahora llamada "Inversiones para el futuro", anunciado por el Presidente Nicolas Sarkozy en diciembre de 2009 (ver 'Gana dinero enorme impulso de investigación francés').

De 35 millones de euros, más que ha sido tomado de los mercados financieros internacionales, el Gobierno ha asignado 21,9 millones de euros para investigación y educación superior (véase el gráfico). Los 260 millones de euros de subvenciones nuevos trae los importes desembolsados hasta ahora a 834 millones de euros (véase el recuadro). Otros premios serán anunciados durante todo el año, junto con una segunda convocatoria de propuestas.

Sólo dos de los catorce expertos en el panel que juzga las aplicaciones de infraestructura fueron franceses. Joël Vandekerckhove, el Presidente del grupo y un bioquímico de la Universidad de Gante, en Bélgica, dice esto ayudó a reducir la presión ejercida por los científicos franceses, como lo hizo la revisión amplia, con cada propuesta se envía a los revisores de cuatro o cinco.

Vandekerckhove está muy satisfecha con el proceso de revisión, a pesar de que tenía que ser completada en sólo cinco meses. "Fue un gran trabajo", dice, con cada aplicación con un promedio de 300–400 páginas.

Actualización de genómica
Subvenciones concedidas incluyen 32 millones de euros para crear una plataforma nacional de biología estructural, 27 millones de euros para desarrollar una infraestructura nacional para modelos de enfermedad de ratón, 26 millones de euros para imágenes biomédicas y 17 millones de euros para biobancos.

La mayor concesión, 60 millones de euros, va a un consorcio liderado por las energías alternativas y la Comisión de Energía Atómica (CEA), junto con otros organismos de investigación, para un proyecto llamado Francia-genómica. Sitio de la CEA en Evry, al sur de París, es hogar de la Instituto de Gene, que alberga el centro de secuenciación nacional y el Centro Nacional de genotipado.

Estos dos centros tienen un presupuesto anual de unos 20 millones de euros, tres cuartas partes de los cuales va en salarios, una proporción similar a otros laboratorios de genómica francesa. En este contexto, una suma adicional de 60 millones de euros es un enorme flujo de efectivo en genómica francés, dice Gilles Bloch, director de la División de Ciencias de la vida del CEA.

Bloch, dice que el nuevo dinero irá al reacondicionamiento genómica nacional y regional centros con generación secuenciadores y otros instrumentos, lo que les permite ponerse al día con los principales centros de genoma internacional. Alimentando los centros con el mejor equipo y suministros, dice, será aprovechar las inversiones existentes en personal, laboratorios y edificios.

La subvención también alentar una mayor coordinación en la investigación genómica francesa y realizar instalaciones a investigadores de las universidades y la industria.

Grandes planes

La inversión francesa es un impulso a los planes de la Unión Europea para un enfoque más coordinado internacional para la construcción y operación de infraestructura de investigación, dice Hervé Pero, jefe de la unidad de infraestructuras de investigación de la Comisión Europea en Bruselas.

La Comisión ha destinado a 1,7 millones de euros para 2007-2013 catalizar la creación de una infraestructura de investigación paneuropea. Sin embargo, construir y operar los componentes de este plan costará mucho más dinero que debe proceder de los Estados miembros.

Un dicho régimen es el Europeo Marina biológica recursos Centro (EMBRC), lanzada el mes pasado (véase 'lanza red de biología marina en aguas entrecortadas'). El francés financiación de 16 millones de euros para su componente nacional de EMBRC es "gran noticia para todo el grupo", dice Roberto di Lauro, Presidente de la estación zoológica de Anton Dohrn en Nápoles, Italia, que encabeza una red de 15 centros de investigación en 8 países. Francia es el primer país en hacer una contribución sustancial al proyecto, dice, aunque Suecia e Italia también están probable que también anunciar pronto la financiación.

Otro proyecto francés, oculto, proporciona 9 millones de euros para ampliar la bioseguridad de Jean Mérieux/INSERM nivel 4 instalación (BSL-4) en el laboratorio de BSL-4 de Lyon, Francia (véase 'un virus mortal, tres cuestiones claves').

El laboratorio de Lyon también coordina un proyecto de la UE llamado infraestructura de investigación europea sobre altamente patógena agentes (ERINHA), actualmente en una etapa experimental, que señalar todos los laboratorios de UE BSL-4 en una única red y permiten a los investigadores de cualquier Estado miembro para usar instalaciones en cualquier parte de la UE (véase 'laboratorios de bioseguridad Europeo debería para crecer').

Hervé Raoul, director de la instalación de Lyon, que fue creada en 1999 a un costo de 10 millones de euros, dice el nuevo dinero permitirá su espacio de laboratorio BSL-4 a ser casi se duplicó, lo que le permite ampliar los programas de investigación y host más investigadores nacionales e internacionales.

Las inversiones para el enfoque del futuro en ciencia representa "una oportunidad extraordinaria para la investigación francesa," dice Patrick Netter, jefe del Instituto de ciencias biológicas del CNRS, la Agencia Nacional francesa de investigación. "Es muy positivo, proporcionando los investigadores con los medios y herramientas para la excelencia científica".

Repost 0
11 marzo 2011 5 11 /03 /marzo /2011 21:20

Seidel, H. / Ball, J.W. / Flynn, J.A. / Solomon, J.A. / Stewart, R.W.

Guía Mosby de exploración física

Puntos Clave

•Manual a color, resumen de la obra Manual Mosby de Exploración física y ayuda inestimable para estudiantes de Enfermería y otras áreas de Ciencias de la Salud.
•Describe las distintas técnicas de exploración física y la secuencia lógica en el examen físico.
•Incluye tablas de ayuda y más de 250 figuras a todo color.

Índice

1. Anamnesis. 2. Estado mental. 3. Nutrición, crecimiento y medidas. 4. Piel, pelo y uñas. 5. Sistema linfático. 6. Cabeza y cuello. 7. Ojos. 8. Oídos, nariz y garganta. 9. Tórax y pulmones. 10. Corazón. 11. Vasos sanguíneos. 12. M amas y axilas. 13. Abdomen. 14. Genitales femeninos. 15. Genitales masculinos. 16. Ano, recto y próstata. 17. Sistema musculoesquelético. 18. Sistema nervioso. 19. Exploración del adulto. 20. Exploración de la mujer sana. 21. Exploración de lactantes, niños y
adolescentes. 22. Información y registro. APÉNDICE A: Referencia rápida sobre casos especiales. APÉNDICE B: Herramientas de valoración del dolor. BIBLIOGRAFÍA. ÍNDICE ALFABÉTICO. Tablas de crecimiento de los CDC. Efectos adversos de los fármacos.

Contenidos

Manual a color, resumen de la famosa obra del mismo autor Manual Mosby de Exploración física, que es una ayuda inestimable para estudiantes de Enfermería y otras áreas de Ciencias de la Salud, a la hora de llevar a cabo el examen físico del paciente. Describe brevemente, pero paso a paso, las distintas técnicas y la secuencia lógica en el examen físico. Comienza con un bosquejo de la información que debe conseguirse mediante la anamnesis, prestando especial atención a la entrevista clínica, y la anamnesis por aparatos. En los capítulos dedicados a los órganos y sistemas se encuentra una lista del instrumental necesario para realizar la exploración y se explican las técnicas a utilizar. Después de la descripción de cada técnica figuran los hallazgos esperados y los inesperados (en dos colores distintos para identificarlos fácilmente). Las ilustraciones a color (265 en color de un total de 510 ) a lo largo del texto también son de gran utilidad para la realización del examen. Cada capítulo incluye también un apartado de Diagnóstico diferencial y un caso clínico. Esta guía a todo color, incluye consejos para el diagnóstico diferencial, variaciones pediátricas, documentación de muestra, y otros datos de evaluación de gran utilidad para una rápida referencia en el ámbito clínico. En capítulos a parte se cubren los exámenes específicos para los bebés, niños y adolescentes,de mujeres sanas, etc. Como novedades, destacan: - Actualizaciones que reflejan los resultados de las investigaciones más recientes y conclusiones prácticas basadas en la evidencia. - Una tabla de fármacos actualizada que proporciona una lista de hallazgos físicos que podrían estar relacionados con los medicamentos más comunes. - Nuevo formato de dos columnas con los resultados esperados e inesperados que proporciona una referencia rápida y fiable. - Más de 250 figuras a todo color que representa la anatomía y fisiología. - Tablas que ayudan al Diagnóstico Diferencial para distinguir las características distintivas de las anomalías, por lo que es más fácil identificar los síntomas del paciente.

Recomendado para

•Enfermería comunitaria y salud pública
•Propedéutica clínica

Repost 0
8 marzo 2011 2 08 /03 /marzo /2011 22:39

Libros/Medicina/Medicina familiar y comunitaria

Chinchilla, A. / Correas Lauffer, J. / Quintero Lumbreras, F.J. / Vega Piñero, M.

BREVIARIO DE URGENCIAS PSIQUIÁTRICAS

Puntos clave

•Este breviario proporciona, fundamentalmente a los médicos de Atención Primaria, las herramientas necesarias para diagnosticar y tratar aquellos urgencias psiquiátricas desde la consulta de primaria.
•Ofrece al médico de familia, de una manera resumida y concreta, toda la información necesaria para tratar a este tipo de pacientes cuando se acercan a la consulta.
•Siguiendo el mismo esquema que el Manual del mismo autor, dirigido fundamentalmente a Psiquiatras, presenta información relevante sobre el diagnóstico y el abordaje terapéutico de diversas patologías psiquiátricas.


Índice

PARTE I. CONCEPTOS BÁS ICOS . 1. Conceptos y peculiaridades de las urgencias psiquiátricas. 2. Aproximaciones nosológicas, criterios de ingreso y derivación y variables clinicoepidemiológicas que conviene tener en cuenta. 3. La historia clínica psiquiátrica en urgencias.

PARTE II. LOS GRANDES SÍNDROMES. 4. El paciente agitado o violento. 5. El paciente suicida. 6. Síndrome alucinatorio. 7. El paciente psicótico en urgencias. 8. El paciente afectivo. 9. Urgencias y trastornos de la personalidad. 10. El paciente alcohólico. 11. El paciente drogodependiente. 12. Cuadro confusional agudo. 13. Síndrome demencial. 14. Trastornos de la conducta alimentaria. 15. Cuadros psiquiátricos debidos a patología orgánica. 16. Trastornos somatomorfos, trastornos facticios y simulación. Estados crepusculares. 17. Trastornos de ansiedad. 18. Urgencias psicogeriátricas. 19. Urgencias en psiquiatría infantojuvenil. 20. Urgencias psiquiátricas en situaciones especiales. 21. Efectos secundarios de los tratamientos psiquiátricos. 22. Alteraciones psicopatológicas provocadas por fármacos no psicotropos.

PARTE III. ASPECTOS TERAPÉUTICOS. 23. Farmacopea esencial para urgencias y manejo práctico de psicofármacos.

PARTE IV. AS PECTOS MEDICOLEGALES. 24. Urgencias en psiquiatría. Aspectos eticolegales. Bibliografía. Índice alfabético.


Contenidos

El Breviario de Urgencias Psiquiátricas, dirigido por el Dr. Alfonso Chinchilla, nace con el objetivo de proporcionar fundamentalmente a los médicos de Atención Primaria las herramientas necesarias para diagnosticar y tratar aquellos urgencias psiquiátricas desde la consulta de primaria. Mientras que el Manual de Urgencias Psiquiátricas, elaborado por este mismo experto, está dirigido a especialistas en psiquiatría y a médicos de urgencias que desde los servicios de urgencias tienen que diagnosticar y tratar a pacientes con patologías psiquiátricas, este breviario ofrece al médico de familia, de una manera resumida y concreta, toda la información necesaria para tratar a este tipo de pacientes cuando se acercan a la consulta.

En cuanto al contenido, este breviario de Urgencias Psiquiátricas sigue el mismo esquema que el Manual, es decir, presenta información relevante sobre el diagnóstico y el abordaje terapéutico de diversas patologías psiquiátricas, posibles efectos secundarios de los tratamientos, protocolos de actuación y atención a pacientes con ciertas particularidades añadidas, como puede ser el caso de los inmigrantes.


Recomendado para

•Medicina familiar y comunitaria
•Psiquiatría

Repost 0
8 marzo 2011 2 08 /03 /marzo /2011 01:02



En 1996, el investigador del Johnson Space Center de la NASA David McKay y su equipo sacudió la comunidad científica con el anuncio del hallazgo de trazas de vida en un meteorito procedente de Marte. La investigación se publicó en aquel entonces en la prestigiosa revista 'Science', lo que daba credibilidad al trabajo.

El anuncio provocó un amplio debate y un sinfín de nuevas investigaciones para comprobar los resultados obtenidos por McKay. Y finalmente el avance de nuevas técnicas y metodologías permitió averiguar que el meteorito había sido contaminado, al menos en parte, con vida terrestre. Aún así, el debate provocado hace ahora cinco años continúa abierto.

Esta semana, otro investigador de la NASA, en este caso Richard Hoover, ha agitado de nuevo la caja de los truenos con una investigación publicada en 'Journal of Cosmology' -una desconocida revista de dudosa calidad científica- en la que asegura haber detectado pequeñas bacterias fosilizadas en tres meteoritos, y mantiene que estas formas de vida microscópicas no proceden de la Tierra.

Según recoge la propia revista, el investigador estadounidense ha utilizado la más avanzada teclogía de micro escáner y ha fracturado el meteorito en láminas. Hoover y su equipo argumentan en su trabajo que hay restos de algunas especies de cianobacterias, unas formas de vida muy primitivas en la Tierra.

Pero 'Journal of Cosmology' no es 'Science' y muchos especialistas aseguran que la credibilidad del estudio no es la misma que si hubiese aparecido en otra de más prestigio. El estudio es tan controvertido, que el propio editor de la revista publica una declaración buscando opiniones de otros científicos. En la comunidad científica ya han surgido numerosas voces que aseguran que el descubrimiento está muy lejos de demostrar la presencia de vida extraterrestre.

Los ingredientes para la vida, en meteoritos
Pero, al margen de la veracidad de los datos de Hoover, este tipo de investigaciones no son lineas de trabajo aisladas. Muchos grupos de investigación de todo el mundo trabajan en los institutos de Astrobiología con la posibilidad de que los meteoritos tuvieran un papel clave en el origen de la vida en la Tierra.

Una investigación publicada recientemente en 'Proceedings of the National Academy of Sciences' (PNAS) documenta mediante el análisis de un meteorito hallado en la Antártida la posibilidad de un origen extraterrestre de los elementos que permitieron la vida terrestre, en concreto del ion amonio, un importante precursor de moléculas biológicas como los aminoácidos o el ADN.

En esa misma línea está la teoría de la Panspermia acuñada por el químico sueco Svante August Arrhenius. Según esta hipótesis, la vida está diseminada por el Universo y llegó en forma bacteriana unida a un meteorito que sirvió de simiente para que evolucionara hasta los organismos que habitan hoy el planeta.

Líquenes españoles en el espacio
Esta teoría, hoy llamada Litopanspermia, aún cuenta con una importante nómina de investigadores que la consideran posible y que trabajan para saber si la Tierra fue colonizada por formas de vida extraterrestres. La investigadora del Instituto Nacional de Técnica Aeroespacial (INTA) Rosa de la Torre defiende que algunas formas de vida muy primitivas -como bacterias extremófilas, líquenes o cianobacterias- pudieron haber viajado desde un planeta hasta la Tierra a bordo de un meteorito.

"Nuestro grupo ha tenido un proyecto en la Estación Espacial Internacional (ISS) para exponer a las condiciones del espacio a algunos líquenes terrestres como el 'Rhizocarpon geograficum', obtenido en la Sierra de Gredos, o el 'Xanthorea elegans', que habita en Sierra Nevada", explica la investigadora experta en radiación ultravioleta sobre organismos vivos. "Estas dos especies sobrevivieron muy bien en esas condiciones de gravedad cero, radiación extrema y elevadísimas temperaturas".

Pero, que hayan soportado la exposición a las condiciones espaciales, no quiere decir que puedan sobrevivir a la entrada en la atmósfera terrestre en la superficie de un meteorito, por ejemplo. La teoría de la Litopanspermia tiene tres fases. La primera es la de escape del planeta originario tras el impacto de un gran asteroide contra su superficie, lo que liberaría pequeños cuerpos rocosos que viajarían por el espacio. El propio viaje es la segunda fase y la entrada es la última, y la más delicada.

«Atravesar la atmósfera es lo más peliagudo ya que las temperaturas que soporta la superficie del meteorito son extremas», asegura Rosa de la Torre. Para saber si los organismos extremos de la Tierra podrían soportar estas condiciones, el equipo del Departamento de Observación de la Tierra del INTA, al que pertenece De la Torre, ha formado parte de experimentos como la cápsula Foton, un satélite diseñado para simular una entrada en la atmósfera con diversos organismos en su superficie. Entre las dos misiones en las que han participado, incluyeron líquenes, cianobacterias, esporas y bacterias que viven en salinas. Pero no tuvieron suerte. No sobrevivió ningún organismo. La temperatura es elevadísima y provoca la fusión de la capa externa de los meteoritos.

Repost 0
3 marzo 2011 4 03 /03 /marzo /2011 11:34

Lago seco revela evidencia de Southwestern 'megadroughts'

Investigadores del Laboratorio Nacional Los Alamos, Universidad de nuevo México y otras instituciones perforación debajo del Sur lago de montaña en la Caldera Valles nacional preservar a descubrir una historia de las condiciones climáticas que tenían entre 360.000 y 550.000 años. La investigación indica que el suroeste de Estados Unidos podría ser en de clima más fresco y húmedo a menos que las condiciones climáticas son frustradas por gases de efecto invernadero en la atmósfera

Refrigeración tendencia podría ser en la forma a menos que se frustró por gases de efecto invernadero

LOS ALAMOS, Nuevo México, el 28 de febrero de 2011: hay un viejo dicho que si no le gusta el clima en Nuevo México, esperar cinco minutos. Tal vez se debe modificarse a 10.000 años, de acuerdo con la nueva investigación.

En una carta publicada recientemente en la revista Nature, los investigadores del laboratorio nacional de Los Alamos y un equipo internacional de científicos informan que la región suroeste de los Estados Unidos sufre "megadroughts": períodos más cálidas, más áridas de cientos de años o más de duración. Más importante aún, una parte de la investigación indica que un antiguo período de calentamiento puede ser similar a las condiciones naturales de clima actual. Si es así, puede ser un período más frío y húmedo en la tienda para la región, a menos que se frustró por el aumento de las concentraciones de gases de efecto invernadero en la atmósfera que podrían calentar el planeta.

Utilizando un núcleo largo de sedimentos obtenidos en 2004 por debajo de un lago seco ubicado en los Valles Caldera nacional preservar — una pradera de 86.000 hectáreas ubicado en el sitio de un volcán prehistórico unos 20 kilómetros al oeste de Los Alamos, los investigadores pudieron entre iguales en el tiempo en el clima que existía entre 360.000 y 550.000 hace años. Capas en el núcleo de sedimentos de 260 pies de largo fueron fácilmente distinguibles y se limita por capas de ceniza volcánica que permitió salir muy precisa. Investigadores mirados componentes químicos atrapados dentro de las capas así como los restos de plantas y polen para caracterizar las condiciones climáticas de la época.

Las capas de sedimentos de debajo del lago de montaña del sur abarca dos períodos "interglaciares". Estos períodos son importantes porque representan un tiempo entre las edades de hielo cuando las temperaturas más cálidas imitaban las temperaturas actuales. El antiguo período interglaciar, conocido como marino isótopo etapa 11: MIS 11 para abreviar, duró alrededor de 50.000 años e incluyó, entre varios períodos de variaciones climáticas, una megadrought definitiva período seguido por un período más frío. Antes que el estudio, datos detallados sobre MIS 11 habían sido escasos porque la mayoría de la información fue obtenida de hielo antártico o sedimentos marinos. El registro terrestre obtenido bajo South Mountain Lake reveló una abundancia de información que detalla bien el clima antiguo.

El más antiguo período cálido en MIS 11 aparece algo análogo para el actual período interglaciar Holoceno, que ha sido constante para sobre el pasado de 10.000 años. Durante MIS 11, el antiguo clima templado dramáticamente por sobre 14 grados Fahrenheit. Este calentamiento después de un período anterior de frío dio lugar a una abundancia de vida vegetal y condiciones estacionalmente húmedas. Como calentamiento continuó, pastos y arbustos murió y lagos se secan. La sequía subsiguiente duró miles de años antes de terminar abruptamente con un período más frío y húmedo.

La investigación podría indicar que para un cambio al suroeste, habiendo sido a través de un período de sequía actual que incluía el histórico Dust Bowl, a menos que el aumento de las concentraciones de gases de efecto invernadero interferir.

"Los resultados de este estudio tienen implicaciones para el desarrollo de modelos que podrían predecir futuros megadroughts y otras condiciones de clima en el suroeste de Estados Unidos,", dijo Jeffrey Heikoop, líder del equipo de estudio de Los Álamos.

Peter Fawcett de la Universidad de nuevo México fue el principal investigador del estudio. Otros miembros del equipo LANL incluyen Julianna Fessenden-Rahn, Giday WoldeGabriel, Malu Cisneros-Dozal (ahora en la Universidad de Glasgow) y retiró a científico LANL Fraser Goff. Los Álamos de investigación equipo recibió financiación en parte del Instituto de Geofísica y física planetaria.

Otras instituciones que se ocupan de la investigación incluyen la Universidad de Minnesota Duluth; Universidad de Australia Occidental; Curtin University de tecnología, Australia Occidental; Real Instituto de Holanda para la investigación de mar; Universidad de Brown; Universidad del norte de Arizona; y el Servicio Geológico de Estados Unidos.

La Carta de naturaleza puede encontrarse aquí: http://www.nature.com/nature/journal/v470/n7335/full/nature09839.html

Acerca de Los Alamos National Laboratory

Laboratorio Nacional de los Alamos, una institución de investigación multidisciplinaria a ciencia estratégica de seguridad nacional, es operado por la seguridad nacional de Los Alamos, LLC, un equipo conformado por Bechtel nacional, Universidad de California, la Babcock & Wilcox Company y URS para la administración nacional de Seguridad Nuclear del Departamento de energía.

Los Álamos mejora la seguridad nacional por garantizar la seguridad y la fiabilidad del arsenal nuclear U.S., desarrollo de tecnologías para reducir las amenazas de las armas de destrucción en masa y resolver problemas relacionados con la energía, medio ambiente, infraestructura, salud y problemas de seguridad global.

Contacto de prensa LANL: James E. Rickman, (505) 665-9203, jamesr@lanl.gov

Repost 0
26 febrero 2011 6 26 /02 /febrero /2011 12:16

 

 

 

 

 

 

 

RESULTADOS NO PUBLICADOS OCULTA EL EFECTO DE LA DISMINUCIÓN DE LA

Algunos efectos disminuyen cuando las pruebas se repiten. Jonathan Schooler dice ser abierto acerca de resultados que no hacen el registro científico podría revelar por qué.

Jonathan Schooler

Muchos científicamente descubierto efectos publicados en la literatura parecen disminuye con el tiempo. Apodado el efecto de la disminución, esta anomalía desconcertante fue descubierta en la década de 1930 en investigación en parapsicología, en el que la significación estadística de la supuesta evidencia de capacidad psíquica declinó como estudios fueron repetidos. Desde entonces se ha informado en una cadena de campos — tanto en meta análisis de resultados en la biología y la medicina en laboratorios individuales (incluyendo el mío). La cuestión ha sido reconocida en algunos círculos dentro de la comunidad científica, pero ascendió a mayor prominencia de diciembre pasado, cuando se debatió en un artículo en la revista The New Yorker.

Algunos científicos atribuyen el efecto de la disminución a Autocorrección estadístico de los resultados inicialmente exagerados, también conocido como la regresión a la media. Pero no podemos estar seguros de esta interpretación, o incluso la prueba, porque generalmente no tenemos acceso a 'resultados negativos': los resultados experimentales que no eran dignos de mención o suficientemente consistente para pasar la revisión por pares y publicado.

¿Cómo podría mejorarse la disponibilidad de resultados no publicados? Sugiero un repositorio de acceso abierto para todos los resultados de investigaciones, que permitiría a los científicos a registrar sus hipótesis y metodologías antes de un experimento y sus resultados después, independientemente del resultado. Una base de datos revelaría estudios publicados cómo encajan en el conjunto más amplio de los estudios realizados y ayudaría a responder muchas preguntas sobre el efecto de la disminución.

Disponibilidad de resultados no publicados también podría abordar otras deficiencias del proceso científico actual, incluyendo el fracaso regular de los científicos para experimentos de informe, las condiciones o las observaciones que son incompatibles con la hipótesis; la adición o eliminación de los participantes y las variables para generar la significación estadística; y la probable existencia de numerosos hallazgos publicados no-cuya posibilidad de repetición se envuelve porque es difícil nulo resultados de informe.

Para enfrentar el efecto de la disminución, una base de datos podría indicar si el fenómeno refleja cómo el diseño de experimentos científicos, cómo escribe o cómo revistas decidan qué publicar. Se podría utilizar para explorar si los auténticos cambios en los fenómenos estudiados podrían derivan de mecanismos convencionales; por ejemplo, en ciencias sociales, declinar efectos podría ser el resultado de los participantes ya no ser ingenuo acerca del efecto bajo investigación. Menos probable, pero no inconcebible, es un efecto de algún proceso no convencional. Quizás, como ha sugerido el acto de la observación que afectan a la medición cuántica, observación científica podría cambiar sutilmente algunos efectos científicas. Aunque las leyes de la realidad por lo general se entienden inmutable, algunos físicos, incluyendo Paul Davies, director del más allá: Centro de conceptos fundamentales en la ciencia en la Universidad Estatal de Arizona en Tempe, han observado que esto debería considerarse una suposición, no una conclusión inevitable.

Las explicaciones más prosaicas para el efecto de la disminución incluyen la regresión mencionada anteriormente a la media. Si los primeros resultados son más probabilidades de ser informado cuando los errores se combinan para aumentar el efecto aparente, estudios publicados mostrará sesgo sistemático hacia conclusiones inicialmente exageradas, que posteriormente son estadísticamente self-corrected (aunque esto sería, sin embargo, no se cuenta de la naturaleza normalmente lineal de la decadencia).

Sesgo de publicación también podría ser responsable. Los investigadores sólo podrían publicar conclusiones iniciales sobre un efecto cuando es especialmente grande, mientras que los estudios de seguimiento podrían ser más capaces de informar los efectos más pequeños. Otras respuestas potenciales incluyen aspectos no declarados de métodos, exclusivos de presentación de informes de resultados consistentes con la hipótesis, cambios en el entusiasmo de investigador, más rigurosos metodologías utilizadas en estudios posteriores, el error de medición resultantes de sesgo experimentador y la dificultad general de publicar fallos de replicación.

"Necesitamos un mejor registro para aprender cómo bien ciencia distingue la verdad de la falacia".


Una base de datos de acceso abierto de métodos de investigación y los resultados publicados y iría mucho a prueba estas ideas. Por ejemplo, tanto la regresión a la media y la degradación de las explicaciones de procedimiento asumir que los primeros estudios publicados beneficiarán de en un extremo estadístico de un grupo mayor de resultados (sin publicar). Sesgo de publicación y presentación de informes selectiva de datos son igualmente difíciles de investigar sin saber acerca de los datos no publicados.

Un repositorio de acceso abierto de conclusiones sería difícil introducir. Sería necesario un protocolo automatizado para permitir el métodos de estudio y resultados entró y recuperación. Alguna forma de evaluar la calidad del trabajo sería necesario — quizás a través de los comentarios de acceso abierto moderados en una manera similar a Wikipedia. Necesitaríamos asegurar a las calificaciones de los investigadores que lo utilizan y mantener un período de apagón para proteger las hipótesis y las conclusiones anteriores a la publicación. Científicos reacios tendría incentivos — y quizás nuevas reglas de financiadores — a participar.

Estos retos no sería insuperables. Similares, si más definido por un estrecho margen, bases de datos ya han sido configuradas para ensayos clínicos (http://clinicaltrials.gov/) y la investigación educativa (http://pslcdatashop.web.cmu.edu/). Podría ser un buen punto de partida para desarrollar un host de repositorios de temas específicos. Sin embargo se implementa, necesitamos un mejor registro de la investigación no publicado antes de que podemos saber qué tan bien el proceso científico actual, basado en la revisión por pares y replicación experimental, sucede a en verdad fundamentada distintivo de falacia injustificada.

Repost 0
20 febrero 2011 7 20 /02 /febrero /2011 21:26

 

 

 

 

 



Publicado en línea 17 de febrero de 2011 | Naturaleza | doi:10.1038/News.2011.103

Noticias: Preguntas y respuestas

Submarinos hacer ciencia bajo el hielo
Misiones de clasificado reunirán datos de investigación vital en el Ártico.

Daniel Cressey


Durante décadas, los submarinos de propulsión nuclear de U.S. han colado bajo el hielo del Ártico, mapas y proyectar el poder en una de las más disputadas del mundo y regiones ecológicamente sensibles. Pero al establecen los buques de este año, algunos de ellos tendrán una tarea adicional: recopilación de datos científicos.

Datos de submarinos en el océano Ártico han sido invaluables para los investigadores que trabajan sobre la geología, la biología y la química de estas aguas. En la segunda mitad de la década de 1990, como parte de los ejercicios de hielo de ciencia (SCICEX), la US Navy permitió a los científicos a bordo de sus submarinos nucleares de la clase Sturgeon para cruceros de ciencia especial, sin clasificar. Pero el proyecto terminó cuando los barcos fueron dado de baja.

Ahora SCICEX es ser resucitado: esta vez, las misiones de clasificado se les pide para recopilar datos de investigación. Naturaleza habló con dos de los investigadores el involucrados en la próxima fase del proyecto, biólogo Raymond Sambrotto y químico Bill Smethie, ambos del Observatorio Lamont-Doherty Earth en la Universidad de Columbia en Nueva York.

¿Era difícil hacer que la Armada para reiniciar este programa?

BS: La Armada parece ser bastante interesados en los cambios que están ocurriendo en el Ártico. Están interesados porque necesitan saber cuáles son las capacidades que necesita para operar en el Ártico en el futuro, y qué activos de U.S. necesitan protección, tales como gastos de envío, que pueden ser más predominantes.

El plan aquí es tomar ventaja de tránsitos a través del océano Ártico. Submarinos tienen que ir de un lado a otro y la Armada está dispuesta a añadir dos o tres días para el tiempo para permitir la recopilación de datos científicos y muestras de tránsito. Pero no permitir que los científicos civiles ir, por lo que se ha desarrollado un plan de investigación en que Marina personal y un brazo civil de la Armada llamado el Laboratorio submarino Ártico, con sede en San Diego, California, recopilará los datos y muestras.

RS: Se trata capturas como pueden de capturas. La Armada ha especificado una zona geográfica — mientras el sub es en este ámbito y está funcionando dentro de ciertos límites de profundidad y los límites de velocidad, dará a conocer los datos que nos inmediatamente a su regreso del sumiso.

¿Lo importantes que son estos datos a los investigadores, como ustedes mismos?

BS: Es difícil llegar a muchas regiones del océano Ártico a la muestra. Un submarino puede hacerlo muy fácilmente. Necesitamos desarrollar series de tiempo para ver cómo las cosas están cambiando en el Ártico, y las cosas están cambiando muy rápidamente ahora.

Como punto de fusión de hielo es volver, está cambiando el contenido de agua dulce. Y está cambiando la biología como más agua se convierte en abierto durante el verano. Así que es muy importante para documentar cómo es que se produzca este cambio y entenderlo.

¿Qué tipos de mediciones están esperando obtener?

BS: Temperatura y salinidad se recopilarán datos sobre estos cruceros con el lanzamiento de dispositivos llamados CTDs fungibles (conductividad, temperatura, sensores de profundidad). Se trata de sondeos que se inician desde el submarino y caen a través de la columna de agua, medición de la temperatura y la salinidad, que se registran en la sub.

Las muestras de agua que te recogemos serán de salinidad, nutrientes, para determinados componentes de traza como helio, tritio, clorofluorocarbonos y diversos productos químicos para la determinación de los parámetros biológicos. Un otro parámetro químico a ser estudiados son isótopos del oxígeno: de éstos, podemos determinar un presupuesto de agua dulce para el Ártico. Podemos averiguar cuánto del agua proviene de los ríos, cuánto de derretimiento del hielo marino y cuánto desde el Océano Pacífico.

RS: Para la biología, podrá estar buscando en los niveles de clorofila en el agua y los niveles de partículas de material — algunos de los que está viviendo y algunos detrítico. También podrá recoger muestras de agua para mirar la composición bacteriana y plancton del agua. Algunas de las muestras serán traído de vuelta para investigación y algunos trabajos se hará en la sub.

¿Cuántos cruceros implicará este trabajo?

RS: Uno o dos por año, es de esperar. Este mes de marzo, es el campo de hielo: cada dos años la Armada establece un campamento de investigación frente a la costa de Alaska. Hacen una variedad de cosas allí para fines militares, pero es una oportunidad para la ciencia también.

Estamos utilizando el campamento para calibrar las muestras saliendo de los submarinos. Estos son submarinos diferentes de las que hemos trabajado con antes. Tenemos que asegurarnos de que no existe contaminación o impacto de muestreo en el submarino. Así que vamos a ser muestreo desde el campamento de hielo por métodos estándar de reducción de botellas y recogida de agua y comparar con las muestras recogidas por el submarino. A continuación, nos podemos calibrar exactitud las muestras submarinas será en el futuro.



Guardianes del Ártico


En la mañana del 6 de mayo de 1986 los submarinos Ray, Hawkbill y Archerfish emergen de entre los hielos en el Polo Norte geográfico. Es la primera vez en la Historia en que tres submarinos nucleares norteamericanos emergen simultáneamente en el Polo; es muy posible que los submarinos soviéticos observen desde alguna parte.


Cruzar el Polo bajo los hielos fue una posibilidad largamente soñada por los ejércitos de todo el mundo. Una manera eficaz de cruzar de un extremo a otro del planeta en poco tiempo y de plantarse en la puerta de atrás del enemigo. Durante la IIGM, algunos submarinos alemanes habían utilizado el casquete polar como refugio del ataque enemigo. Después de sus ataques sorpresa, se adentraban entre los hielos, donde sus perseguidores no podían encontrarlos.

En los años 30, basándose en los datos de Admunsen y otros exploradores polares, Sir Huber Wilkins realizó una primera tentativa al mando del submarino Nautilus. Su plan consistía en navegar bajo el hielo y salir a la superficie aprovechando los claros para recargar las baterías, pero las bajísimas temperaturas dejaron el submarino hecho unos zorros a las primeras de cambio.

En los años 50, los americanos crearon el primer submarino nuclear y lo bautizaron igualmente como Nautilus, marcando su destino. Poco tiempo después, el 3 de agosto de 1958, el Nautilus se convertiría en el primer submarino que pasaba por debajo del Polo Norte y atravesaba el Ártico del Pacífico al Atlántico, logrando una hazaña digna de las mejores exploraciones marítimas. Según los datos registrados por los equipos de medición, la temperatura del agua era de 32,4 grados Fahrenheit, la profundidad de 1.089 metros y la capa de hielo tenía un grosor de 7,5 metros.

Los soviéticos no tardaron en emular a sus adversarios y pronto el Ártico se llenó de submarinos atómicos. Durante más de treinta años los contendientes espiaron a sus contrarios, trazaron miles de mapas de los fondos marinos y se persiguieron sin descanso.

Aún hoy día, terminada la guerra fría, los submarinos nucleares siguen patrullando bajo el Polo, y emergen en la soledad polar a través bloques de hasta 120 cm de hielo

Repost 0

Présentation

  • : ME GUSTA LA MEDICINA
  • ME GUSTA LA MEDICINA
  • : La teoría celular, propuesta en 1839 por Matthias Jakob Schleiden y Theodor Schwann, postula que todos los organismos están compuestos por células, y que todas las células derivan de otras precedentes. De este modo, todas las funciones vitales emanan de la maquinaria celular y de la interacción entre células adyacentes; además, la tenencia de la información genética, base de la herencia, en su ADN permite la transmisión de aquélla de generación en generación.
  • Contacto

Perfil

  • José María Medina Esteban
  • Me gusta hacer las cosas bien
  • Me gusta hacer las cosas bien

Texto Libre

   

 

 

Santander anunció el miércoles el nombramiento de Ana Patricia Botín como nueva consejera delegada de su negocio en Reino Unido, con lo que abandonará la presidencia ejecutiva de Banesto en un movimiento que analistas consideran podría reabrir el debate sucesorio al frente del banco cántabro.

"La comisión ejecutiva del Banco Santander ha acordado hoy, a propuesta de la comisión de nombramientos y retribuciones, proponer al consejo de administración de Santander UK el nombramiento como consejera delegada de Ana Patricia Botín", dijo el banco español en un comunicado en el que agregó su aprobación se sometería a la aprobación del consejo de Santander en el Reino Unido, que se celebra este miércoles.

Botín sustituirá en el cargo a Antonio Horta-Osório, que dejará el grupo próximamente para incorporarse como consejero delegado a Lloyds .

Santander explicó que Antonio Basagoiti sustituirá a Ana Patricia Botín como presidente no ejecutivo de Banesto y de su comisión ejecutiva.

La filial de Santander explicó asimismo que José García Cantera, consejero delegado de Banesto, se incorporará al comité de dirección de Banco Santander.

Un portavoz de Banesto explicó que Cantera asumirá todos los poderes ejecutivos en Banesto.

Basagoiti, licenciado en Derecho, es miembro de las comisiones ejecutiva, delegada de riesgos y de tecnología de Santander.

Entre los cargos relevantes que ha ocupado en el pasado destacan la presidencia de Unión Fenosa. En la actualidad es vicepresidente dominical no ejecutivo de Faes Farma y consejero no ejecutivo de Pescanova.

Botín abandona Banesto en un momento de caída de resultados de la banca que está afectando con especial virulencia a todas aquellas entidades con el negocio centrado en España.

A septiembre de 2010, el beneficio de Banesto bajó un 18,6 por ciento a 450,6 millones de euros.

En el mercado se especula con que el nuevo papel de Ana Patricia Botín en el Santander podría abrir de nuevo el debate sobre la futura sucesión de la presidencia del primer banco español.

"El tema de la sucesión de Santander siempre ha estado presente y ahora no hay duda de que se va a volver a reabrir con más fuerza", explicó un analista del sector bancario que no quiso ser citado.

Botín asumirá la máxima responsabilidad de Santander en el Reino Unido con el inmediato reto de poner en valor el negocio británico de Santander y en un momento en el que la entidad ha logrado contrarrestar la caída la actividad bancaria en España con su expansión en el exterior.

Santander ya ha tomado la decisión de sacar a bolsa su división en Reino Unido previsiblemente antes de julio próximo.

FUTURO DE BANESTO

En un momento de contracción de los márgenes financieros en España y de un incremento de las provisiones para afrontar el deterioro de la calidad de los activos inmobiliarios y mayores tasas de morosidad, tanto Santander como BBVA están apostando por la expansión internacional como mejor medida para diversificar sus fuentes de ingresos.

De hecho, el sector financiero español está sumido en un proceso de consolidación -- protagonizado en un primer momento por las cajas -- con el objetivo de reducir los costes y sobrecapacidad instalada.

"Los posibles movimientos en el Grupo Santander abren la puerta para que al final el banco pueda comprar la parte que no tiene de Banesto y así profundizar en el proceso de consolidación abierto en España dentro de la casa con el objetivo de conseguir mejores sinergias de costes", dijo Nuria Álvarez, analista de Renta 4.

En la actualidad, Santander controla directa e indirectamente un 90 por ciento de Banesto.

Una portavoz de Santander no quiso hacer comentarios respecto al debate sucesorio al frente del Santander ni tampoco sobre la estrategia de Banesto.

Recherche

Archivos

Páginas

Liens