viernes, 29 de enero de 2010

La universidad 2.0 es más social, abierta y participativa




Investigadores de la Universidad Rey Juan Carlos (URJC) revisan la comunicación 2.0 en su aplicación dentro de la universidad y concluyen que las herramientas que el mundo on-line ofrece conseguirán adoptar un modelo más abierto y horizontal de universidad. Sin embargo, no se trata de una tarea fácil. Para conseguir una comunicación 2.0 real será necesario un cambio de cultura y de mentalidad.



La universidad 2.0 supone la adopción de los parámetros de la web colaborativa para conseguir una universidad más social en la cual los integrantes de la misma puedan participar de forma abierta. Según los investigadores, Elvira San Millán, Francisco Blanco y José Carlos del Arco, los ámbitos de adopción de 2.0 han de abarcar la implantación gradual del software social en distintas áreas de interés de la universidad como son la docencia y la investigación mediante E-learning, biblioteca, servicios de información y registro, servicios de política social y cultural, administración, comunicación interna y externa corporativa y órganos colectivos y unipersonales de la institución académica, incluyendo al rectorado.
Éstos, sostienen que las propuestas recientes de varios autores plantean el papel que pueden desempeñar las tecnologías y herramientas web 2.0 (software social) en el seno de la universidad, con objeto de crear un espacio de comunicación abierto entre los miembros de dicha institución (PDI, PAS, alumnos, equipo de gobierno), y el conjunto de la sociedad para conseguir una universidad más abierta y conectada entre sus componentes. No obstante, la adopción del enfoque 2.0 en la universidad presenta una serie de barreras, empezando por la ausencia de una definición formal del concepto, la inexistencia de una cultura corporativa universitaria que adopte con facilidad la web social, la inmadurez de las propuestas tecnológicas 2.0 y la falta de experiencia en el uso de las mismas por parte de la comunidad universitaria, aunque esta situación está cambiando poco a poco con el empuje del espíritu Bolonia, (por ejemplo, véase el portal elearningeuropa.info es una iniciativa de la Dirección General de Educación y Cultura de la Comisión Europea destinada a fomentar el uso de las TIC para el aprendizaje a lo largo de toda la vida en el que se recogen estrategias de la web social para educación universitaria).


Las experiencias actuales de implantación de software indican que en las universidades se está empezando tácticamente de abajo hacia arriba frente a la visión más estratégica expresada en los planes de acción (de arriba abajo). A pesar del camino que falta por recorrer según indican los investigadores, se han desarrollado muchas herramientas dentro de este ámbito: las tipo blog académico-divulgativo (edublogs, weblog, videoblog,), redes sociales, feeds, agregadores de fuentes RSS, (formato para la sindicación de contenidos de páginas web), o Atom, que informan en tiempo real de las actualizaciones. Igualmente han surgido Widgets, gadgets, los miniblogs con twitter, wikis, podcast para conferencias y clases, videocast, e-pizarra, e-portafolio, PLEs (personal Learmning Enviroment), o mundos virtuales como Second Life que recrea espacios docentes o servicios de biblioteca. Las aportaciones de la web 2.0 a la educación, según los autores más recientes, son las posibilidades que ofrecen a los estudiantes para producir contenidos individuales y compartir conocimiento. La forma de poner en práctica este tipo de comunicación en la universidad gira alrededor de formar comunidades de práctica e interés en relación a los dominios afectados, pues es una propuesta interesante para intercambiar información y compartir conocimiento. Paralelamente al desarrollo de comunidades es recomendable la puesta en marcha de políticas de incentivos para los usuarios más activos y comprometidos con el movimiento 2.0. Además se considera fundamental implementar formación y planes de difusión en las universidades a través de talleres, seminarios así como de la definición de métricas que permitan motorizar los resultados obtenidos y evaluar el grado de consecución de objetivos. En el caso de la comunicación científica, la ciencia 2.0 es fruto de la aplicación de las herramientas y aplicaciones de la web 2.0 en la actividad científica y académica, fomentando la cooperación entre grupos científicos así como compartición de experiencias, ideas y conclusiones de experimentos científicos. En el ámbito de la investigación se está planteando la creación de blogs académicos para grupos de investigación, departamentos y redes temáticas, como una nueva forma de comunicación para compartir el conocimiento y promover la difusión de los resultados de la investigación a toda la sociedad, contribuyendo de esta forma a la divulgación científica y creando redes de conocimiento para toda la blogosfera. El uso de wikis fomenta la colaboración entre investigadores y grupos. En general habría que destacar las nuevas situaciones que surgen, por ejemplo el etiqueta social que está revolucionando la forma de clasificar y acceder a las contribuciones académicas. En esta línea de comunicación científica 2.0 encontramos colectivos que empiezan a cuestionarse el sistema de reconocimiento de meritos basadas en las publicaciones científicas en revistas de prestigio, proponiendo alternativas basadas en modelos más abiertos de publicación y acceso abierto en repositorios. Un buen ejemplo es el sustentado por madrimasd de open acces. Sin embargo, la consecución de una universidad 2.0 no es tarea fácil e inmediata puesto que supone alcanzar una visión de una universidad en la que la comunidad de usuarios participe y colabore, lo que plantea todo un reto en una institución tradicionalmente cerrada y estructurada en jerarquías organizativas. Es necesario afrontar la resistencia al cambio en la propia institución, aunque un cambio de cultura y mentalidad es un reto complicado de asumir que sólo puede lograrse mediante la formación y la institucionalización de una iniciativa que dote de coherencia y consistencia a todas las iniciativas planteadas desde la base de usuarios. Por otra parte, la falta de medios, recursos e infraestructuras puede frenar la adopción del software social universitario.






Susana Martínez-Conde: Nuestra visión de la realidad es una ilusión

Entrevista a Susana Martínez-Conde directora del Laboratorio de Neurociencia Visual del Instituto Neurológico Barrow de Phoenix (EE.UU.). La científica ha visitado recientemente Madrid para dar una conferencia sobre ilusiones visuales, acompañada del mago Miguel Ángel Gea.
Durante el acto, entre los dos demostraron que la tesis de Martínez-Conde es cierta y que lo que vemos no siempre es lo que hay. Según la investigadora, "nunca podremos saber lo que es la realidad", ya que nuestra experiencia está mediada por nuestro cerebro. "La percepción se basa en una imagen subjetiva del entorno objetivo y físico creada por el cerebro", añade. EL CEREBRO NOS ENGAÑABajo este paradigma, cabría pensar que la esencia real depende del ojo del que la mira. "El ojo puede engañarnos pero, sobre todo, nos engaña el cerebro. Es él quien construye nuestra percepción", asegura Martínez-Conde. "Todos tenemos una visión similar porque nuestros cerebros están cableados de una forma parecida. Existe una discrepancia entre realidad y percepción, pero ocurre de forma muy similar en todos los cerebros".Aunque se comprende el proceso de percepción de la mente, la científica no duda en afirmar que el cerebro es el gran desconocido. "Sabemos que existen 24 áreas de procesamiento visual y sólo conocemos el funcionamiento de tres de ellas. Lo que entendemos del cerebro es una parte ínfima en comparación con lo que nos queda por saber", explica Martínez-Conde.Sin embargo, la investigadora opina que la incertidumbre que rodea a este órgano no será impedimento para hacer realidad, como si de una película de ciencia ficción se tratara, la creación de un cerebro artificial. "En principio, no hay nada especial en el cerebro que no se pueda replicar", asegura. "El cerebro obedece leyes físicas, son neuronas conectadas unas con otras. No hay ninguna razón por la que su tejido deba ser biológico en lugar de artificial". Según la científica, si esto se consigue, podría repararse cualquier daño cerebral. "Una persona con ceguera causada por una lesión neuronal podría recuperar la vista", añade.Bajo el título Ilusión e ilusionismo: cómo engañar al cerebro con magia y otros trucos, la conferencia en Cosmaixa de Martínez-Conde mostró cómo se puede alterar la percepción. Esa es la esencia de la magia. "Los magos manipulan la consciencia y la atención del espectador, lo que da lugar a una ilusión", explica la científica. "Utilizamos esas ilusiones visuales y cognitivas para comprender mejor el funcionamiento del cerebro. Lo hacemos mediante el análisis de la respuesta neuronal a estímulos reales e ilusorios", comenta.Los asistentes a la conferencia comprobaron que, bajo la manipulación adecuada, se puede no ver la imagen de un oso bailando al estilo de Michael Jackson en medio de una pantalla. "La magia es tener elementos imposibles que suceden delante de nosotros", afirma. "En neurociencia llegamos a conclusiones que los magos ya sabían. Aún tienen mucho que enseñarnos". A pesar de que la magia no utiliza el método científico, "tiene una tradición milenaria", explica. "Lo que hacen los magos está a años luz de lo que conseguimos en el laboratorio, no les llegamos a la suela de los zapatos".Entre truco y truco, aparecen y desaparecen objetos ante el público, mientras Martínez-Conde concluye: "Toda nuestra experiencia es, en parte, una ilusión".

¿Un cambio de financiación o una financiación para el cambio?

Ahora que lo queremos todo sostenible, habrá que empezar por lo que ya no se puede sostener. Así ocurre con un insostenible sistema de financiación universitaria que, al fin, se plantea modificar. Hay que saludar con ilusión, pues, la propuesta que se acaba de presentar, que supone un indudable avance respecto a la situación actual.
Y habrá que esperar que la voluntad política que la anima no naufrague en los presupuestos y que las buenas intenciones de convertir a la universidad en un agente de superación de la crisis no sucumban esperando por la recuperación. Todo sistema de financiación ha de responder a los objetivos de suficiencia, eficiencia y equidad. Y a ellos trata de atender la nueva propuesta de financiación universitaria que, sin embargo, parece decantarse más abiertamente hacia los aspectos de equidad, en particular mediante un sistema de becas sensiblemente reforzado (pero sin el correlato de una revisión más ambiciosa de la política de precios) y con sugestivas innovaciones. Ahí es donde el documento resulta más concreto y parece más dispuesto a convertir las declaraciones en compromisos, seguramente con el propósito de superar un retraso que resulte, además, políticamente rentable.La equidad es, sin duda, imprescindible y particularmente en el sistema educativo, pero los objetivos de eficiencia cobran además una singular importancia en un sistema universitario que no parte de cero pero que necesita profundizar las transformaciones, impulsar la calidad, la innovación y la excelencia, para transmitir una imagen de "compromiso" de las universidades con la que pedir la "confianza" de la sociedad. Hacen falta más recursos, pero hace falta que se dirijan a objetivos de eficiencia, a promover el cambio universitario, a incentivar mejoras en la organización, funcionamiento y resultados, a romper inercias e impulsar políticas innovadoras.En investigación y transferencia de conocimiento hay grandes retos y oportunidades que justifican la dotación de nuevos recursos y el documento plantea propuestas concretas e innovadoras. En profesorado también serán necesarios recursos adicionales, pero no para consolidar una estructura voraz consumidora de todo incremento, sino para modificar esa estructura, para hacer de la nueva financiación un instrumento de corrección de flagrantes desequilibrios entre áreas y dedicaciones, para promover más audaces políticas de movilidad, contrataciones y captación de jóvenes o para modificar una maraña de complementos que han perdido su funcionalidad.El desarrollo del Espacio Europeo de Educación Superior demandará necesariamente nuevos recursos, que parece tentada a convertir en ahorros una propuesta influida por una filosofía de "coste cero" que nunca ha sido buena compañera de las reformas, sin reparar, en cambio, en que una exigente financiación constituiría el mejor instrumento para recomponer un desequilibrio entre oferta y demanda de titulaciones que, pese a los propósitos del proceso de Bolonia, no solo no se ha corregido sino que se ha ampliado con la complicidad de las administraciones educativas. Y, en fin, la adicional financiación universitaria debería servir de decidido impulso para las políticas que han emprendido las universidades de mejoras docentes. La calidad y las estructuras organizativas, para resolver ineficiencias, problemas y carencias, que es lo que más necesitan las universidades, para afrontar políticas innovadoras y mejorar no sólo el rendimiento de los "servicios producidos", sino para definir acertadamente los "servicios que se deben producir".Es en esto ámbitos, entre otros, donde decisivamente se juega el que me parece el mayor problema y el principal reto universitario: la eficiencia. Porque de no hacerlo así (como si preocupase más la gratuidad del billete de los viajeros que la mejora del servicio de transporte) podríamos descuidar el indispensable reto de mejorar el funcionamiento y los resultados del servicio universitario y desperdiciar la oportunidad de que un "cambio de financiación" se convierta verdaderamente en una "financiación para el cambio" universitario.

Almacén nuclear, no cementerio

El uranio que albergará podrá reutilizarse en nuevas centrales. Las piscinas de las plantas donde se guardan los residuos radiactivos se saturarán a partir de 2013.
La polémica generada por el emplazamiento del futuro Almacén Temporal Centralizado (ATC) de residuos radiactivos de alta actividad ha generado una serie de informaciones que, a juicio de los expertos, pueden llevar al error. Para empezar, «almacén no significa cementerio», explica Eugeni Vives, portavoz de la Sociedad Nuclear Española. «El combustible irradiado, que no gastado, puede reciclarse y utilizarse en reactores de tercera generación de agua presurizada», asegura el ingeniero industrial. Los ocho reactores del parque nuclear español son de primera y segunda generación -dos de ellos, Zorita y Garoña, ya han alcanzado su «edad de jubilación», aunque a ésta última se le concedió en julio una prórroga de 4 años, hasta 2013- y no se proyecta construir más. De momento. EE.UU., Francia o Finlandia sí levantan centrales de nueva generación y desarrollan procesos para aprovechar hasta otro 15 por ciento de la energía del uranio almacenado.Nuevas técnicas permitirán incluso exprimir el combustible hasta casi su totalidad en plantas de cuarta generación, cuya tecnología está siendo desarrollada por el Fórum Internacional de Cuarta Generación, del que forman parte nueve países y en el que España está representada, de forma indirecta, por la Comunidad Europea de Energía Atómica (Euratom).Fuentes del Foro de la Industria Nuclear aseguran que el combustible usado «no debe ser considerado como un pasivo, sino como un activo de alto valor, ya que conserva mucha energía aprovechable». «Sería absurdo tratarlo como un simple residuo cuando es un recurso energético renovable», destacan. «En 10 o 15 años, se abaratará el reprocesamiento», algo que se acelerará cuando resulte más barato que la extracción. La Agencia Internacional de Energía Atómica calcula que las reservas de uranio abastecerán el parque mundial -436 reactores en funcionamiento en 31 países, 48 en construcción y unos 200 más en proyecto- hasta finales de siglo, teniendo en cuenta su ritmo de crecimiento actual. PATATA CALIENTEEl ATC vendrá a resolver un problema que los diferentes gobiernos han ido postergando pese a estar calculado con precisión matemática desde finales de los 80, cuando se pusieron en marcha las últimas plantas nucleares españolas. En la actualidad, los residuos de alta actividad se conservan en piscinas de agua pesada dentro de las propias centrales, que llegarán a su punto de saturación entre 2013 y 2020.Algunas plantas, como la de Trillo, ya han llenado sus tanques, por lo que tienen su propio «mini ATC» o almacén en seco dentro de sus instalaciones. Distinto es el caso del reactor I de la central de Vandellós, que sufrió un incendio en 1989 que obligó a su cierre y a enviar los residuos a Francia. El acuerdo firmado con el país galo implica la devolución en 2011. En caso contrario, el Estado afrontará una cuota diaria de unos 60.000 euros, ejemplo de lo cara que resulta la gestión del uranio usado.El VI Plan General de Residuos Radiactivos -que implica la construcción del ATC por 600 millones de euros y el desmantelamiento de las centrales que se vayan cerrando- calcula una inversión entre 1985 y 2070 de 13.000 millones. En 2007 ya se había consumado un cuarto del gasto y elevado la estimación a 15.000 millones. La producción española de residuos de alta radiactividad, los que irán al ATC, es de 160 toneladas al año. Cada recarga supone 25 toneladas, que duran entre 3 y 4 años. El ATC albergará las 6.700 que se estima habrán producido las centrales al final de su vida operativa estimada (40 años), que no coincide con la real, ya que se suelen conceder prórrogas.ALEMANIA NO CERRARÁ PLANTASAlemania dio un giro a su política de desmantelamiento al aplazar la coalición de Gobierno de Angela Merkel el «apagón» nuclear diseñado por el anterior Gobierno de Schroeder y replantear el calendario de cierre de las 17 centrales atómicas del país, incluidas dos cuya desactivación se daba por inminente. Los semanarios «Der Spiegel» y «Focus» aseguran que el Gobierno alemán y los consorcios energéticos pactaron, en una reunión en la Cancillería, mantener en funcionamiento todas las centrales hasta que se elabore un «nuevo plan energético», lo que se hará en octubre. Otros países europeos, como Suiza, han dado ya prórrogas indefinidas a sus plantas eléctricas nucleares en hipotética edad de «jubilación».

Los murciélagos reinventan el sónar

Ciertos murciélagos se orientan a la perfección en la oscuridad total de las cuevas donde habitan algunas especies. Lo que posibilita este milagro es una técnica llamada ecolocalización (una especie de sónar), por la que el animal emite un sonido cuyo eco le hace formarse imágenes de lo que le rodea en el cerebro.
Aunque se sabía que no todos los murciélagos ecolocalizan no lo hacen los llamados zorros voladores, un equipo internacional dirigido por investigadores canadienses ha descubierto que, además, entre los que lo hacen existe una diferencia fisiológica. Los investigadores coordinados por el Instituto de Investigación Robarts de Londres (Ontario, Canadá), usaron un novedoso tipo de tomografía computerizada (TAC), que se utiliza para analizar en detalle el conducto auditivo en humanos, para identificar este signo distintivo. Para ello, sometieron a esta prueba de diagnóstico por imagen a 26 murciélagos conservados en un fluido.Según el trabajo, publicado en la última edición de Nature, una pequeña articulación que conecta la laringe y el oído a través de la apófisis estiloides, es exclusiva de los murciélagos que ecolocalizan con sonidos emitidos por la laringe. Así, mediante la identificación de esta pieza, se podría distinguir a dichos murciélagos de los que utilizan para volar sonidos provocados por un chasquido en la lengua, los que usan el batir de alas y los que no ecolocalizan.IMPLICACIONES EN LA EVOLUCIÓNPero el hallazgo del equipo dirigido por el biólogo Brock Fenton va más allá de la identificación de los distintos tipos de murciélagos.Según se explica en el artículo de Nature, el descubrimiento sirve también para reabrir preguntas básicas sobre el origen del vuelo y de la ecolocalización en las etapas más precoces de la evolución de los murciélagos.En la actualidad, coexisten tres teorías sobre este asunto: la primera propone que la ecolocalización se desarrolló en estos animales antes que la capacidad de volar; la segunda, que esta fue antes que la ecolocalización; y la última, que el vuelo y la peculiar forma de orientación evolucionaron al mismo tiempo.Una de las circunstancias que apoyaba la tesis de que los murciélagos habían aprendido a volar antes que a ecolocalizar era el análisis del fósil más antiguo existente de un murciélago, Onychonycteris fineyi. Según los estándares utilizados hasta ahora, este ejemplar carecía de ecolocalización. Pero, tras el descubrimiento de la nueva articulación, habría que analizar si esta antigua especie la presentaba o no, para concluir de esta forma si utilizaba la ecolocalización para desplazarse.La ecolocalización permite a los animales desplazarse en condiciones de escasa o nula visibilidad, ya que los provee de información sobre el tamaño, la forma, la composición y la velocidad de los objetos del escenario en el que se mueven. Esta manera de moverse la han desarrollado, al menos, cuatro grupos de mamíferos: los propios murciélagos, las ballenas, las musarañas y los tenrécidos, así como dos tipos de aves. LO QUE DESVELAN LAS IMÁGENES EN TRES DIMENSIONESEl artículo sobre la ecolocalización en los murciélagos ha vuelto a poner de manifiesto el poder de las pruebas más novedosas de diagnóstico por imagen. En esta ocasión, los investigadores utilizaron tomografías microcomputerizadas para estudiar la morfología y las conexiones de la apófisis estiloides en murciélagos conservados en fluido.Se da la circunstancia de que este método de diagnóstico por imagen se utiliza hasta ahora en procedimientos clínicos en humanos, sobre todo para analizar el conducto auditivo. Esta nueva tecnología reduce la necesidad de diseccionar a los animales y conserva las relaciones de los órganos en tres dimensiones, que se pueden perder si los murciélagos están preparados como en los museos tradicionales. Los animales utilizados en este estudio, que aportó la comisaria del Museo Real de Ontario, Judith Eger, al estar preservados en un fluido especial, no presentaban este inconveniente.La idea original de este innovador estudio surgió del radiólogo Rethy Chem, que animó a biólogos y técnicos a aplicar técnicas no invasivas para responder una cuestión de investigación básica. Para ello, fue imprescindible la experiencia en fisiología y neurobiología de los mamíferos que aportaron los científicos Matthew Mason, de la Universidad de Cambridge (Reino Unido), y Paul Faure, de la Universidad Mc Master (Canadá).

La risa, una emoción universal

Un esquimal es capaz de saber si un maorí está triste al reconocer en su rostro la expresión de esa emoción. La cara es el espejo universal del alma y por eso somos capaces de interpretar ciertas sensaciones aunque nuestras culturas sean dispares. Y no sólo los gestos. La risa, el llanto y otros sonidos que acompañan a los sentimientos también son comunes a todos los seres humanos.
"Las personas empleamos una gama de señales para comunicar las emociones, incluyendo la emisión de sonidos, las expresiones faciales y la postura", señalan los autores del estudio publicado en 'Proceedings of the National Academy of Sciences'. "Las señales auditivas permiten la comunicación afectiva cuando el receptor no puede ver al emisor", añaden.Varias investigaciones han comprobado que algunas de estas herramientas comunicativas son universales, ya que individuos de distintas culturas, que no comparten el idioma ni las costumbres, son capaces de identificar qué emociones pretenden transmitir. Sin embargo, en el caso de los sonidos, la cuestión seguía siendo una incógnita.Investigadores del University College London (Reino Unido) diseñaron un experimento para resolver esta duda. Y se centraron en las conocidas como emociones básicas (miedo, asco, ira, tristeza, sorpresa, alegría, placer sensual, éxito y alivio). "Se considera que éstas constituyen funciones desarrolladas que comparten todos los seres humanos, tanto en términos de fenomenología como en forma de señales comunicativas", señalan.Dos grupos de procedencia muy distinta sirvieron para comprobar su teoría. Uno estaba formado por ciudadanos británicos y el otro por miembros de la tribu Himba, que habita en la región norte de Namibia. Las distancias culturales, educativas, lingüísticas, etc., son evidentes.Cada uno de ellos escuchaba una pequeña historia que hablaba de una de estas emociones (por ejemplo, acerca de la tristeza que sentía alguien por la muerte reciente de un pariente cercano) y después escuchaba dos sonidos -grabados previamente por personas de ambos grupos étnicos- y debía identificar cuál correspondía a la sensación de la que trataba el relato."Las personas de ambos grupos parecían reconocer fácilmente las emociones básicas", explica Sophie Scott, principal autora del estudio. "Esto sugiere que estas emociones -y sus señales auditivas- son similares en todas las culturas". Entre ellos, uno especialmente: la risa. Con las demás sensaciones, las ventajas de pertenecer al mismo grupo eran más evidentes (los británicos acertaban más cuando el emisor era de su misma procedencia, al igual que sucedía con los himbas). Pero, cuando se trataba de la risa descrita en el relato por la acción de hacer cosquillas-, los porcentajes de acierto crecían, los filtros culturales no eran tan patentes."Las cosquillas hacen reír a todo el mundo", ha explicado Dina Sauter, otra de las investigadoras. Y no sólo a los humanos. "Hemos visto esta reacción en otros primates así como en otros mamíferos. Esto sugiere que la risa tiene unas raíces evolutivas muy profundas, posiblemente originadas como parte de la comunicación durante el juego entre niños pequeños y madre".

Tres técnicas de imagen ayudan a localizar el 'centro' cerebral de la esquizofrenia

Científicos de la Unidad de Psicosis e Investigación de Benito Menni CASM, integrada en la red de Centros de Investigación Biomédica en Salud Mental (CIBERSAM) han identificado por primera vez alteraciones estructurales y funcionales en la corteza frontal media del cerebro que podrían ser causantes de la esquizofrenia, según publica la revista 'Molecular Psychiatry'.
El equipo liderado por la doctora Edith Pomarol-Clotet ha realizado este estudio examinando y comparando el cerebro de 32 pacientes con esquizofrenia frente al de otras 32 personas sanas mediante tres técnicas de resonancia diferentes. Una de estas tecnologías mide el volumen de materia gris del cerebro, una segunda examina las conexiones de la sustancia blanca subyacente y, finalmente, una tercera técnica registra el patrón de actividad en diferentes partes del cerebro mientras los sujetos realizan un test cognitivo.El resultado es que las tres técnicas identificaron anomalías en la misma región cerebral -la corteza frontal media- en los pacientes con esquizofrenia. Esta región cerebral forma parte de una red de áreas denominada 'Default Mode Network' (o red neuronal por defecto) que parece tener un papel crucial en la creación y elaboración de los pensamientos que aparecen cuando no estamos ocupados en ninguna tarea concreta.La corteza frontal media, incluida en los lóbulos frontales (que se ubican en la zona anterior del cerebro), ya se había relacionado en estudios anteriores con la patofisiología de la esquizofrenia; sin embargo, es la primera vez que tres técnicas apuntan simultáneamente a este rincón cerebral como el origen de esta patología mental. Precisamente en este sentido, el doctor Peter McKenna, investigador principal del CIBER de Salud Mental y uno de los autores del artículo, señala que "estos resultados son potencialmente importantes, porque la convergencia de estos hallazgos cerebrales, estructurales y funcionales sugiere que la corteza frontal medial puede ser un lugar indicado para concentrar los esfuerzos de investigación en el futuro. Puede ser una pista para encontrar las causas de la esquizofrenia".Uno de los aspectos que esta investigación no llega a revelar es el origen de dichos cambios en la corteza frontal medial. La doctora Pomarol-Clotet explica que "éste será, precisamente, el siguiente paso a dar, ya que estamos empezando a planificar un estudio neuropatológico, que en un futuro podría revelarnos nuevos datos en este sentido".La esquizofrenia es un trastorno mental crónico y grave que, en España, afecta a unas 400.000 personas. Esta enfermedad se caracteriza por una mutación sostenida de varios aspectos del funcionamiento psíquico del individuo, principalmente de la conciencia de realidad, y una desorganización neuropsicológica más o menos compleja, que lleva a una dificultad para mantener conductas motivadas y dirigidas a metas y a una significativa disfunción social. Así, una persona con este diagnóstico, por lo general, muestra un pensamiento desorganizado, delirios, alucinaciones, alteraciones afectivas en el ánimo y las emociones, del lenguaje y conductuales.Se trata de una enfermedad cuyos síntomas suelen aparecer en adultos jóvenes. En el caso de los hombres se hace visible entre los 18 y los 25 años, mientras que entre las mujeres se retrasa al período de entre 23 y 35 años.

Fabiola Gianotti: Me gustaría hallar algo totalmente inesperado

Entrevista a Fabiola Gianotti, responsable del detector Atlas, uno de los cuatro grandes detectores del acelerador de partículas LHC.
Fabiola Gianotti pensó en estudiar filosofía, pero al final cambió de idea: "Me di cuenta de que la física afrontaba cuestiones similares pero de una manera más práctica y era capaz de dar respuestas, no todas, pero sí algunas respuestas". En su despacho en el Laboratorio Europeo de Física de Partículas (CERN), junto a Ginebra, donde trabaja desde hace 16 años, Gianotti, que empezó con los prototipos del Atlas hace 20 años, habla, conjugando precisión y calidez, de la primera etapa de funcionamiento del nuevo acelerador, de los datos ya obtenidos, del universo y del futuro de la física de partículas.Atlas es una máquina de 25 metros de largo, 25 de ancho y otro tanto de alto; pesa más de 7.000 toneladas y está instalada en uno de los puntos donde chocan las partículas del LHC, en una enorme caverna excavada alrededor de ese punto en el túnel del acelerador. "Es un instrumento científico maravilloso, de altísima tecnología y complejidad, que permitirá obtener respuestas importantes y resolver misterios que nos acompañan desde hace décadas. Esto lo hace fascinante. Además, está construido y operado por gente procedente de todo el mundo", dice Gianotti.Pregunta. ¿Ha funcionado bien Atlas durante las primeras semanas de actividad del LHC?Respuesta. Estupendamente, más allá de nuestras expectativas. Hemos registrado casi un millón de colisiones de protones y todo ha ido de forma armónica, como una orquesta, diría yo, desde el detector en el túnel hasta la distribución y análisis de datos y los primeros resultados, las primeras partículas producidas.P. ¿Cuáles son esas primeras partículas?R. Son bien conocidas y de ahí su valor para nosotros porque conocemos sus masas y su comportamiento y nos permiten verificar que nuestro detector funciona correctamente.P. ¿Cómo reaccionó cuando vio en los monitores las primeras colisiones?R. Fue algo completamente dominado por las emociones, por la alegría. Primero por ver las primeras colisiones del nuevo acelerador y luego por comprobar que Atlas funcionaba bien. Pero, sobre todo, por ver a tanta gente eufórica, emocionada... sobre todo tantos jóvenes. Fue una situación humana bellísima, más que científica.P. ¿Cómo se siente dirigiendo un equipo tan grande?R. Es un gran honor y una gran responsabilidad, pero también es una aventura sin precedentes, y el hecho de trabajar con tantos colegas de todas las partes del mundo es una experiencia fantástica. Entre ellos hay casi un centenar de físicos españoles de Barcelona, Madrid y Valencia. Los españoles han hecho aportaciones de gran calidad científica y tecnológica en Atlas, participando de modo muy significativo en todos los aspectos del experimento, desde la construcción del detector a la computación y el análisis de los datos científicos.P. Debe de ser algo muy complicado, la gente ni se conocerá entre sí.R. Estas colaboraciones internacionales funcionan de manera muy especial porque hacen falta una organización y una estructura, pero tienen que ser muy ligeras y flexibles porque no se trata de un ejército, sino de investigadores, y la cuestión es tener ideas, iniciativas y buscar caminos nuevos.P. ¿Qué hacen ahora que el LHC está parado hasta febrero?R. Tenemos mucho que hacer. Estamos analizando los datos que hemos registrado ya, porque tenemos ya algunos resultados preliminares pero queremos hacer análisis más profundos. A la vez estamos haciendo algunas pequeñas calibraciones en los equipos.P. Aunque no se puede anticipar el resultado de la investigación, ¿Apostaría por algún descubrimiento en primer lugar?R. Es muy difícil. En los últimos años, la física teórica ha desarrollado muchas ideas, algunas muy interesantes, muy inteligentes, pero la naturaleza es siempre más bella, más ordenada y más simple que todas las teorías. Para mí, como científica, lo más bonito sería encontrar algo completamente inesperado. Si tuviera que elegir algún escenario que podría verificarse pronto yo diría que será el de las partículas supersimétricas, que podrían manifestarse incluso este año en los datos del LHC. Además, la súper simetría significa una conexión con la cosmología porque estas partículas puede que constituyan la materia oscura del universo. Las teorías supersimétricas predicen la existencia de una partícula llamada neutralino que es nuestro mejor candidato a ser materia oscura. En cuanto al bosón Higgs [la partícula de la masa], no creo que pueda ser descubierto en 2010, requiere tiempo porque hace falta tomar muchos datos.P. Supongo que también los equipos de los demás experimentos del LHC querrán cuanto antes un descubrimiento importante. ¿Es fuerte la competencia?R. Sí, claro que competimos, es inútil negarlo, pero es una competición sana y constructiva. Además, un descubrimiento de un grupo tiene que verlo también el otro para comprobarlo. Esa competencia nos permite hacer las cosas bien y rápido.P. Un científico me ha pedido que le haga una pregunta al respecto: ¿Qué harán los físicos de partículas con el Modelo Estándar si no aparece el Higgs?R. El Modelo Estándar de Física de Partículas ha sido verificado con precisión elevadísima en aceleradores precedentes, como el LEP y el Tevatron, y sabemos que funciona bien a las energías que hemos estudiado hasta ahora. Si no existe el bosón de Higgs hace falta otra cosa para explicar el mecanismo que desempeñe su papel, que dé la masa a las partículas elementales. Habrá que estudiar otras ideas. Hace años que sabemos que el Modelo Estándar no es la teoría final, completa, de las partículas elementales porque hay cosas que no explica. Con el LHC buscamos manifestaciones, indicios, de esta teoría superior.

Los países latinoamericanos, en el epicentro de los terremotos

El seísmo que devastó Haití el pasado 12 de enero, el más poderoso en 200 años, disparó las alarmas en Latinoamérica, una de las regiones del mundo con mayor actividad sísmica. Al menos tres de las fallas geológicas más grandes del mundo atraviesan el continente, y sus movimientos han dejado un rastro devastador.
La mayor fuerza liberada por un terremoto desde que existe la escala de Richter en 1935 se produjo precisamente en la región: la pequeña ciudad de Valdivia (Chile) registró un seísmo de una magnitud de 9,5. La zona de riesgo cruza varias de las principales ciudades latinoamericanas, donde, ante la impredecible voluntad de la naturaleza, sólo queda adoptar medidas de prevención, con distintos resultados en cada país. La falla de Enriquillo causó el devastador terremoto que asoló Haití el pasado 12 de enero. En Norteamérica está la falla de San Andrés que, con una longitud de aproximadamente 1.287 kilómetros, discurre a través de California, en Estados Unidos, y de Baja California, en México, y ha causado decenas de seísmos en la zona. Y la falla de San Ramón se encuentra al oriente de Santiago de Chile y tiene una extensión de unos 25 kilómetros; sin embargo, su relativamente corta longitud no hace mella en su capacidad destructiva. Se encuentra a poca profundidad y por ello es capaz de producir terremotos superiores a los 7,0.El 13 de mayo de 1647 se produjo un terremoto de una magnitud tal que destrozó la capital chilena. La mayoría de los países de la región han puesto en marcha campañas de educación entre la población, que incluyen en muchas ocasiones los simulacros de terremotos, pero las medidas de prevención no son asequibles para los 586 millones de habitantes de la zona, donde tres de cada cuatro habitantes viven en una ciudad.¿Está la región preparada para enfrentar un terremoto? "No se puede estar preparado del todo para un evento así", comenta Jaime Reigosa, coordinador de la Red Sismológica Nacional de Colombia. "Los Gobiernos pueden tomar medidas y emprender campañas educativas de prevención que pueden mitigar los efectos de un seísmo", añade y explica que la zona colombiana que tiene la mayor actividad sísmica es la que tiene costa con el Pacífico. El especialista advierte de que, si bien se han tomado algunas medidas de prevención y se han invertido recursos para evitar los efectos destructores de un temblor, la preparación en su país es "mejorable". "Es necesario que se adopten códigos para que los edificios que no estén construidos con normas que garanticen su resistencia puedan mejorarse para enfrentar una emergencia de este tipo", asegura. "El énfasis lo tenemos que poner en la autoconstrucción, en la divulgación de qué materiales hay que usar y cómo se tiene que edificar. La construcción en adobe, por ejemplo, que hasta hace unos años aún era muy común en Chile, ahora está prohibida por ley", subraya desde su despacho Sergio Barrientos Parra, director científico del Servicio Sismológico de la Universidad de Chile.A lo largo de 2010, el país andino modernizará y ampliará sus equipos de monitoreo y prevención de seísmos gracias a un presupuesto de 18 millones de dólares, aprobado por el Gobierno el año pasado. "Ahora mismo estamos en proceso de compra que esperamos que finalice en marzo. A mediados del año, previsiblemente, comenzaremos con la instalación de 65 estaciones de última generación, capaces de detectar hasta temblores muy chicos, que retransmitirán vía satélite en tiempo real a nuestro centro en la Universidad de Chile", afirma Parra. Como estos instrumentos se saturan con terremotos de grandes dimensiones, colocarán también "200 equipos para medir movimientos fuertes que proporcionarán una información muy valiosa a los ingenieros. Así podremos evaluar el nivel de aceleración en todas partes porque cada subsuelo responde de muy distinta manera, según se trate de roca o sedimento, por ejemplo", agrega.El Servicio Sismológico de la Universidad de Chile cuenta también con el apoyo de la Dirección General de Aeronáutica Civil (DGAC). "Tenemos un convenio con los aeropuertos chilenos que nos dejan usar sus canales de comunicación", destaca el científico. Otra pieza clave del proyecto es el sistema de posicionamiento global. 140 estaciones de este tipo a lo largo de la costa chilena vigilarán su deformación en tiempo real. "Esto nos permitirá saber cuál es el tamaño del terremoto y si dará lugar a un tsunami", indica Parra.El borde occidental de América del Sur es el de mayor actividad sísmica en el mundo. En Perú, la zona de riesgo se extiende "desde el departamento de Tacna, en el extremo sureste del país, hasta el de Tumbes, en el extremo noroeste", explica por teléfono Hernando Tavera, director de la sección de sismología del Instituto Geofísico del Perú. De los muchos terremotos que se han registrado en esa región, dos destacan por la magnitud de los tsunamis que causaron. "El de 1746, que destruyó Lima y arrasó el puerto del Callao, produjo un tsunami con olas de 16 metros de altura. Y el de 1868, que asoló sobre todo las ciudades de Arequipa y Moquegua, en Perú, y de Arica e Iquique, en Chile, provocó un tsunami con olas de 11 metros de altura", apunta Tavera.El Instituto Geofísico es el responsable del monitoreo de la actividad sísmica en Perú. "Tenemos 40 equipos de última tecnología repartidos por todo el país", comenta el científico. Estos aparatos, sin embargo, no parecen suficientes para una reacción eficaz a la pugna de las placas tectónicas. "En 2001 y 2007, durante los dos últimos grandes seísmos en Perú, a pesar de tener equipos de monitoreo modernos, la comunicación falló. Cuando ocurren terremotos importantes, las líneas telefónicas se caen, pero seguimos usándolas como vía de aviso", cuenta Tavera. "Para solucionar ese problema, el Instituto pidió al Gobierno una inversión de un millón de dólares, con el fin de poder establecer una red satelital de alerta temprana de tsunamis y seísmos". En el caso de Perú, cuando ocurre un terremoto cuyo epicentro se encuentra en el mar, necesita 15 o 20 minutos para llegar a la costa. Pero la red de satélites tarda sólo cinco minutos en hacer saltar la alarma, según el director del Instituto Geofísico. Son minutos vitales que se ganan para evacuar a la población costera y avisar a los marineros. "Aún así, el Gobierno no nos brinda esos medios de protección necesarios", se lamenta el experto peruano.Sobre otras medidas de prevención, el geólogo relata que "hay una norma de construcción antisísmica que rige en todo el país y que se aplica en el caso de grandes inmuebles. Pero el común de la gente construye sus propias casas donde puede, sin respetar esos reglamentos". "Los cursos de prevención, sobre construcción y materiales adecuados, impartidos por el Instituto Nacional de Defensa Civil sólo llegan a cierto nivel de la población", añade.

Las pesas mejoran la mente de los mayores

El sillón es uno de los peores enemigos de la tercera edad. A no ser que se trate del asiento de un aparato de gimnasia diseñado para hacer ejercicios de resistencia. Existen numerosas evidencias de que las actividades aeróbicas son muy recomendables para el cerebro de los ancianos, pero las bondades de hacer pesas han sido mucho menos exploradas.
Ahora se sabe que las mujeres mayores que hacen este tipo de entrenamiento experimentan una mejora de sus funciones cognitivas. Y esto se ha comprobado en féminas de entre 65 y 70 años que no lo habían practicado previamente. El trabajo que lo demuestra se acaba de publicar en 'Archives of Internal Medicine'.Los resultados son contundentes, ya que se trata de un ensayo clínico, de 12 meses de duración, realizado de forma controlada. Las participantes fueron divididas en tres grupos. Las de los dos primeros realizaron ejercicios de resistencia de piernas una o dos veces a la semana. Las del tercero tan sólo ejecutaron gimnasia de tonificación y equilibrio. Los investigadores midieron las facultades cognitivas de todas ellas al comienzo del estudio, al cabo de seis meses y transcurrido un año. Las mujeres que hicieron pesas mejoraron su destreza mental en dos aspectos: la resolución de conflictos y la atención selectiva (habilidad para responder a las cuestiones esenciales de una tarea o situación y pasar por alto aquéllas que son irrelevantes). En el plano físico, se observó un efecto positivo en la función muscular y en la velocidad durante la marcha, que está muy relacionada con el riesgo de caídas y discapacidad. Por otra parte, hay estudios que demuestran que ser capaz de caminar a buen ritmo está íntimamente relacionado con las funciones cognitivas. Los responsables del trabajo subrayan que no se puede hablar de una mejora generalizada de las destrezas mentales, sino de una serie de ventajas muy concretas. De hecho, los tests no mostraron ningún impacto de los ejercicios de fuerza sobre la memoria. Las participantes que realizaron el otro tipo de entrenamiento -tonificación y equilibrio- no extrajeron ningún provecho significativo de su esfuerzo. "Estos resultados tienen implicaciones clínicas importantes porque el deterioro cognitivo es uno de los grandes problemas de salud que actualmente carece de una terapia farmacológica eficaz y porque la realización de ejercicio de resistencia no es una práctica extendida entre la tercera edad", concluyen los autores de la investigación.La revista 'Archives of Internal Medicine' publica en el mismo número varios trabajos con un denominador común: los frutos que cosechan las personas mayores que dedican un rato a la semana a 'sudar la camiseta'. Éstos son los principales resultados:DETERIORO COGNITIVOUn estudio llevado a cabo en casi 4.000 alemanes con edades superiores a los 55 años demuestra que la realización de actividad física con una intensidad de moderada a alta reduce la incidencia de deterioro cognitivo al cabo de dos años. Los investigadores recalcan que la disminución de facultades mentales es uno de los factores que más contribuye a la pérdida de independencia de los ancianos.DENSIDAD MINERAL ÓSEAUn programa de ejercicio estructurado mejoró, al cabo de 18 meses, la densidad mineral ósea y el riesgo de caídas en mujeres mayores de 65 años. Así lo constató un ensayo clínico controlado realizado con la colaboración de aproximadamente 250 féminas. No obstante, este entrenamiento no redujo el peligro de sufrir enfermedades cardiovasculares.EJERCICIO EN LA RESIDENCIA Un equipo de investigadores franceses llevó a cabo un ensayo clínico para evaluar los efectos de un programa de actividades adaptadas a personas mayores que vivían en residencias geriátricas y se encontraban en muy baja forma. Tal y como cabía esperar, el ejercicio tuvo un impacto positivo en su deteriorada calidad de vida.A PARTIR DE LOS 70 Ser septuagenario u octogenario no tiene por qué ser sinónimo de sedentarismo. Más bien todo lo contrario. Sin embargo, cuanto antes se empiece a hacer ejercicio, mejor. Un grupo de científicos estadounidenses y británicos ha analizado los datos de más de 13.500 enfermeras. Aquéllas que mantuvieron niveles más elevados de actividad física hacia la mitad de su vida y sobrevivieron más allá de los 70 años lograron llegar a la vejez en mejores condiciones de salud."Nunca habíamos tenido tantas razones para albergar esperanzas respecto al potencial que tiene el ejercicio de convertirse en una estrategia probada y generalizable para promover un envejecimiento exitoso", apuntan los autores de un comentario sobre los nuevos estudios que acaban de ver la luz. Consideran que el imparable crecimiento de la población anciana es razón más que suficiente para seguir avanzando en esta línea.

Entendiendo el código neuronal


En una colaboración entre un laboratorio de la Universidad de Rutgers, otro de la Universidad de Nueva York y el grupo de Neurociencia Computacional de la Universidad Autónoma de Madrid, se han combinado técnicas teóricas y experimentales para mostrar que los circuitos en la corteza cerebral poseen propiedades dinámicas que permiten reducir las correlaciones impuestas por la anatomía. Como se describe a continuación, este fenómeno representa un avance hacia la comprensión del código que usa el cerebro para procesar información.

Las neuronas de la corteza cerebral representan en su actividad la información sensorial que adquirimos de nuestro entorno, así como también las funciones motoras y cognitivas fundamentales. Los neurocientíficos llevan décadas tratando de descifrar el código que utiliza el cerebro para trasformar un estímulo -por ejemplo una imagen que llega a nuestra retina- en secuencias de impulsos eléctricos emitidos por grandes poblaciones de neuronas. Una de las características que más intriga sobre esta codificación es su naturaleza estocástica o aleatoria: a diferencia de una cámara digital que transforma imágenes en palabras binarias (bytes) siguiendo un algoritmo determinista, presentada varias veces una misma imagen a un sujeto, las neuronas de la corteza visual responden cada vez de un modo un poco diferente. Así, las neuronas codifican la presencia de patrones visuales en la imagen con la frecuencia de emisión de impulsos pero el número exacto de éstos parece ser aleatorio. Sólo tras promediar la respuesta sobre un número grande de repeticiones, es posible eliminar la variabilidad y descodificar en la respuesta promedio la presencia, por ejemplo, de una línea en una determinada posición del campo visual. Dado que somos capaces de percibir imágenes sin necesidad de mirarlas repetidamente, se piensa que los efectos de la variabilidad de cada neurona podrían ser evitados si la información estuviese distribuida en una población de miles de neuronas. Cada una de ellas haría una representación "ruidosa" del estímulo, pero promediando sobre la población el cerebro sería capaz de obtener una codificación precisa del mismo. Este simple principio sin embargo, supone que el error que comete cada neurona es independiente del resto. Si por el contrario dicho error estuviese correlacionado (las neuronas tienden a sobre-estimar o sub-estimar alguna propiedad del estímulo de modo conjunto) promediar sobre muchas neuronas no mejoraría sustancialmente la estimación. Y esto es precisamente lo que parece ocurrir con la variabilidad de las neuronas en la corteza cerebral: no es independiente si no que está correlacionada entre las neuronas. Esta observación llevó a los neurocientíficos a conjeturar en los años 90 que dichas correlaciones serían una consecuencia inevitable del modo en que las neuronas están conectadas en los circuitos corticales: la red de conexiones es tan densa, que la actividad de una neurona se ve afectada por la actividad de otras neuronas en su misma población, de modo que su estimación está influida por la de las demás y no es independiente. Este hecho implicaría que el código neuronal sería intrínsecamente estocástico lo que pondría límites demasiado estrictos en la precisión con la que podemos percibir por ejemplo imágenes, sonidos u otros estímulos.En el trabajo, llevado a cabo por investigadores del grupo de Neurociencia Computacional de la Universidad Autónoma de Madrid, del Quantitative Neuroscience Laboratory de la Universidad de Rutgers y del Center for Neural Science de la Universidad de Nueva York y publicado en Science, han podido demostrar que las correlaciones entre neuronas no son una consecuencia inevitable de la conectividad de los circuitos corticales. Para ello han combinado el análisis matemático de redes de neuronas con experimentos en los que se toman registros simultáneos de la actividad de una población de neuronas en ratas anestesiadas. Empleando técnicas teóricas han descubierto que la dinámica neuronal del circuito es de una naturaleza tal que permite eliminar en gran medida las correlaciones entre neuronas.En modo efectivo, las neuronas actúan como si fuesen independientes. Esto ocurre incluso en circuitos corticales con conectividad muy densa. A través de la realización de una serie de experimentos han mostrado que, en ciertas condiciones, poblaciones de neuronas de la corteza cerebral de la rata pueden funcionar en este estado de actividad asíncrona (independiente). Este resultado tiene consecuencias importantes sobre el entendimiento del código neuronal porque abre la posibilidad de que no sea intrínsecamente estocástico.

Creado el primer prión infeccioso sintético

Científicos de EE.UU. han conseguido reproducir en el laboratorio el sutil cambio en la forma de una proteína que desencadena enfermedades como el mal de las vacas locas y su versión humana.
Los responsables son los priones, unas proteínas presentes en animales y hombres que normalmente son inofensivas, pero que se convierten en un agente letal e infeccioso cuando cambian de forma. Hasta ahora, era un misterio cómo un prión bueno se convierte en uno malo. El nuevo estudio, que publica Science, adelanta una hipótesis que aún habrá que confirmar. Indica que un prión saludable se transforma en letal cuando entra en contacto con lípidos (grasas), el componente básico de las membranas que recubren las células.Se trata de compuestos muy peligrosos, pues las encefalopatías que causan en el ganado y humanos son incurables.Jiyan Ma, el investigador de la Universidad Estatal de Ohio que dirige el estudio, justifica la necesidad de crear estos compuestos: "Si conseguimos entender cómo se forman los priones nocivos, podremos desarrollar un tratamiento contra ellos". Añade que las instalaciones en las que trabajan están "totalmente aisladas" y que "no hay ninguna posibilidad de que el agente infeccioso salga del laboratorio".PROTEÍNAS SUBVERSIVASLos priones causan la encefalopatía bovina espongiforme que comenzó a detectarse en vacas en 1986 y que después saltó al hombre a bordo de carne infectada. En las personas, los priones provocan el mal de Creutzfeldt-Jakob. Cuando las proteínas nocivas entran en el organismo, transforman a las sanas y las vuelven agresivas. Dejan el cerebro lleno de agujeros microscópicos y deterioran sus funciones cognitivas y motoras, provocando la muerte en unos doce meses.Dado su carácter infeccioso, algunos expertos dudaban de que estas proteínas fueran las causantes de la enfermedad.Ma, que ha colaborado con investigadores chinos, confirma ahora que los priones son los únicos responsables del mal. Tras producir priones sanos, el equipo de Ma consiguió cambiar su forma añadiéndoles lípidos y cargas eléctricas negativas. Una vez inyectados en ratones, desencadenaron la enfermedad. "Ahora queremos entender este proceso y destruir la capacidad infecciosa de los priones", concluye el investigador.

Descubierta una relación entre la proporción áurea y la simetría atómica

Investigadores en Alemania y Reino Unido han descubierto una simetría oculta en materia en estado sólido a muy pequeña escala. Los descubrimientos, publicados en la revista Science, indican que la simetría presenta la proporción áurea, famosa en las artes y la arquitectura.
La investigación contó con el apoyo del proyecto NMI3 («Iniciativa de infraestructuras integradas para dispersión de neutrones y espectroscopía de muones»), financiado con 21 millones de euros mediante el área temática «Coordinación de actividades de investigación» perteneciente al Sexto Programa Marco (6PM). La comunidad científica sostiene que los comportamientos inesperados e incluso irracionales son comunes en las partículas a escala atómica o cuántica. La aparición de propiedades nuevas se debe a lo que los expertos llaman «principio de incertidumbre de Heisenberg», el cual afirma que no es posible conocer con exactitud la posición y la velocidad de un objeto al mismo tiempo. El efecto sólo es apreciable a escala subatómica.En el trabajo referido, los investigadores estudiaron el material magnético niobato de cobalto, cuya estructura está compuesta por cadenas de átomos magnéticos de tan sólo un átomo de grosor. Según los autores, el niobato de cobalto es útil para describir el ferromagnetismo presente en materiales en estado sólido a escalas diminutas.La cadena magnética se transforma en un nuevo estado denominado «crítico cuántico» al aplicarle un campo magnético en ángulo recto al espín alineado, según explicaron representantes del equipo. El crítico cuántico, señalan, puede considerarse como una versión cuántica de un fractal.«El sistema alcanza una incertidumbre cuántica, o estado del gato de Schrödinger [que presenta dos condiciones diametralmente opuestas al mismo tiempo]», explicó el profesor Alan Tennant del Centro Helmholtz de Berlín de Materiales y Energía (HZB, Alemania), coautor del estudio. «Esto es lo que logramos mediante nuestro experimento con niobato de cobalto. Ajustamos el sistema con precisión para volverlo crítico cuántico.»Los investigadores descubrieron que cuando ajustaban el sistema e introducían de forma artificial más incertidumbre cuántica, la cadena de átomos se comportaba como una cuerda de guitarra nanométrica. Para observar las vibraciones del sistema a escala atómica utilizaron una sonda especial denominada «dispersión de neutrones».«En este caso la tensión se origina a partir de la interacción entre los espines, lo que provoca resonancia magnética», indicó el Dr. Radu Coldea de la Universidad de Oxford (Reino Unido), autor principal del estudio. «Hemos descubierto una serie (escala) de notas resonantes en estas interacciones: las primeras dos notas muestran una relación perfecta entre sí. Sus frecuencias (tonos) se hallan en la proporción de 1,618..., que se corresponde con la proporción áurea famosa en los ámbitos artístico y arquitectónico.»La ciencia indica que, tanto en las matemáticas como en el arte, dos cantidades guardan una proporción áurea si la relación de la suma de las cantidades a la cantidad mayor es igual a la relación que existe entre la cantidad mayor y la menor.El Dr. Coldea subrayó que este hecho no es una coincidencia. «Representa una propiedad estética del sistema cuántico, una simetría oculta. De hecho es una muy especial denominada E8 por los matemáticos y esta es la primera vez que se observa en un material.»Las teorías matemáticas desarrolladas para la física de partículas podrían hacerse hueco en la ciencia nanométrica y podrían fomentar el desarrollo tecnológico en un futuro, según los investigadores.«Estos descubrimientos conducen a los científicos a pensar que el universo cuántico y atómico podría estar regido por sus propias leyes», indicó el profesor Tennant, director del equipo del HZB, y añadió que «sorpresas semejantes pueden aguardar a la ciencia en otros materiales en el estado crítico cuántico.»En el proyecto NMI3 participan investigadores de República Checa, Dinamarca, Alemania, Hungría, Países Bajos, Polonia, Rusia, Suecia y Reino Unido.

Nuevos Hallazgos Sobre un Fármaco Anticáncer Procedente de un Hongo

Un medicamento prometedor contra el cáncer, hallado por primera vez en un hongo comúnmente utilizado en la medicina china, podría ser mucho más eficaz gracias a los investigadores que han descubierto cómo actúa el medicamento. La investigación se llevó a cabo en la Universidad de Nottingham.
La Dra. Cornelia de Moor de la Universidad de Nottingham y su equipo han investigado el fármaco llamado cordicepina, que fue originalmente extraído de una rara especie de hongo y ahora se prepara a partir de una forma de cultivo.Este descubrimiento abre la posibilidad de investigar la gama de diferentes tipos de cáncer que podrían tratarse con cordicepina. Los investigadores también han desarrollado un método muy eficaz que puede ser utilizado para probar versiones nuevas más eficientes o más estables del medicamento en la placa de Petri. Esto supone una gran ventaja ya que permitirá a los científicos descartar todas las versiones ineficaces antes de comenzar los ensayos en animales.
google_protectAndRun("ads_core.google_render_ad", google_handleError, google_render_ad);
El organismo del que deriva el fármaco es un hongo parásito extraño que crece en las orugas. Las propiedades que en la medicina china se le atribuyen a este hongo hicieron del mismo un material interesante de investigación, y ha sido estudiado durante algún tiempo. De hecho, la primera publicación científica sobre la cordicepina data de 1950. El problema fue que, aunque la cordicepina era un fármaco prometedor, se degradaba con demasiada rapidez en el cuerpo. Ahora se puede administrar con otro fármaco para evitar esto, pero los efectos secundarios del segundo medicamento limitan su uso potencial.Debido a los obstáculos técnicos y a que no ha habido una labor constante de investigación sobre este tema, ha tomado mucho tiempo descifrar con exactitud cómo la cordicepina actúa en las células.Con el nuevo conocimiento obtenido ahora, será posible predecir qué tipos de cáncer pueden ser vulnerables al fármaco y qué otros medicamentos contra el cáncer se podrían combinar eficazmente con este producto.Lo descubierto en el reciente estudio también podría sentar las bases para el diseño de nuevas medicinas contra el cáncer que funcionen bajo el mismo principio.

domingo, 24 de enero de 2010

El 'footing' potencia el cerebro

Millones de personas salen a diario a correr en todo el mundo. Unos por mantener a los kilos a raya. Otros para reducir el riesgo de sufrir un problema cardiovascular. Lo que no sabían hasta ahora era que sus hábitos les reportaban un beneficio añadido: mejorando sus conexiones neuronales y potenciando su capacidad mental.
Éstas son las conclusiones que se desprenden del trabajo de científicos británicos y estadounidenses, que han descubierto en el ejercicio aeróbico beneficios inéditos para el cerebro. Entre ellos, la generación de neuronas en el hipocampo y una mejora notable de la actividad mental.El estudio es obra del Departamento de Neurociencia de la Universidad de Cambridge y del Instituto Nacional de Envejecimiento del estado norteamericano de Maryland, que extrajeron sus conclusiones de un minucioso trabajo con ratones cuyos detalles se acaban de publicar en la revista 'Proceedings of the National Academy of Sciences' (PNAS).La mecánica del estudio es sencilla. Los científicos trabajaron con dos grupos de ratones: el primero tenía acceso ilimitado a la rueda corredera de su jaula y el segundo no. A los dos grupos se les sometió al mismo ejercicio de memoria poniéndoles delante de una pantalla de ordenador con dos cuadrados idénticos. Si tocaban el cuadrado de la izquierda, se les premiaba con un azucarillo. Si tocaban el de la derecha, no recibían nada a cambio.Después de pasar el día entrenando o vegetando, los científicos colocaron de nuevo a los ratones delante de la pantalla y les sometieron a un ejercicio similar, conminándoles a distinguir entre los dos cuadrados. Al principio separados por 30 centímetros y poco a poco cada vez más cerca hasta estar casi pegados el uno al otro.El resultado no pudo ser más revelador. Los ratones corredores doblaron en aciertos a sus colegas sedentarios, incapaces de recordar cuál era el cuadrado del azúcar con la misma facilidad que sus rivales. La diferencia entre unos y otros se hizo más palpable a medida que los científicos complicaban el procedimiento de la prueba, primero acercando los cuadrados y luego cambiando la posición del cuadrado que generaba recompensa.MÁS NEURONASLa relevancia del hallazgo la explicaba en el diario 'The Guardian' uno de los autores del informe, Timothy Bussey, responsable del Laboratorio de Sistemas Cognitivos y Neurociencias de la Universidad de Cambridge. "Ahora sabemos a ciencia cierta que el ejercicio puede ser bueno para las funciones cerebrales", decía Bussey, científico de la conducta y miembro de la nómina de autores del trabajo.Pero la mejora de la capacidad cerebral es tan sólo una de las conclusiones del estudio. La otra es que el ejercicio aeróbico es capaz de potenciar el crecimiento de neuronas en el hipocampo: una de las pocas regiones cerebrales capaces de generar nuevas células durante la edad adulta. Los científicos llegaron a esta conclusión al analizar el tejido cerebral de los ratones del estudio. El de los ratones corredores había generado una media de 6.000 neuronas nuevas por milímetro cúbico."Fueron precisamente esas nuevas células las que marcaron la diferencia en los últimos compases del estudio", explica Bussey, "cuando los ratones debían analizar recuerdos muy similares porque los cuadrados eran cada vez más parecidos".Habrá quien piense que ratones y cuadrados tienen poco que ver con las delicadezas del cerebro humano. Una objeción a la que, sin embargo, responden los autores del estudio, que comparan el ejercicio al que se enfrentan los ratones a experiencias de la vida cotidiana de las personas. El equivalente humano al recuerdo del cuadrado del azúcar sería ser capaz de distinguir la cena de ayer y la del lunes o discernir entre el lugar donde aparcamos el coche en las dos últimas visitas al hipermercado.En este sentido, la generación de neuronas nuevas es importante porque se produce en una área vinculada a la formación de la memoria. Así pues, salir a correr podría mejorar el aprendizaje de los jóvenes y atenuar el deterioro de la habilidad mental en las personas mayores.

viernes, 22 de enero de 2010

Sale a la luz el manuscrito original de la historia de Newton y la manzana

El manuscrito que relató originalmente la historia de cómo el científico británico Isaac Newton inspiró sus teorías físicas a partir de la caída de una manzana sale este lunes a la luz por primera vez de los archivos de la Royal Society de Londres.
Los detalles del 'eureka' de Newton (1643-1727) cuando dio con la clave para formular su famosa teoría de la gravedad forman parte de una biografía del científico, escrita por William Stukeley en 1752.Hasta ahora había permanecido escondida en los fondos de la Royal Society, que celebra en 2010 su 350 aniversario y que quiere hacer coincidir las efemérides con la publicación del manuscrito a través de la siguiente página web: www.royalsociety.org/turning-the-pagesMartin Rees, presidente de esta organización científica -que en su día también presidió Newton-, explicó que "la biografía de Stukeley es un instrumento precioso para los historiadores de ciencia" y aseguró que acceder por Internet al documento "permite a cualquier persona verlo como si lo tuviera en sus manos".Según explico Rees, el biógrafo Stukeley era amigo de Newton y fue testigo de sus reflexiones en torno a la teoría de la gravedad cuando ambos estaban sentados bajo la sombra de los manzanos que el científico tenía en el jardín de su casa.En un extracto de su libro 'La vida de sir Isaac Newton', Stukeley escribió: "me dijo que había estado en esta misma situación cuando la noción de la gravedad le asaltó la mente. Fue algo ocasionado por la caída de una manzana mientras estaba sentado en actitud contemplativa. ¿Por qué esa manzana siempre desciende perpendicularmente hasta el suelo?, se pregunto a sí mismo". Newton fue el primer científico que demostró que las leyes naturales que gobiernan el movimiento en la Tierra y las que gobiernan el movimiento de los cuerpos celestes son las mismas.Es calificado como el científico más grande de todos los tiempos, y se habla de su obra como la culminación de la revolución científica que se produjo en el siglo XVIII.

Cuaderno de bitácora estelar. Rascacielos, ascensores, mareos y un poco de física

El 4 de enero se inauguró en Dubai el rascacielos Burj Khalifa, hoy por hoy el edificio más alto del mundo con 818 metros de altura. A raíz de ese acto, escuché en una emisora de radio el siguiente comentario: "...y una especial advertencia para aquellas personas que se mareen, porque los ascensores suben y bajan a una velocidad de 10 metros por segundo..." (he puesto letra cursiva en la velocidad adrede).
¡Caramba! O sea, que según la locutora que leyó la noticia, esta velocidad puede ser motivo de mareo. Vamos a aprovechar este comentario para aclarar algunas cosas y de paso tener una pequeña clase de física.Bien, lo primero que quizás haya que indicar es que 10 metros por segundo (10 m/s en notación científica) no es una velocidad demasiado alta. Si multiplicamos ese número por los 3600 segundos que tiene una hora obtenemos una velocidad de 36000 m/h, o sea, 36 km/h... no demasiado si tomamos como referencia cualquier vehículo con el que nos movemos de forma cotidiana. Una buena referencia es la velocidad de un corredor de 100 metros lisos: en los Campeonatos del Mundo de Atletismo que se celebraron en Berlín en agosto de 2009, el atleta Usain Bolt corrió esa distancia en 9.58 segundos, y una sencilla operación nos da 100 m (espacio) dividido entre 9.58 s (tiempo) = 10.44 m/s, es decir, un poquito más deprisa que los ascensores del rascacielos.

Los omega 3 frenan el envejecimiento celular

También conocidos como vitamina F, los ácidos grasos omega 3 han demostrado su capacidad para alargar la vida de los enfermos coronarios. Sin embargo, no estaba claro cómo lo hacen. Ahora, un estudio publicado en 'JAMA' indica que la presencia de altos niveles en sangre de estas moléculas protege a los telómeros, unas estructuras situadas en los cromosomas relacionadas con el envejecimiento celular.

La Asociación Médica de Estados Unidos recomienda aumentar la ingesta de ácidos grasos omega 3 como herramienta para prevenir la aparición de enfermedades cardiovasculares tras comprobar su capacidad para aumentar la esperanza de vida de los pacientes que las sufren. Entre los posibles mecanismos subyacentes a este fenómeno están acciones antiinflamatorios, antihipertensivos o antiplaquetarios, pero lo cierto es que se desconoce cómo funcionan exactamente.Un grupo de investigadores de la Universidad de California (San Francisco, Estados Unidos) pensaron que este efecto protector podría tener que ver la longitud de los telómeros, un marcador de la edad biológica. Estas estructuras son secuencias repetitivas de ADN que forman una especie de tapa protectora en el extremo de los cromosomas, "como el tope de plástico que se pone en el extremo de los cordones", explica Ramin Farzaneh-Far, líder del estudio. Cada vez que una célula se divide todo su material genético se debe duplicar. En ese proceso, los telómeros suelen acortarse. Con el paso del tiempo, cuando su longitud llega a un punto crítico, la célula muere. Conocer cuánto miden los telómeros es pues un buen indicador del envejecimiento de un organismo.TELÓMEROS MÁS LARGOS, CÉLULAS MÁS JÓVENESProcedentes de un gran estudio que está analizando la relación de los factores psicosociales con las enfermedades cardiovasculares, los investigadores seleccionaron a 1.000 sujetos que padecían alguno de estos trastornos y midieron sus niveles en sangre de ácido decosahexaenoico (DHA) y eicosapentaenoico (EPA). Después, midieron la longitud de los telómeros de sus leucocitos (glóbulos blancos). Cinco años después, volvieron a medirlos.Los resultados, después de ajustarlos frente a posibles factores de confusión, sugieren que de alguna forma la presencia de omega 3 en la sangre ralentiza el ritmo al que se acortan los telómeros. Aquellas personas que al inicio tenían las mayores concentraciones sanguíneas de estos ácidos grasos, al cabo de cinco años habían sufrido una menor destrucción de estas estructuras, comparado con los que tenían los niveles más bajos.Para verificar este fenómeno y averiguar cómo se produce exactamente serán necesarios nuevos estudios. Mientras tanto, los autores apuntan dos posibles explicaciones. Que los omega 3 frenen de algún modo el estrés oxidativo, "un potente conductor del acortamiento de los telómeros", o que aumenten la actividad de la telomerasa, la enzima que alarga estas estructuras. "En resumen -concluye el trabajo-, en pacientes con enfermedad coronaria estable, existía una relación inversa entre los niveles en sangre de ácidos grasos omega 3 y la tasa de acotamiento de los telómeros al cabo de cinco años".

PROYECTO HAARP!!! ...RUSOS DICEN QUE ESTE FUE LA CAUSA DEL TERREMOTO HAITI

Quizás a algunos no les suenen estas siglas, pero pertenecen a un misterioso proyecto de la Fuerza Aérea norteamericana cuyas siglas HAARP, High Frequency Advanced Auroral Research Project. Traducido al español sería, Programa de Investigación de Aurora Activa de Alta Frecuencia. En unas instalaciones militares situadas en Gakona, Alaska, se está desarrollando un misterioso proyecto el cual consiste en 180 antenas que funcionando en conjunto será como una sola antena que emitirá 1 GW =1.000.000.000 W, es decir un billón de ondas de radio de alta frecuencia las cuales penetran en la atmósfera inferior e interactúan con la corriente de los elecrojets aureales.
En este sentido debemos reseñar que la tierra se encuentra envuelta y protegida por la atmósfera. La troposfera se extiende desde la superficie terrestre hasta unos 16 km de altura. La estratosfera, con su capa de ozono, se sitúa entre los 16 y 48 km de altura. Mas allá de los 48 km tenemos la ionosfera que llega hasta los 350 km de altura. Los cinturones de Van Allen se sitúan a distancias superiores y tienden a captar las partículas energéticas que tratan de irrumpir en la tierra desde el espacio exterior.
En este sentido el proyecto HAARP es uno de tantos que lleva a cabo la Marina y la Fuerza Aérea de EEUU. Otros proyectos militares implicaban o han implicado el estudio de la ionosfera, la alta atmósfera y el uso de satélites espaciales con fines más o menos singulares, vendiéndose su utilización con fines, principalmente, no bélicos. Por citar alguno otros, tenemos :
Project Starfish (1962) Se trataba de realizar experimentos en la ionosfera, alterar las formas y la intensidad de los cinturones de Van Allen, etc..
SPS: Solar Power Satellite Project (1968). Proyecto por el cual se quería generar una constelación de satélites geostacionarios capaz de interceptar la radiación solar y transmitirla en rayos concentrados de microondas a la tierra para su uso posterior.
SPS Military Implications (1978). El proyecto SPS se rehizo para adaptarlo a fines militares. La constelación de satélites podría usar y concentrar la radiación solar para ser usada como un rayo capaz de destruir misiles u objetos enemigos, alterar las comunicaciones que utilizarán la ionosfera como pantalla reflectora, etc…
Y más experimentos donde la alteración local de la capa de la alta atmósfera, combinada con la existencia de multitud de satélites ha sido el objeto fundamental de los experimentos. Todos ellos vendidos al gran publico como proyectos para realizar estudios, comprender, mejorar nuestro conocimiento de la física de la alta atmósfera. Incluso, han aparecido mensajes de la administración donde se hablaba de incrementar el nivel de ozono estratosférico y realizar estudios del impacto del cambio climático en nuestro mundo.

Antenas del proyecto HAARP en Gakona, Alaska.
Por lo tanto, HAARP es uno más de estos proyectos militares llevados a cabo por la Defensa americana. Volvamos a lo que conocemos de este proyecto.
Los pulsos emitidos artificialmente estimulan a la ionosfera creando ondas que pueden recorrer grandes distancias a través de la atmósfera inferior y penetran dentro de la tierra para encontrar depósitos de mísiles, túneles subterráneos, o comunicarse con submarinos sumergidos, entre mucha otras aplicaciones.
¿Qué es el Electrojet?. Hay una electricidad flotando sobre la Tierra llamada electrojet aureal, al depositar energía en ella se cambia el medio, cambiando la corriente y generando ondas LF (Low Frecuency) y VLF (Very Low Frecuency). HAARP tiene la intención de acercar el electrojet a la Tierra con el objetivo de aprovecharlo en una gran estación generadora.
HAARP enviará haces de radiofrecuencia dentro de la ionosfera, los electrojet afectan al clima global, algunas veces durante una tormenta eléctrica llegan a tocar la Tierra, afectando a las comunicaciones por cables telefónicos y eléctricos, la interrupción de suministros eléctricos e incluso alteraciones en el estado del ser humano.
El HAARP actuaría como un gran calentador ionosférico, el más potente del mundo. En este sentido podría tratarse de la más sofisticada arma geofísica construida por el hombre.

Vista parcial de las instalaciones HAARP en Alaska
¿Un proyecto con intención de manipular el mundo?
Hasta aquí hemos descrito la parte "oficial" de la cuestión, pero ¿por qué hay quien cree que detrás de HAARP se oculta algo más?, ¿ extraños experimentos de modificación del clima, de control de la mente y de producir incluso terremotos ?.
Ciertamente algo de base científica asoma en todo este asunto, HAARP con sus cientos de millones de vatios de potencia y antenas se puede considerar como un verdadero "calefactor" de la alta atmósfera, provocando una tremenda ionización que puede acarrear consecuencias imprevisibles, y que gracias a su efecto "espejo" podría dirigir sus efectos hacia cualquier zona del planeta. Estaríamos hablando de un nuevo tipo de arma, capaz de intensificar tormentas, prolongar sequías, sobre territorio de un supuesto enemigo, y perjudicándolo sin que este se diera cuenta sin mas … ¿ ficción ?.
El proyecto es tan controvertido como peligroso. Sus defensores aducen un sinfín de ventajas de carácter científico, geofísico y militar, pero sus detractores están convencidos de que podrían tener consecuencias catastróficas para nuestro planeta, desde arriesgadas modificaciones en la ionosfera, hasta la manipulación de la mente humana.El científico Nick Begich junto a la periodista Jeanne Manning realizaron una profunda investigación sobre le tema fruto del cual vio la luz el libro "Angels don’t play this harp" (Los ángeles no tocan esta arpa),en el que ambos autores plantean inquietantes hipótesis, una de ellas es que de ponerse en marcha dicho proyecto podría tener peores consecuencias que las pruebas nucleares
De acuerdo con la Dra. Rosalie Bertell, HAARP forma parte de un sistema integrado de armamentos, que tiene consecuencias ecológicas potencialmente devastadoras.
"Se relaciona con cincuenta años de programas intensos y crecientemente destructivos para comprender y controlar la atmósfera superior. Sería precipitado no asociar HAARP con la construcción del laboratorio espacial que está siendo planeado separadamente por los Estados Unidos. HAARP es parte integral de una larga historia de investigación y desarrollo espacial de naturaleza militar deliberada. Las implicaciones militares de la combinación de estos proyectos son alarmantes… La capacidad de la combinación HAARP/Spacelab/cohete espacial de producir cantidades muy grandes de energía, comparable a una bomba atómica, en cualquier parte de la tierra por medio de haces de láser y partículas, es aterradora. El proyecto será probablemente "vendido" al público como un escudo espacial contra la entrada de armas al territorio nacional o, para los más ingenuos, como un sistema para reparar la capa de ozono".
Fuera de la manipulación climática, HAARP tiene una serie de otros usos relacionados: "HAARP podría contribuir a cambiar el clima bombardeando intensivamente la atmósfera con rayos de alta frecuencia. Convirtiendo las ondas de baja frecuencia en alta intensidad podría también afectar a los cerebros humanos, y no se puede excluir que tenga efectos tectónicos".
Así pretenden manipular el clima
Por si fuera poco, a la posible manipulación de las mentes humanas y las modificaciones en la ionosfera habría que sumar nuevos efectos negativos. El propio creador del calentador ionosférico del proyecto HAARP, Bernard Eastlund, asegura que su invento podría, también, controlar el clima. Una afirmación que ha llevado a Begich a concluir que si el HAARP operase al cien por cien podría crear anomalías climatológicas sobre ambos hemisferios terrestres, siguiendo la teoría de la resonancia tan empleada por el genial Nikola Tesla en sus inventos. Un cambio climatológico en un hemisferio desencadenaría otro cambio en el otro hemisferio. Una posibilidad que no se debe descartar, sobre todo a tenor de las opiniones de científicos de le Universidad de Stanford, que aseguran que el clima mundial podría ser controlado mediante la transmisión de señales de radio relativamente pequeñas, a los cinturones de Van Allen. Por resonancia, pequeñas señales activadoras pueden controlar energías enormes.
Esquema de la utilización de la ionosfera como parte re emisora de rayos energéticos emitidos desde tierra
La evidencia científica reciente sugiere que el HAARP está en funcionamiento y que tiene la capacidad potencial de desencadenar inundaciones, sequías, huracanes y terremotos. Desde un punto de vista militar, HAARP es un arma de destrucción masiva. Potencialmente, constituye un instrumento de conquista capaz de desestabilizar selectivamente los sistemas agrícolas y ecológicos de regiones enteras.
¿Cómo se alteraría el clima con este proyecto?
Se ha sugerid en diversos trabajos científicos que los vientos de la alta altmósfera ( sobre los 50 km de altura) juegan un papel importante en el chorro, que a su vez controla las estructuras de tiempo en superficie. Otros autores han estudiado el “auroreal electrojet”, y han encntrado que existe una relación muy estrecha con los vientos a 80 km de altura. Por lo tanto los sistemas electrojet – vientos troposféricos están, aparentemente, correlacionados.
Uno de los objetivos del HAARP es modular las corrientes del electrojet y así afectar a la intensidad y dirección de os vientos zonales y del chorro.Por otra parte, el poder “calentar” ciertas zonas hostiles del globo podría generar las condiciones meteorológicas para producir sequías.
Deberemos estar pendientes de este proyecto enigmático. Se preveé que en Groenlandia y Noruega se instalen o se hayan instalado nuevas antenas dentro del proyecto HAARP. En otras islas del Pacífico se supone que se han instalado otras tantas antenas del proyecto HAARP.
Las primeras pruebas operativas se esperan que se realicen en el 2003.
¿Estaremos viviendo el comienzo de una nueva era de armas geofísicas capaces de modificar el clima a escala local y ser empleadas contra países hostiles ?
¿Quien fue Nikola Tesla?
Para terminar, no queremos olvidarnos de este inventor de nuestro tiempo que, directa o indirectamente, está relacionado con el HAARP.
Nikola Tesla fue uno de los sabios menos conocidos de nuestra época. Nació en Croacia (1856) y murió en Nueva York (1943). Tesla fue ante todo un inventor. Inventó la corriente alterna y el motor de inducción electromagnética, turbinas muy eficientes, etc.. Algunos le atribuyen la invención de la radio, pero su idea, según parece, se la tomaron Marconi y Edison. Tesla fue experto en termodinámica, energía solar, rayos X y cósmicos, etc.
Inventó un sistema de transmisión de energía inalámbrica: transmitir energía sin medio físico. Consiguió encender a un conjunto de lámparas de 50 vatios a 40 km de distancia y lanzó la idea de poder concentrar y transmitir energía a grandes distancias. Tesla fue un visionario y adelantado de su tiempo ya que pronostico la invención de la televisión, potenciales usos de satélites venideros y el posible uso de máquinas del tiempo capaz de controlarlo a grandes distancias (¡antes de 1910!).
El proyecto HAARP parte de la idea originaria de Tesla: poder transmitir potentes ondas electromagnéticas que se puedan reflejarse en la ionosfera y así alcanzar grandes distancias.

sábado, 16 de enero de 2010

El stress provoca cancer:

Investigadores chinos y estadounidenses han demostrado por primera vez que existe una relación directa entre el cáncer y el estrés. La investigación que lo demuestra se publica en la revista «Nature» y, en ella, se explica cómo las células víctimas del estrés pueden emitir señales que inducen al desarrollo de tumores que afectan a las células sanas vecinas.
El estudio se realizó en moscas de la fruta, si bien los mismos genes y secuencias biológicas implicadas en este proceso se encuentran presentes en los humanos. MALAS Y BUENAS NOTICIASEl máximo responsable de la investigación, el profesor Tian Xu, de la Universidad de Connecticut (EE.UU.), considera el hallazgo «malas noticias», porque «hay una gran variedad de condiciones en la vida diaria que pueden desencadenar el estrés físico y emocional, además de las infecciones y la inflamación». En definitiva, el trabajo demuestra que es más fácil de lo que se pensaba desencadenar un tumor en el organismo, tras constatar que es más probable que las mutaciones se ceben en varias células distintas que en una sola. Por otro lado, la buena noticia es que también identifica una potencial nueva diana para detener el cáncer, si se consigue bloquear el origen de la señal de estrés que reciben las células.

Los futuros del libro. Lectura, marihuana y correos electrónicos

El semanario alemán Die Zeit dedicaba estas pasadas navidades muchas páginas a reflexionar sobre los efectos que el bombardeo digital al que estamos sometidos condiciona nuestras vidas; también a los trastornos que la velocidad y la falta de sosiego tienen sobre nuestras capacidades intelectuales.
El reportaje de varias páginas titulado "Alabanza de las musas", recalcaba la función cognitivamente trascendental de la quietud y el sosiego, del solaz y el letargo. Los experimentos de los neurólogos, como los llevados a cabo por Marcus Raichle o Jan Born, demuestran que el modo offline o desconectado del cerebro (cuando duerme pero, también, cuando descansa y deja de estar sometido a las incitaciones digitales o a las premuras de la agenda), es simplemente imprescindible para adquirir una conciencia cabal de nuestra propia identidad, para rumiar nuestros problemas y para aportar soluciones o ideas innovadoras fruto de esa digestión pausada.Lo contrario es también cierto: la exposición desmedida a las provocaciones de las muy diversas fuentes digitales de información y el picoteo fragmentario e indiscriminado de pizcas de contenidos, no generan una experiencia cognitiva satisfactoria. "El bombardeo diario de información", dice Born, "causa en el cerebro un desequilibrio peligroso a no ser que existan pausas que le permitan recuperarse. Esa oportunidad la utiliza para reconstruir y reorganizar su red neuronal construida a bases de células nerviosas, para ordenar y organizar lo aprendido".

La tristeza no se cura con una píldora

Es el quinto grupo de fármacos más consumido en España (según los últimos datos disponibles, de 2007), pero, según un estudio publicado recientemente en la revista JAMA, millones de pacientes podrían estar tomándolos inútilmente. Son los antidepresivos, esas píldoras en las que los españoles gastaron más de 600 millones de euros ese mismo año.
El trabajo, que analiza datos de seis ensayos clínicos en los que se compara su eficacia con la acción de un placebo, concluye que los fármacos sí ayudan a las personas con depresión, pero sólo a quienes la padecen en una forma grave. Pero ¿qué es una depresión grave? Para definirla, los autores se basan en la escala de Hamilton, un test de 17 preguntas que cuantifica el problema del paciente. La puntuación máxima sería 51 y, según el estudio de JAMA, la necesaria para responder a los antidepresivos sería, al menos, de 25, aumentando la eficacia de los fármacos cuanto más alto se está en la escala. Según explican los autores, el beneficio para los pacientes con depresión muy grave es "sustancial", pero, en aquellos que puntúan menos en la escala de Hamilton, no hay diferencia entre prescribir un fármaco o un placebo. Si el resultado que desvelan los investigadores dirigidos por el psicólogo de la Universidad de Pensilvania (EE.UU.) Jay Fournier es real, es evidente que en España (y, probablemente, en la mayoría de los países desarrollados), se prescriben más antidepresivos de los necesarios, como lo demuestran las cifras.En 2007, último año del que el Ministerio de Sanidad y Política Social ha facilitado datos, se consumieron en España más de 15 millones de envases de inhibidores selectivos de la recaptación de la serotonina (ISRS), un tipo de antidepresivos. Pero a esa cifra hay que sumarle las más de siete millones de cajas pertenecientes al grupo de "otros antidepresivos". En total, son casi 23 millones de envases de este tipo de fármacos. Según el psiquiatra del Hospital Clínic de Barcelona, Víctor Navarro, es cierto que en España se recetan antidepresivos a personas que no padecen depresión, pero esto no quiere decir que los fármacos sean inútiles. "Hay que distinguir entre tristeza y depresión; los antidepresivos curan la depresión y no la tristeza, pero sí hacen que la persona triste lleve mejor su estado de ánimo, por lo que le ayudan", señala este especialista.Para Navarro, no existen depresiones leves, y lo que los autores del estudio califican como tal son casos de tristeza. En su opinión, gran parte de los pacientes que acceden a participar en un ensayo clínico para evaluar un nuevo fármaco, como los analizados por Fournier y sus colaboradores en este estudio, son personas tristes y no deprimidas. Diferenciar entre depresión y tristeza no es fácil, ya que no existe ninguna prueba de diagnóstico objetivo que lo haga. "Esto no es como un tumor cerebral, que haces una resonancia y lo ves; una persona triste puede perfectamente dar una puntuación muy alta en la escala de Hamilton", resume Navarro.REACTIVIDAD DEL HUMORLo que define al depresivo es, según este experto, "la incapacidad para reaccionar frente al medio". El psiquiatra lo explica con un ejemplo: "A una persona triste a quien le gusten mucho los gatos, le sentará bien disfrutar de su compañía. No le curará la tristeza, pero le hará sentirse mejor, al menos momentáneamente. Sin embargo, un deprimido en las mismas circunstancias no será capaz de dedicarle ni cinco minutos al gato; es lo que se llama reactividad del humor".Entre la persona triste y el depresivo existe un término medio que es el "trastorno adaptativo", y Navarro reconoce que, tanto a estas personas como a las que sienten tristeza se les recetan antidepresivos habitualmente, lo que explicaría la elevada cifra de venta de fármacos de este tipo. "Es una ayuda para que el cerebro rumie menos. Por ejemplo, si alguien que está mal porque se ha quedado en el paro toma antidepresivos, seguirá estando preocupado por su situación, pero la medicación le permitirá distraerse con otras cosas", añade Navarro. Este especialista considera que a una persona no deprimida "la psicoterapia le hará lo mismo o más que la pastilla". ¿Por qué, entonces, se recurre a los fármacos? Para Navarro, la respuesta es lógica: los psicólogos son caros y hay menos cantidad en la Seguridad Social que psiquiatras.El estudio de JAMA, además de sugerir que puede haber un exceso de prescripción de fármacos antidepresivos, pone de manifiesto otro punto importante: la fiabilidad de los ensayos clínicos que se realizan para evaluar la eficacia de este tipo de medicamentos. Los propios autores apuntan a que "los médicos pueden inflar sin querer la puntuación en la escala de Hamilton de los participantes que están justo por debajo del mínimo requerido".Navarro comenta que existen ciertas restricciones que evitan a un paciente entrar a formar parte de un ensayo clínico. A su juicio, una de las más importantes es la intención suicida, ya que alguien que su médico considere que tiene riesgo de intentar acabar con su vida no está autorizado a participar en los ensayos, según la mayoría de los protocolos. Otro factor que incapacita a un paciente para entrar a formar parte del estudio es estar tomando benzodiacepinas, un tipo de fármacos para la ansiedad. "Te piden que el paciente no los tome mientras dure el estudio, pero muchos de los depresivos sufren también ansiedad grave y es importante darles algo para este estado mientras hacen efecto los antidepresivos, lo que tarda como mínimo cuatro semanas", resume Navarro. Así, muchos de los participantes en estos ensayos no alcanzarían los criterios de depresión clínica. Otro factor que influye es la propia dificultad del médico para encontrar pacientes verdaderamente depresivos que quieran participar en un estudio. "Si tú le preguntas a un auténtico depresivo o a su familia si quiere meterse en un ensayo para ver si funciona un nuevo fármaco, te dirá que prefiere que le des uno cuya eficacia ya se haya demostrado, y no arriesgarse a recibir un placebo". Pero hay un grupo de depresivos que sí suelen acceder a participar: aquellos que ya han probado varios tratamientos sin éxito o, en otras palabras, los más difíciles de curar.Todas estas circunstancias demostrarían que los participantes en los ensayos clínicos no padecen, en muchos casos depresión, lo que explicaría la elevada eficacia (cercana al 30%) que se obtiene con placebo. Navarro considera que estudios como el publicado en JAMA no deben utilizarse en contra de estos fármacos, cuya eficacia en depresión "es cercana al 95%".

jueves, 14 de enero de 2010

Implantan en máquinas de limpieza un prototipo de cerebro inteligente

Los fundadores de la spin-off Cognitive Robots S.L., empresa surgida de un grupo de investigación de la Jaume I y participada por la Universidad, han aplicado sus investigaciones a la robótica de servicios para crear un cerebro inteligente que se puede instalar fácilmente en distintos vehículos para convertirlos en autónomos.
La primera línea de aplicación de este cerebro diseñado por la empresa ubicada en el Espaitec, Parque Científico, Tecnológico y Empresarial, han sido las fregadoras "inteligentes" destinadas a grandes superficies como naves industriales o supermercados. Varios fabricantes se han mostrado interesados en incorporar esta nueva tecnología que en un futuro se podría aplicar a las aspiradoras o a las máquinas cortadoras de césped. Según la Comisión Europea, se prevé que la llamada "robótica de servicios" experimente en los próximos años un crecimiento exponencial y que las máquinas autónomas realicen todo tipo de tareas de limpieza, cuidado de personas mayores, que asistan en fábricas, en operaciones quirúrgicas y en situaciones de peligro. Además de los beneficios sociales que esto pueda reportar a la sociedad, también es una oportunidad de negocio para la industria pero, sobre todo, un reto para los investigadores.Juan Carlos Peris Broch, profesor asociado de la Universitat Jaume I y socio fundador de la empresa, explica que había infinidad de productos que podían desarrollar a partir de las investigaciones del grupo Cognition for Robotics Research (C4R2) al que pertenece, pero decidieron centrarse en la automatización de maquinaria de limpieza industrial porque constataron una gran demanda en el mercado. Algunos fabricantes ya habían intentado automatizar estos vehículos pero sin demasiado éxito. La alemana Karcher, por ejemplo, lanzó un prototipo hace unos años empleando sónares en lugar de láseres y resultó poco preciso a la hora de calcular distancias. "Nosotros, en cambio, hemos creado un "cerebro" uniendo un ordenador, un láser de barrido que detecta distancias y una serie de sensores y actuadores controlados por microcontroladores distribuidos por la máquina. La otra diferencia es que, además de las técnicas tradicionales de robótica de navegación, se ha integrado en el ordenador las técnicas de razonamiento cualitativo", comenta el profesor Peris.El ordenador analiza las medidas del láser y de los sensores que posee el vehículo. Si el aparato es grande se coloca un anillo de sónares e infrarrojos a lo largo de todo el cuerpo de la máquina para tener una completa detección de obstáculos. Con todos los datos, el robot construye un mapa del entorno y es capaz de desplazarse y hacer un barrido de limpieza sin necesidad de conductor. La socia del profesor Peris, María Teresa Escrig Monferrer, se encuentra actualmente en Estados Unidos para lanzar el producto. Según explica el investigador, "se ha presentado la iniciativa en varias ferias de limpieza y nuestra idea ha despertado mucho interés. De hecho, hay organizadas visitas a Castellón con algunos de los principales fabricantes. El objetivo de las reuniones será conocernos y mostrarles el prototipo, un "cerebro" fácil de instalar en sus máquinas que estará formado por un módulo central conteniendo el ordenador y el láser, y se conectará por medio de un bus de datos a los diferentes microcontroladores". DE LA UNIVERSIDAD A LA EMPRESAMaría Teresa Escrig, doctora en Ingeniería Informática de la UJI, creó hace una década el grupo de investigación Cognition for Robotics Research (C4R2) para trabajar sobre la utilización de técnicas de razonamiento cualitativo aplicado a la robótica. Esto es, conseguir que los robots construyan mapas del entorno con la información más relevante procedente de sus sensores, interpretar dichos datos, realizar la tarea encomendada y aprender durante el proceso.Juan Carlos Peris se integró en el equipo en 2001 para llevar a cabo su doctorado y poner en práctica los estudios teóricos desarrollados por María Teresa Escrig. En 2006 los dos decidieron crear una spin-off para desarrollar nuevas aplicaciones con los resultados obtenidos y se constituyó formalmente Cognitive Robots un año más tarde. Para la redacción del Plan de Empresa y la puesta en marcha de la spin-off contaron con el asesoramiento de la Oficina de Cooperación en Investigación y Desarrollo Tecnológico (OCIT) de la Universidad y de las oficinas de Valencia y Castellón del Centro Europeo de Empresas e Innovación (CEEI). El siguiente paso fue conseguir un préstamo Neotec del Centro para el Desarrollo Tecnológico Industrial (CDTI), el apoyo del inversor privado Federico Castellanos y la transferencia de tecnología por parte de la Universidad. La actividad empezó a finales de 2008 y recientemente la empresa ha comenzado el trasladado al edificio Espaitec1, la incubadora de empresas de base tecnológica del Parque Científico, Tecnológico y Empresarial de la Universitat Jaume I.