Cristina Garmendia defendió en Sevilla a la recién aprobada Estrategia UE-2020 como "única salida sostenible para nuestro desarrollo futuro".
El pasado 4 de marzo se celebró la segunda sesión plenaria de la Conferencia Europea sobre I+D Empresarial CONCORD 2010. La quinta libertad, la plena libertad de circulación de ideas y científicos en un espacio europeo único y funcional, fue una de las partes centrales de la intervención de la ministra.
Se considera, por tanto, que el Espacio Europeo de Investigación (ERA) es fundamental para mantener la competitividad y conseguir la integración en un entorno determinado por la demanda de nuevas soluciones y servicios. No en vano, el Consejo de ministros de Competitividad, celebrado el pasado 2 de marzo, se centró en el tratamiento homogéneo y transnacional de la cobertura social (sanitaria y de pensiones) para los trabajadores científicos.
En su intervención, Garmendia hizo referencia a un estudio prospectivo de la Comisión Europea acerca de la emergencia asiática en el horizonte de 2025, y señaló que las economías de la UE tendrán que realizar esfuerzos extraordinarios para mantenerse en la posición internacional que actualmente detentan. Es lo que se conoce como el efecto de la reina roja: moverse el doble de rápido para permanecer en el mismo lugar. La alternativa al movimiento estratégico es, sencillamente, desaparecer de la vanguardia tecnológica, científica y social en el plazo de diez años.
Las medidas iniciales de la política europea serán las de máximo aprovechamiento de los recursos. En este sentido, se pudo escuchar que se simplificará la participación en el Programa Marco "para que las cargas administrativas no supongan un freno para los grupos de investigación y las empresas". Sin embargo, el avance no debería detenerse en la maximización de la eficiencia, ya que "tan solo el 5 % de la financiación disponible para I+D+i en Europa procede de las arcas comunitarias" [...] "hay que avanzar en modelos de cooperación desde las políticas regionales y nacionales que permitan incrementar el porcentaje de los recursos que incorporan desde una perspectiva europea en su diseño y gestión".
Dado el "momento crítico" en que nos encontramos, la Comisión Europea acaba de aprobar la Estrategia UE-2020 basada en una estrategia de salida de la crisis a través de un crecimiento inteligente, sostenible e inclusivo. La Comisión tiene previsto mantener el 3 % de inversión actual y desarrollar un índice que permita evaluar la intensidad de la I+D+i. Además, se creará una agenda estratégica de investigación centrada en desafíos relacionados, al menos, con la seguridad energética, el transporte, el cambio climático y la eficiencia en el aprovechamiento de recursos, la salud y el envejecimiento, los métodos de producción poco nocivos medioambientalmente y la gestión del territorio.
En cuanto a la financiación de la innovación, se menciona una participación más activa del Banco Europeo de Inversiones.
martes, 23 de marzo de 2010
Blog del día: Los futuros del libro. La era de las máquinas espirituales
Uno de los libros más decisivos de la última década del siglo XX fue, seguramente, La era de las máquinas espirituales, el libro del visionario y tecnólogo Ray Kurzweil. Previamente, entre los años 1991 y 1993, escribió una columna mensual en el conocido Library Journal, titulada The Futurecast, y en agosto del año 1992 publicó un conocido artículo titulado The future of book technology, en el que auguraba en alguna medida la explosión posterior de los libros digitales.
Su visión, su previsión casi onírica, también su creencia, es que los seres humanos seremos más inteligentes gracias a las computadoras, a que depositaremos nuestra memoria y conocimiento en la nube digital y a que dispondremos de un patrimonio inagotable de contenidos, una especie de omnisciencia digital peremne. Y es posible que en buena medida sea así porque, ¿quién de mi legión de lectores podría negar que en gran medida ha depositado ya parte de su memoria en la red y utiliza sus aplicaciones y herramientas para expandir y perfeccionar sus propias capacidades?
En el último TOC de New York, celebrado hace unos pocos días, uno de los encuentros estelares fue, precisamente, el que se produjo cuando Ray Kurzweil se entrevistó con Tim O'Really, previa presentación de un nuevo software de lectura desarrollado por su empresa, el Blio eReader. Lo cierto es que el software añade una muesca a la concurrida escena de los libros electrónicos y sus aplicaciones derivadas: como algunos otros productos que están apareciendo en los últimos meses, Blio combina acertadamente la lectura en voz alta con el reconocimiento visual de los caracteres, fundamento de la enseñanza de los métodos más recientes y exitosos de enseñanza de la lectura.
Lea el mensaje completo en: www.madrimasd.org/blogs/futurosdellibro
Su visión, su previsión casi onírica, también su creencia, es que los seres humanos seremos más inteligentes gracias a las computadoras, a que depositaremos nuestra memoria y conocimiento en la nube digital y a que dispondremos de un patrimonio inagotable de contenidos, una especie de omnisciencia digital peremne. Y es posible que en buena medida sea así porque, ¿quién de mi legión de lectores podría negar que en gran medida ha depositado ya parte de su memoria en la red y utiliza sus aplicaciones y herramientas para expandir y perfeccionar sus propias capacidades?
En el último TOC de New York, celebrado hace unos pocos días, uno de los encuentros estelares fue, precisamente, el que se produjo cuando Ray Kurzweil se entrevistó con Tim O'Really, previa presentación de un nuevo software de lectura desarrollado por su empresa, el Blio eReader. Lo cierto es que el software añade una muesca a la concurrida escena de los libros electrónicos y sus aplicaciones derivadas: como algunos otros productos que están apareciendo en los últimos meses, Blio combina acertadamente la lectura en voz alta con el reconocimiento visual de los caracteres, fundamento de la enseñanza de los métodos más recientes y exitosos de enseñanza de la lectura.
Lea el mensaje completo en: www.madrimasd.org/blogs/futurosdellibro
El café más tostado reduce el ardor de estómago
El efecto estimulante y revitalizador del café hace casi imposible concebir un despertar o una larga jornada de trabajo sin la ayuda de una o varias tazas de esta infusión. Sin embargo, la acidez y el malestar estomacal que puede provocar hace que muchas personas se abstengan de su consumo o lo limiten. Ahora, un estudio presentado en el Congreso Nacional de la Sociedad Química Americana defiende que un tueste más intenso de los granos de café puede facilitar que sea mejor tolerado por el estómago.
Los médicos asocian la sensación desagradable que puede producir el consumo de café con la sobreproducción de ácido estomacal que provocan sus componentes químicos. Este efecto indeseado hace que muchas personas recurran a medicamentos antiacidez, se decanten por versiones descafeinadas o incluso elijan marcas 'respetuosas con el estómago', que procesan de forma especial los granos para rebajar su efecto irritante.
Sin embargo, el secreto para evitar la acidez del café podría estar en el grado de tostadura, tal y como sostiene Veronika Somoza, investigadora de la Universidad de Viena (Austria) y de la Universidad Técnica de Múnich (Alemania) y directora del trabajo. Según Somoza, al tostar los granos de café se genera una sustancia llamada N-metilpiridinum (NMP), que bloquea la capacidad de las células del estómago para producir ácido clorhídrico, por lo que cuanto más intenso es el tueste y más oscuro es el aspecto que adquiere mejor es tolerado por el estómago.
Para llegar a esta conclusión los científicos expusieron cultivos de células estomacales humanas a la acción de diferentes tipos de café con distinto grado de tostadura, así como a variedades descafeinadas y 'respetuosas con el estómago'. Además, identificaron varias sustancias, como la cafeína, que favorecen los cambios químicos asociados con un incremento en la producción de ácido estomacal.
Para la investigadora, la acidez del estómago no está provocada por uno sólo de los componentes del café, sino que es el efecto combinado de la mezcla de sustancias que lo forman."El problema es que los estudios no han verificado hasta ahora el potencial del café y sus componentes para irritar el estómago", explica Somoza. "Los fabricantes hacen en la actualidad cafés 'respetuosos con el estómago', procesando los granos de café crudos con vapor o disolventes que buscan reducir el nivel de agentes irritantes. Pero su eficacia no está clara", prosigue.
Además, en opinión de Somoza el proceso empleado para producir un café menos agresivo para el estómago podría alterar su olor y sabor y reducir, no sólo sus sustancias irritantes, sino también las beneficiosas para la salud, y que han sido descritas en muchos estudios, que han destacado su papel antioxidante y su efecto protector frente a la diabetes y las enfermedades coronarias.
El doctor José Antonio Irles Rocamora, presidente de la Sociedad Andaluza de Nutrición Clínica y Dietética (SANCYD) y Jefe de la Unidad de Nutrición y Dietética del Hospital Universitario de Ntra. Sra. De Valme de Sevilla, considera que se trata de un estudio interesante que revela que, a pesar de que normalmente se cree que los vegetales son más sanos si se ingieren crudos, existen casos en los que se digieren mejor al ser cocinados, o, como en el caso del café, tostados.
Para Irles, la tolerancia al café es más bien una cuestión de susceptibilidad individual, ya que hay personas a las que les 'sienta' peor que a otras y matiza que su fácil digestión depende mucho del grado de concentración en el que se ingiera o de si se acompaña o no de leche u otro lácteo. No obstante, Irles señala que en esta investigación no se ha tenido en cuenta el café torrefacto (tostado con azúcar), variedad que goza de gran popularidad en España. Se trata de un tipo especialmente rico en antioxidantes pero que, según explica este especialista, es peor tolerado por algunas personas.
Los médicos asocian la sensación desagradable que puede producir el consumo de café con la sobreproducción de ácido estomacal que provocan sus componentes químicos. Este efecto indeseado hace que muchas personas recurran a medicamentos antiacidez, se decanten por versiones descafeinadas o incluso elijan marcas 'respetuosas con el estómago', que procesan de forma especial los granos para rebajar su efecto irritante.
Sin embargo, el secreto para evitar la acidez del café podría estar en el grado de tostadura, tal y como sostiene Veronika Somoza, investigadora de la Universidad de Viena (Austria) y de la Universidad Técnica de Múnich (Alemania) y directora del trabajo. Según Somoza, al tostar los granos de café se genera una sustancia llamada N-metilpiridinum (NMP), que bloquea la capacidad de las células del estómago para producir ácido clorhídrico, por lo que cuanto más intenso es el tueste y más oscuro es el aspecto que adquiere mejor es tolerado por el estómago.
Para llegar a esta conclusión los científicos expusieron cultivos de células estomacales humanas a la acción de diferentes tipos de café con distinto grado de tostadura, así como a variedades descafeinadas y 'respetuosas con el estómago'. Además, identificaron varias sustancias, como la cafeína, que favorecen los cambios químicos asociados con un incremento en la producción de ácido estomacal.
Para la investigadora, la acidez del estómago no está provocada por uno sólo de los componentes del café, sino que es el efecto combinado de la mezcla de sustancias que lo forman."El problema es que los estudios no han verificado hasta ahora el potencial del café y sus componentes para irritar el estómago", explica Somoza. "Los fabricantes hacen en la actualidad cafés 'respetuosos con el estómago', procesando los granos de café crudos con vapor o disolventes que buscan reducir el nivel de agentes irritantes. Pero su eficacia no está clara", prosigue.
Además, en opinión de Somoza el proceso empleado para producir un café menos agresivo para el estómago podría alterar su olor y sabor y reducir, no sólo sus sustancias irritantes, sino también las beneficiosas para la salud, y que han sido descritas en muchos estudios, que han destacado su papel antioxidante y su efecto protector frente a la diabetes y las enfermedades coronarias.
El doctor José Antonio Irles Rocamora, presidente de la Sociedad Andaluza de Nutrición Clínica y Dietética (SANCYD) y Jefe de la Unidad de Nutrición y Dietética del Hospital Universitario de Ntra. Sra. De Valme de Sevilla, considera que se trata de un estudio interesante que revela que, a pesar de que normalmente se cree que los vegetales son más sanos si se ingieren crudos, existen casos en los que se digieren mejor al ser cocinados, o, como en el caso del café, tostados.
Para Irles, la tolerancia al café es más bien una cuestión de susceptibilidad individual, ya que hay personas a las que les 'sienta' peor que a otras y matiza que su fácil digestión depende mucho del grado de concentración en el que se ingiera o de si se acompaña o no de leche u otro lácteo. No obstante, Irles señala que en esta investigación no se ha tenido en cuenta el café torrefacto (tostado con azúcar), variedad que goza de gran popularidad en España. Se trata de un tipo especialmente rico en antioxidantes pero que, según explica este especialista, es peor tolerado por algunas personas.
Una droga contra el acné mantiene dormido al VIH
Un equipo de científicos estadounidenses ha descubierto que un barato antibiótico, la minociclina, empleada desde la década de 1970 para tratar el acné, actúa en las células del sistema inmune infectadas por el VIH, en las que el virus permanece latente, e impide que se reactiven y se repliquen.
Los investigadores, de la Universidad Johns Hopkins, en Baltimore, creen que el antibiótico puede mejorar el tratamiento habitual basado en un cóctel de fármacos conocido como Terapia Antirretroviral de Gran Actividad.
Al contrario que estos medicamentos, que atacan el virus, la minociclina se dirige a las células T, un tipo de glóbulos blancos que son el objetivo del VIH. Según el estudio, publicado on line en The Journal of Infectious Diseases, el antibiótico impide que muchas células T se activen y proliferen, dos pasos fundamentales para que el virus progrese y la persona seropositiva acabe desarrollando el síndrome de inmunodeficiencia adquirida o sida.
La Terapia Antirretroviral de Gran Actividad, tomada a diario de por vida, puede impedir que un paciente con VIH desarrolle la enfermedad, pero no proporciona una cura. Los niveles del virus se reducen, pero el patógeno no desaparece, sino que se esconde en algunas células del sistema inmune, las defensas del organismo. Si una persona infectada abandona la terapia, el virus puede reactivarse y diseminarse.
OTRA ARMA CONTRA EL VIRUS
"El gran desafío al que se enfrentan ahora los médicos en EE.UU., cuando tratan a pacientes con VIH, es mantener al virus encerrado en un estado de latencia", ha explicado uno de los autores del estudio, Janice Clements, profesora de patobiología molecular en la Johns Hopkins. "La Terapia Antirretroviral de Gran Actividad es realmente efectiva en limitar la replicación, y la minociclina es otra arma de defensa contra el virus", añade.
En España, los casos de sida han caído un 80% desde la extensión de los nuevos tratamientos antirretrovirales en 1996, según datos del Ministerio de Sanidad y Política Social. El departamento de Trinidad Jiménez calcula que hay entre 120.000 y 150.000 personas infectadas por VIH en España.
Los investigadores, de la Universidad Johns Hopkins, en Baltimore, creen que el antibiótico puede mejorar el tratamiento habitual basado en un cóctel de fármacos conocido como Terapia Antirretroviral de Gran Actividad.
Al contrario que estos medicamentos, que atacan el virus, la minociclina se dirige a las células T, un tipo de glóbulos blancos que son el objetivo del VIH. Según el estudio, publicado on line en The Journal of Infectious Diseases, el antibiótico impide que muchas células T se activen y proliferen, dos pasos fundamentales para que el virus progrese y la persona seropositiva acabe desarrollando el síndrome de inmunodeficiencia adquirida o sida.
La Terapia Antirretroviral de Gran Actividad, tomada a diario de por vida, puede impedir que un paciente con VIH desarrolle la enfermedad, pero no proporciona una cura. Los niveles del virus se reducen, pero el patógeno no desaparece, sino que se esconde en algunas células del sistema inmune, las defensas del organismo. Si una persona infectada abandona la terapia, el virus puede reactivarse y diseminarse.
OTRA ARMA CONTRA EL VIRUS
"El gran desafío al que se enfrentan ahora los médicos en EE.UU., cuando tratan a pacientes con VIH, es mantener al virus encerrado en un estado de latencia", ha explicado uno de los autores del estudio, Janice Clements, profesora de patobiología molecular en la Johns Hopkins. "La Terapia Antirretroviral de Gran Actividad es realmente efectiva en limitar la replicación, y la minociclina es otra arma de defensa contra el virus", añade.
En España, los casos de sida han caído un 80% desde la extensión de los nuevos tratamientos antirretrovirales en 1996, según datos del Ministerio de Sanidad y Política Social. El departamento de Trinidad Jiménez calcula que hay entre 120.000 y 150.000 personas infectadas por VIH en España.
Néstor Ganuza: Un código de software es un arma, igual que un misil
Entrevista al teniente coronel Néstor Ganuza, jefe de Adiestramiento y Doctrina del Centro de Ciberdefensa de la OTAN, dirige en Estonia a varios expertos en ciberseguridad.
Entre el 29 de abril y el 11 de mayo de 2007, Estonia sufrió el mayor ciberataque de la historia. Las páginas web del Gobierno, los partidos y los bancos fueron atacadas y se colapsaron. La agresión provocó que Estonia pidiera la intervención de la OTAN y, en agosto de 2008, se puso en marcha el Centro de Excelencia para la Cooperación en Ciberdefensa (CCD) de la OTAN en Tallin, la capital de esta república báltica. Al frente de una de sus dos secciones está un español, el teniente coronel del Ejército Néstor Ganuza Artiles, un militar que, con sus conocimientos y palabras, deja muy atrás la vieja imagen de los militares españoles.
Pregunta. ¿La ubicación del CCD en Tallin estuvo relacionada con el ataque?
Respuesta. En realidad, Estonia solicitó liderar el centro en 2004. Los ataques aceleraron el proceso de aprobación.
P. ¿Se ha sabido quién estaba detrás del ataque?
R. Todo este asunto surgió cuando el Gobierno decidió cambiar de lugar un monumento de la época soviética al soldado caído en la Segunda Guerra Mundial. La relación del ataque con la estatua es clara. También hay pruebas, propaganda e indicaciones, en lengua rusa, a los ciudadanos rusos por la Red de cómo unirse al ataque. En cuanto a la parte técnica, diversos centros de respuesta a incidentes (CERT) rastrearon y llegaron hasta tres direcciones IP (ordenadores) situadas en territorio ruso. Estonia pidió al Gobierno ruso que investigara pero se negó. No hay pruebas de que el Gobierno ruso esté detrás, pero el Estado ruso fue el gran beneficiado.
P. Sin embargo, Rusia ha pedido ingresar en el CCD.
R. Suena curioso que después de aquellos incidentes, Rusia pida el ingreso al país que los sufrió. Pero no es tan paradójico, Rusia es un partner for peace [un socio preferencial] de la OTAN.
P. ¿En qué consiste el trabajo de su centro?
R. Liderar y coordinar proyectos de I+D+i sobre ciberdefensa aplicada a la OTAN y sus misiones.
P. ¿Qué son?
R. Ejemplos de proyectos que realizamos son estudios sobre inteligencia artificial aplicada a ciberdefensa o la monitorización de la Red, con especial atención a la correlación de eventos de seguridad. También hacemos trabajos en el campo de la doctrina, formación, instrucción y entrenamiento. Además, desarrollamos conceptos de ciberguerra. Estamos elaborando un diccionario de términos cibernéticos, para homogeneizar el lenguaje.
P. ¿Y ese diccionario, diferencia entre hacker y cracker?
R. Ese es un buen ejemplo de los cientos de conceptos con los que hay confusión. En los medios son sinónimos, alguien que intenta entrar sin autorización en los sistemas. En el diccionario, queremos destacar sus motivaciones psicológicas o la preparación.
P. ¿Qué pasa por sus manos?
R. Mi sección tiene cuatro áreas. Una es la de concepto y terminología, para unificar el lenguaje. Otra es la de doctrina, estrategia y organización, para poner en práctica guías de ciberdefensa. Otra es la de educación, concienciación, ejercicios y conferencias. Y una cuarta se centra en estudios de futuro, cómo se deben preparar los líderes y las unidades para afrontar con garantías lo que nos puede deparar. No es una bola de cristal, se diseñan supuestos que incluyen factores demográficos, infraestructuras básicas, recursos naturales o el cambio climático y su impacto en ciberdefensa.
P. ¿Simulaciones?
R. No son escenarios contra un determinado virus o ataque, que son responsabilidad de los CERT. Tampoco se trata sólo de estudios tecnológicos. Son investigaciones para dar una respuesta global a un ciberataque. Toma de decisiones, marco legal, presupuesto... Es la única manera de dar una respuesta eficiente.
P. La OTAN es una organización militar y, hasta la caída del Muro, sus rivales eran otros militares. ¿Siguen siendo el enemigo?
R. El escenario tradicional en una guerra eran dos estados. Cuando uno era atacado, sabía por quién. Antes se hablaba de un enemigo tradicional, después se pasó a hablar de un enemigo asimétrico, que no sabes exactamente quién es y no lleva uniforme. Ahora hablamos de enemigos híbridos. Puede ser una combinación de los anteriores o un oponente imprevisto, un individuo, un grupo, un estado, o un grupo que a su vez ha sido financiado por un estado. No sabes a qué te enfrentas.
P. Un problema agravado por la tecnología...
R. En el caso de los estados, sí. En un entorno convencional, los enemigos individuales han tenido muy difícil el acceso a la tecnología punta. Pero en un entorno cibernético no es tan complicado, solo se necesita una infraestructura doméstica situada en un estado sin un compromiso legal de persecución del ciberdelito, y unos pocos individuos con unos mínimos conocimientos técnicos para causar grandes daños a la infraestructura crítica de un país.
P. Parece que el secreto ha dejado de ser un valor en la seguridad.
R. En el mundo tradicional, donde la información era la justa y llegaba solo al que tenía que recibirla, la confidencialidad era la clave de todo el engranaje. Ahora estamos en un mundo donde lo fundamental es la superioridad en la información, que llegue en el momento oportuno al mayor número de personas. Para estar en una situación de ventaja, hay que compartir la información. Demasiada confidencialidad es un lastre para la ciberdefensa.
P. Como se define, ¿como militar o como tecnólogo?
R. Definitivamente, como militar. Ha quedado obsoleto el concepto de unas fuerzas armadas, con sus armas cinéticas y con unos oficiales con unos estudios orientados a la guerra convencional en los tres espacios de combate, Tierra, Mar y Aire y entre estados. Nuestros enemigos han cambiado, las armas han cambiado, todo ha cambiado. Ahora, un código de software es un arma, igual que un misil.
Entre el 29 de abril y el 11 de mayo de 2007, Estonia sufrió el mayor ciberataque de la historia. Las páginas web del Gobierno, los partidos y los bancos fueron atacadas y se colapsaron. La agresión provocó que Estonia pidiera la intervención de la OTAN y, en agosto de 2008, se puso en marcha el Centro de Excelencia para la Cooperación en Ciberdefensa (CCD) de la OTAN en Tallin, la capital de esta república báltica. Al frente de una de sus dos secciones está un español, el teniente coronel del Ejército Néstor Ganuza Artiles, un militar que, con sus conocimientos y palabras, deja muy atrás la vieja imagen de los militares españoles.
Pregunta. ¿La ubicación del CCD en Tallin estuvo relacionada con el ataque?
Respuesta. En realidad, Estonia solicitó liderar el centro en 2004. Los ataques aceleraron el proceso de aprobación.
P. ¿Se ha sabido quién estaba detrás del ataque?
R. Todo este asunto surgió cuando el Gobierno decidió cambiar de lugar un monumento de la época soviética al soldado caído en la Segunda Guerra Mundial. La relación del ataque con la estatua es clara. También hay pruebas, propaganda e indicaciones, en lengua rusa, a los ciudadanos rusos por la Red de cómo unirse al ataque. En cuanto a la parte técnica, diversos centros de respuesta a incidentes (CERT) rastrearon y llegaron hasta tres direcciones IP (ordenadores) situadas en territorio ruso. Estonia pidió al Gobierno ruso que investigara pero se negó. No hay pruebas de que el Gobierno ruso esté detrás, pero el Estado ruso fue el gran beneficiado.
P. Sin embargo, Rusia ha pedido ingresar en el CCD.
R. Suena curioso que después de aquellos incidentes, Rusia pida el ingreso al país que los sufrió. Pero no es tan paradójico, Rusia es un partner for peace [un socio preferencial] de la OTAN.
P. ¿En qué consiste el trabajo de su centro?
R. Liderar y coordinar proyectos de I+D+i sobre ciberdefensa aplicada a la OTAN y sus misiones.
P. ¿Qué son?
R. Ejemplos de proyectos que realizamos son estudios sobre inteligencia artificial aplicada a ciberdefensa o la monitorización de la Red, con especial atención a la correlación de eventos de seguridad. También hacemos trabajos en el campo de la doctrina, formación, instrucción y entrenamiento. Además, desarrollamos conceptos de ciberguerra. Estamos elaborando un diccionario de términos cibernéticos, para homogeneizar el lenguaje.
P. ¿Y ese diccionario, diferencia entre hacker y cracker?
R. Ese es un buen ejemplo de los cientos de conceptos con los que hay confusión. En los medios son sinónimos, alguien que intenta entrar sin autorización en los sistemas. En el diccionario, queremos destacar sus motivaciones psicológicas o la preparación.
P. ¿Qué pasa por sus manos?
R. Mi sección tiene cuatro áreas. Una es la de concepto y terminología, para unificar el lenguaje. Otra es la de doctrina, estrategia y organización, para poner en práctica guías de ciberdefensa. Otra es la de educación, concienciación, ejercicios y conferencias. Y una cuarta se centra en estudios de futuro, cómo se deben preparar los líderes y las unidades para afrontar con garantías lo que nos puede deparar. No es una bola de cristal, se diseñan supuestos que incluyen factores demográficos, infraestructuras básicas, recursos naturales o el cambio climático y su impacto en ciberdefensa.
P. ¿Simulaciones?
R. No son escenarios contra un determinado virus o ataque, que son responsabilidad de los CERT. Tampoco se trata sólo de estudios tecnológicos. Son investigaciones para dar una respuesta global a un ciberataque. Toma de decisiones, marco legal, presupuesto... Es la única manera de dar una respuesta eficiente.
P. La OTAN es una organización militar y, hasta la caída del Muro, sus rivales eran otros militares. ¿Siguen siendo el enemigo?
R. El escenario tradicional en una guerra eran dos estados. Cuando uno era atacado, sabía por quién. Antes se hablaba de un enemigo tradicional, después se pasó a hablar de un enemigo asimétrico, que no sabes exactamente quién es y no lleva uniforme. Ahora hablamos de enemigos híbridos. Puede ser una combinación de los anteriores o un oponente imprevisto, un individuo, un grupo, un estado, o un grupo que a su vez ha sido financiado por un estado. No sabes a qué te enfrentas.
P. Un problema agravado por la tecnología...
R. En el caso de los estados, sí. En un entorno convencional, los enemigos individuales han tenido muy difícil el acceso a la tecnología punta. Pero en un entorno cibernético no es tan complicado, solo se necesita una infraestructura doméstica situada en un estado sin un compromiso legal de persecución del ciberdelito, y unos pocos individuos con unos mínimos conocimientos técnicos para causar grandes daños a la infraestructura crítica de un país.
P. Parece que el secreto ha dejado de ser un valor en la seguridad.
R. En el mundo tradicional, donde la información era la justa y llegaba solo al que tenía que recibirla, la confidencialidad era la clave de todo el engranaje. Ahora estamos en un mundo donde lo fundamental es la superioridad en la información, que llegue en el momento oportuno al mayor número de personas. Para estar en una situación de ventaja, hay que compartir la información. Demasiada confidencialidad es un lastre para la ciberdefensa.
P. Como se define, ¿como militar o como tecnólogo?
R. Definitivamente, como militar. Ha quedado obsoleto el concepto de unas fuerzas armadas, con sus armas cinéticas y con unos oficiales con unos estudios orientados a la guerra convencional en los tres espacios de combate, Tierra, Mar y Aire y entre estados. Nuestros enemigos han cambiado, las armas han cambiado, todo ha cambiado. Ahora, un código de software es un arma, igual que un misil.
Altos niveles de colesterol 'malo' pueden tener efectos sobre la mente
Tener los niveles elevados de colesterol LDL (conocido como malo) a partir de los 50 años puede producir no sólo enfermedades cardiovasculares, sino también alteraciones de las funciones cerebrales superiores y la aparición de un deterioro cognitivo leve, es decir, un trastorno asociado generalmente a la edad, que a menudo son la antesala de la demencia o el alzhéimer esporádico (no genético).
Así lo demuestra un estudio multicéntrico liderado desde el Hospital Clínic de Barcelona / IDIBAPS, la Fundación Hipercolesterolemia Familiar, la Universidad Internacional de Catalunya y la Medical University of South Carolina, entre otros centros.
El trabajo, publicado online en la revista The American Journal of Medicine, demuestra por vez primera la relación directa entre los niveles de colesterol elevado en sangre y los trastornos de las funciones cerebrales superiores, en especial las relacionadas con la memoria, la atención y la fluidez del lenguaje.
El deterioro cognitivo leve aparece cuando el paciente tiene déficit en dos o más áreas como la memoria, lenguaje, cálculo, orientación y juicio. Durante cinco años, el equipo multidisciplinar estudió a 47 pacientes mayores de 50 años con hipercolesterolemia familiar (HF), y a 70 personas sanas. El 22% de los pacientes con HF dio positivo en los test de valoración de las funciones cerebrales y sólo un 3% en los pacientes sanos.
ESPERANZA DE VIDA
Las personas con hipercolesterolemia familiar sufren niveles elevados de colesterol LDL a lo largo de toda su vida. Este es un trastorno hereditario que padecen unas 100.000 personas en España (y en el 50% de los miembros de una familia). Sin tratamiento, se expresa con consecuencias graves en la edad adulta y puede reducir la esperanza de vida entre 20 y 30 años.
Es necesaria la prevención para actuar contra la enfermedad antes de que se produzcan daños irreversibles, dice Daniel Zambón, especialista de la Unidad de Lípidos del Clínic. La HF se trata con estatinas y una dieta saludable. La detección precoz es fundamental para retrasarla o evitarla, y es necesario introducir los hábitos saludables en la infancia, añaden los expertos. "Lo que es malo para el corazón es malo para el cerebro", afirma Pedro Mata, presidente de la Fundación Hipercolesterolemia Familiar.
Así lo demuestra un estudio multicéntrico liderado desde el Hospital Clínic de Barcelona / IDIBAPS, la Fundación Hipercolesterolemia Familiar, la Universidad Internacional de Catalunya y la Medical University of South Carolina, entre otros centros.
El trabajo, publicado online en la revista The American Journal of Medicine, demuestra por vez primera la relación directa entre los niveles de colesterol elevado en sangre y los trastornos de las funciones cerebrales superiores, en especial las relacionadas con la memoria, la atención y la fluidez del lenguaje.
El deterioro cognitivo leve aparece cuando el paciente tiene déficit en dos o más áreas como la memoria, lenguaje, cálculo, orientación y juicio. Durante cinco años, el equipo multidisciplinar estudió a 47 pacientes mayores de 50 años con hipercolesterolemia familiar (HF), y a 70 personas sanas. El 22% de los pacientes con HF dio positivo en los test de valoración de las funciones cerebrales y sólo un 3% en los pacientes sanos.
ESPERANZA DE VIDA
Las personas con hipercolesterolemia familiar sufren niveles elevados de colesterol LDL a lo largo de toda su vida. Este es un trastorno hereditario que padecen unas 100.000 personas en España (y en el 50% de los miembros de una familia). Sin tratamiento, se expresa con consecuencias graves en la edad adulta y puede reducir la esperanza de vida entre 20 y 30 años.
Es necesaria la prevención para actuar contra la enfermedad antes de que se produzcan daños irreversibles, dice Daniel Zambón, especialista de la Unidad de Lípidos del Clínic. La HF se trata con estatinas y una dieta saludable. La detección precoz es fundamental para retrasarla o evitarla, y es necesario introducir los hábitos saludables en la infancia, añaden los expertos. "Lo que es malo para el corazón es malo para el cerebro", afirma Pedro Mata, presidente de la Fundación Hipercolesterolemia Familiar.
viernes, 19 de marzo de 2010
Creador de la web pide libre acceso a datos
Los países deberían ser juzgados según su disponibilidad a permitir a sus ciudadanos el acceso a los datos públicos, le dijo a la BBC el inventor de la web, el británico Tim Berners-Lee.
En su opinión, "la apertura de la información y la neutralidad de la red" deberían ser consideradas tan importantes como la libertad de expresión.
Berners-Lee es un asesor de un proyecto en el Reino Unido (data.gov.uk) que ofrece a cualquier usuario resmas de documentos del sector público que antes permanecieron ocultos.
En una sociedad democrática, para que funcione la democracia el electorado debe estar informado
Tim Berners-Lee
La apertura de datos podría ahora considerarse como un derecho básico de los ciudadanos, añadió el ingeniero y maestro de la informática.
"Naturalmente hay derechos más fundamentales pero, en una sociedad democrática, para que funcione la democracia el electorado debe estar informado", comentó a la BBC.
Esto, añadió, es particularmente importante en el mundo en desarrollo.
Venezuela y Brasil
Las declaraciones del creador de la web ocurren después de que, en Venezuela, el gobierno cuestionara la validez de tener un libre acceso a la información en internet y tomó medidas para regular la red de una u otra manera.
clic Lea: Venezuela más cerca de regular la red
"No puede ser una cosa libre donde se haga y se diga lo que sea", exclamó en un llamado a la regulación el presidente Hugo Chávez, tras un incidente en el que una página de noticias publicó el comentario de un usuario con información falsa sobre un ministro.
Los activistas quieren aprovechar al máximo el acceso a los datos públicos.
El incidente provocó el pedido a la Asamblea Nacional a que legisle para que "todas las actividades que ocurren en el territorio nacional" sean "sometidas a una regulación legal".
Por otra parte, en Brasil el acceso a los datos públicos le han dado al ciudadano el poder de exigirle cuentas claras a las instituciones y a los funcionarios públicos.
El periodista Fernando Rodrigues creó la base de datos en línea Politicos do Brasil, que contiene los detalles de las finanzas de campaña de 400.000 políticos, así como de la fortuna de muchos de ellos.
El sitio, inaugurado en 2000, ya le ha costado la cabeza a varios dirigentes y, a medida que la información se hace más completa, su poder se incrementa.
Rodrigues dijo a la BBC que cree que su sitio contribuyó al retiro de sus funciones de cientos de políticos después de los comicios municipales de 2008 en Brasil.
Todavía hay que ver cómo se desenvuelven las cosas, pero el dique se ha quebrado
Tom Loosemore, activista de la internet
"Apenas seis meses después de las elecciones, 343 alcaldes y legisladores ya habían sido depuestos porque había tanta información disponible sobre ellos que se volvió fácil identificar sus fechorías durante el proceso electoral", expresó.
Entre tanto, hay otros países menos generosos con su información pública, aunque permiten a sus ciudadanos tener acceso de otras maneras.
En India, por ejemplo, el Acta de Derecho a la Información de 2005 ha tenido muy buena recepción. Hasta ahora, se han presentado unos dos millones de solicitudes para acceder a la información.
Yamini Aiyar, del Centro de Estudios de Políticas, afirmó que el público indio se ha adueñado del acta.
"La gente monitorea el acta, se mantiene al tanto de ella, cuestionando al gobierno", dijo a la BBC.
"Pienso que ese tipo de propiedad común es una de las mayores lecciones que India le puede dar al mundo", completó.
"Más apertura"
Aun así, tanto en India como en Brasil, a los activistas les gustaría ver que sus gobiernos sean más activos en la publicación de la información.
Pero, aunque en todo el mundo aumenta el clamor por gobiernos abiertos, algunos en Estados Unidos y en el Reino Unido advierten que la sola publicación de esos datos no es la panacea.
Para ellos, el peligro es suponer que todo lo que necesitamos son estos crecientes volúmenes de información sin que se le añadan otras reformas.
Tom Loosemore, director de una organización que financia a sitios en la web para que utilicen la información del gobierno británico, dijo que es esencial que "aquellos que creen en una sociedad saludable y positiva muevan el trasero y produzcan servicios fantásticos en esa dirección".
Loosemore cree que todavía hay mucho camino por recorrer antes de aprovechar de lleno el poder de los datos públicos.
"Todavía hay que ver cómo se desenvuelven las cosas, pero el dique se ha quebrado", sentenció.
En su opinión, "la apertura de la información y la neutralidad de la red" deberían ser consideradas tan importantes como la libertad de expresión.
Berners-Lee es un asesor de un proyecto en el Reino Unido (data.gov.uk) que ofrece a cualquier usuario resmas de documentos del sector público que antes permanecieron ocultos.
En una sociedad democrática, para que funcione la democracia el electorado debe estar informado
Tim Berners-Lee
La apertura de datos podría ahora considerarse como un derecho básico de los ciudadanos, añadió el ingeniero y maestro de la informática.
"Naturalmente hay derechos más fundamentales pero, en una sociedad democrática, para que funcione la democracia el electorado debe estar informado", comentó a la BBC.
Esto, añadió, es particularmente importante en el mundo en desarrollo.
Venezuela y Brasil
Las declaraciones del creador de la web ocurren después de que, en Venezuela, el gobierno cuestionara la validez de tener un libre acceso a la información en internet y tomó medidas para regular la red de una u otra manera.
clic Lea: Venezuela más cerca de regular la red
"No puede ser una cosa libre donde se haga y se diga lo que sea", exclamó en un llamado a la regulación el presidente Hugo Chávez, tras un incidente en el que una página de noticias publicó el comentario de un usuario con información falsa sobre un ministro.
Los activistas quieren aprovechar al máximo el acceso a los datos públicos.
El incidente provocó el pedido a la Asamblea Nacional a que legisle para que "todas las actividades que ocurren en el territorio nacional" sean "sometidas a una regulación legal".
Por otra parte, en Brasil el acceso a los datos públicos le han dado al ciudadano el poder de exigirle cuentas claras a las instituciones y a los funcionarios públicos.
El periodista Fernando Rodrigues creó la base de datos en línea Politicos do Brasil, que contiene los detalles de las finanzas de campaña de 400.000 políticos, así como de la fortuna de muchos de ellos.
El sitio, inaugurado en 2000, ya le ha costado la cabeza a varios dirigentes y, a medida que la información se hace más completa, su poder se incrementa.
Rodrigues dijo a la BBC que cree que su sitio contribuyó al retiro de sus funciones de cientos de políticos después de los comicios municipales de 2008 en Brasil.
Todavía hay que ver cómo se desenvuelven las cosas, pero el dique se ha quebrado
Tom Loosemore, activista de la internet
"Apenas seis meses después de las elecciones, 343 alcaldes y legisladores ya habían sido depuestos porque había tanta información disponible sobre ellos que se volvió fácil identificar sus fechorías durante el proceso electoral", expresó.
Entre tanto, hay otros países menos generosos con su información pública, aunque permiten a sus ciudadanos tener acceso de otras maneras.
En India, por ejemplo, el Acta de Derecho a la Información de 2005 ha tenido muy buena recepción. Hasta ahora, se han presentado unos dos millones de solicitudes para acceder a la información.
Yamini Aiyar, del Centro de Estudios de Políticas, afirmó que el público indio se ha adueñado del acta.
"La gente monitorea el acta, se mantiene al tanto de ella, cuestionando al gobierno", dijo a la BBC.
"Pienso que ese tipo de propiedad común es una de las mayores lecciones que India le puede dar al mundo", completó.
"Más apertura"
Aun así, tanto en India como en Brasil, a los activistas les gustaría ver que sus gobiernos sean más activos en la publicación de la información.
Pero, aunque en todo el mundo aumenta el clamor por gobiernos abiertos, algunos en Estados Unidos y en el Reino Unido advierten que la sola publicación de esos datos no es la panacea.
Para ellos, el peligro es suponer que todo lo que necesitamos son estos crecientes volúmenes de información sin que se le añadan otras reformas.
Tom Loosemore, director de una organización que financia a sitios en la web para que utilicen la información del gobierno británico, dijo que es esencial que "aquellos que creen en una sociedad saludable y positiva muevan el trasero y produzcan servicios fantásticos en esa dirección".
Loosemore cree que todavía hay mucho camino por recorrer antes de aprovechar de lleno el poder de los datos públicos.
"Todavía hay que ver cómo se desenvuelven las cosas, pero el dique se ha quebrado", sentenció.
Kingston crea la memoria más rápida del mundo
Con el aumento radical de rendimiento que han experimentado los ordenadores en los últimos años, la memoria RAM se ha convertido en un componente crítico para garantizar la estabilidad de los sistemas, y empujar su rendimiento hasta el límite.
FUENTE | ABC Periódico Electrónico S.A. 17/03/2010
Aquellos aficionados al overclocking buscan con afán los modelos "premium" que ofrecen los fabricantes, pero es posible que con esta memoria alcancen la apoteosis de los módulos RAM. El nuevo diseño HyperX de Kingston es capaz de trabajar a una frecuencia de 2400 Mhz, lo que convierte a estos módulos DDR3 en los más rápidos del planeta, certificados por Intel para sus procesadores Core i7.
Todo el que haya realizado overclocking alguna vez sabe muy bien la importancia de contar con una memoria estable, resistente, y de alta calidad. Los módulos genéricos poco pueden hacer a la hora de resistir los embates de un aumento de voltaje y de latencias cortas. Los entusiastas de esta práctica se vuelcan sin dudar a aquellos productos que poseen una garantía superlativa en materia de estabilidad y rendimiento, como son los que ofrecen empresas al estilo de Kingston, Corsair y OCZ, entre otras. Es preferible pagar un poco más y obtener lo máximo de nuestros sistemas en el largo plazo, a ahorrarse unos billetes para sufrir constantes fallas y pantallazos azules. Incluso los productos de línea económica que ofrecen estas empresas se encuentran por encima de sus alternativas genéricas, pero a la ahora de pisar el pedal a fondo, los productos "premium" son los que acaparan la escena.
La línea avanzada de memorias Kingston es conocida como HyperX. Se caracterizan por el color azul de su disipador y por lo corto de sus latencias, sin olvidar su resistencia a los tratos que reciben por parte de los overclockers. Un nuevo logro de ingeniería de Kingston les ha permitido diseñar un módulo DDR3 capaz de funcionar a la impresionante frecuencia de 2400 Mhz. Esto supera con comodidad al máximo de 2133 Mhz ofrecido por los productos de alta gama de Kingston, y se convierte en la memoria más rápida del planeta. Kingston ha realizado pruebas exitosas de la memoria utilizando una plataforma Gigabyte, e incluso ha podido obtener la certificación XMP por parte de Intel, lo que convierte a la memoria en recomendada para los procesadores Core i7. Por supuesto, eso no quiere decir que otros sistemas no puedan usar la memoria, pero la certificación XMP garantiza la utilización de latencias muy cortas en relación con la frecuencia. Los "timings" de esta memoria se ubican en 9-11-9-27 a 2T, con un voltaje de 1.65v.
Actualmente, la memoria no ha salido de su fase de pruebas, por lo que habrá que esperar un tiempo antes de que aparezca en el mercado con la forma de un producto terminado. Sin embargo, es lógico pensar que este kit DDR3 de 4 GB no será algo particularmente accesible. 4 GB de memoria Kingston HyperX con frecuencia de 2133 Mhz y una latencia CAS de 8 cuesta aproximadamente 340 dólares en los Estados Unidos, un presupuesto con el que en ciertas partes del globo se puede armar un ordenador entero. La nueva memoria de Kingston será todo un deleite para aquellos usuarios que buscan el extremo en sus sistemas, jugando con refrigeración avanzada, voltajes modificados y alteraciones en las latencias. En donde el más mínimo error representa una falla del sistema, es posible que esta nueva memoria les entregue un poco más de jugo.
FUENTE | ABC Periódico Electrónico S.A. 17/03/2010
Aquellos aficionados al overclocking buscan con afán los modelos "premium" que ofrecen los fabricantes, pero es posible que con esta memoria alcancen la apoteosis de los módulos RAM. El nuevo diseño HyperX de Kingston es capaz de trabajar a una frecuencia de 2400 Mhz, lo que convierte a estos módulos DDR3 en los más rápidos del planeta, certificados por Intel para sus procesadores Core i7.
Todo el que haya realizado overclocking alguna vez sabe muy bien la importancia de contar con una memoria estable, resistente, y de alta calidad. Los módulos genéricos poco pueden hacer a la hora de resistir los embates de un aumento de voltaje y de latencias cortas. Los entusiastas de esta práctica se vuelcan sin dudar a aquellos productos que poseen una garantía superlativa en materia de estabilidad y rendimiento, como son los que ofrecen empresas al estilo de Kingston, Corsair y OCZ, entre otras. Es preferible pagar un poco más y obtener lo máximo de nuestros sistemas en el largo plazo, a ahorrarse unos billetes para sufrir constantes fallas y pantallazos azules. Incluso los productos de línea económica que ofrecen estas empresas se encuentran por encima de sus alternativas genéricas, pero a la ahora de pisar el pedal a fondo, los productos "premium" son los que acaparan la escena.
La línea avanzada de memorias Kingston es conocida como HyperX. Se caracterizan por el color azul de su disipador y por lo corto de sus latencias, sin olvidar su resistencia a los tratos que reciben por parte de los overclockers. Un nuevo logro de ingeniería de Kingston les ha permitido diseñar un módulo DDR3 capaz de funcionar a la impresionante frecuencia de 2400 Mhz. Esto supera con comodidad al máximo de 2133 Mhz ofrecido por los productos de alta gama de Kingston, y se convierte en la memoria más rápida del planeta. Kingston ha realizado pruebas exitosas de la memoria utilizando una plataforma Gigabyte, e incluso ha podido obtener la certificación XMP por parte de Intel, lo que convierte a la memoria en recomendada para los procesadores Core i7. Por supuesto, eso no quiere decir que otros sistemas no puedan usar la memoria, pero la certificación XMP garantiza la utilización de latencias muy cortas en relación con la frecuencia. Los "timings" de esta memoria se ubican en 9-11-9-27 a 2T, con un voltaje de 1.65v.
Actualmente, la memoria no ha salido de su fase de pruebas, por lo que habrá que esperar un tiempo antes de que aparezca en el mercado con la forma de un producto terminado. Sin embargo, es lógico pensar que este kit DDR3 de 4 GB no será algo particularmente accesible. 4 GB de memoria Kingston HyperX con frecuencia de 2133 Mhz y una latencia CAS de 8 cuesta aproximadamente 340 dólares en los Estados Unidos, un presupuesto con el que en ciertas partes del globo se puede armar un ordenador entero. La nueva memoria de Kingston será todo un deleite para aquellos usuarios que buscan el extremo en sus sistemas, jugando con refrigeración avanzada, voltajes modificados y alteraciones en las latencias. En donde el más mínimo error representa una falla del sistema, es posible que esta nueva memoria les entregue un poco más de jugo.
El soldado ciego que ve con la lengua
Llevaba tres años en tinieblas. Una granada en Basora (Irak) en 2007 le dejó completamente ciego. Craig Lundberg, soldado del Segundo Batallón del Regimiento de The Duke of Lancaster (del Reino Unido), sobrevivió a la explosión, aunque perdió el ojo izquierdo y el derecho quedó dañado irremediablemente. Pero ha recuperado la esperanza. Ha visto luz, literalmente, entre tanta sombra.
FUENTE | El Mundo Digital 17/03/2010
Un dispositivo en desarrollo -el BrainPort- le permite distinguir formas gracias a que convierte las señales visuales en eléctricas.
A sus 24 años, Lundberg ha sido elegido por el Ministerio de Defensa del Reino Unido para probar la nueva tecnología, que podría revolucionar el tratamiento de la ceguera. Para ello, el joven, fan del fútbol (y en concreto del Liverpool), ha viajado a Pittsburgh (EE.UU.), donde ha aprendido a manejarlo.
El invento se basa en el principio de sustitución de sentidos -en el que un sentido puede ser reemplazado por otro-. En este caso, los receptores sensitivos de la lengua hacen las funciones de los fotorreceptores de los ojos. ¿Cómo? A través de unas gafas de sol que llevan instalada una cámara. Ésta va conectada a un aparato que convierte estas imágenes en estímulos eléctricos y los pasa a la lengua a través de un tubo de plástico que finaliza en una especie de 'piruleta' llena de microelectrodos.
La diferente intensidad que se siente en la lengua -como un hormigueo- se corresponde con el negro, el blanco y el gris de las imágenes, lo que permite al afectado percibir la luz y la oscuridad y visualizar en el cerebro la forma de los objetos que tiene delante. También percibe algo de perspectiva y de profundidad.
Parece ciencia ficción, pero funciona, tal y como ha demostrado el propio Lundberg, que fue capaz de leer la palabra 'cat' (gato en inglés) de un folio situado a un metro de distancia y de sortear algunos obstáculos en un circuito. "Es la primera vez desde el accidente de Irak que puedo hacer esto", explicó orgulloso el soldado. "Soy realista. Sé que no me va a devolver la visión, pero es lo que más se acerca", añadió.
De momento, es sólo un prototipo, pero "el potencial que tiene para cambiar mi vida es enorme", señala Craig Lundberg, que a pesar de su minusvalía ha escalado el Kilimanjaro, ha corrido la maratón de Londres y juega en el equipo inglés para ciegos.
El dispositivo que ha probado el británico, que afirma que se siente como si tuviera "una batería en la boca o un caramelo de pica-pica", consta de 400 puntos que envían información a la lengua. Sin embargo, los diseñadores pretenden ampliarlo hasta los 4.000 sensores, lo que permitirá mejorar la calidad y claridad de las imágenes. Asimismo, mientras se usa el BrainPort no se puede ni hablar ni comer, porque el tubo de la lengua lo impide. Pero la idea es crear un producto más pequeño que permita al afectado tenerlo permanentemente entre los dientes y que posibilite hacer otras cosas.
Pero pese a la inestimable ayuda del BrainPort, Craig Lundbergh reconoce que no prescindirá jamás de su perro Hugo, que le ha guiado durante todo este tiempo y que lo seguirá haciendo.
FUENTE | El Mundo Digital 17/03/2010
Un dispositivo en desarrollo -el BrainPort- le permite distinguir formas gracias a que convierte las señales visuales en eléctricas.
A sus 24 años, Lundberg ha sido elegido por el Ministerio de Defensa del Reino Unido para probar la nueva tecnología, que podría revolucionar el tratamiento de la ceguera. Para ello, el joven, fan del fútbol (y en concreto del Liverpool), ha viajado a Pittsburgh (EE.UU.), donde ha aprendido a manejarlo.
El invento se basa en el principio de sustitución de sentidos -en el que un sentido puede ser reemplazado por otro-. En este caso, los receptores sensitivos de la lengua hacen las funciones de los fotorreceptores de los ojos. ¿Cómo? A través de unas gafas de sol que llevan instalada una cámara. Ésta va conectada a un aparato que convierte estas imágenes en estímulos eléctricos y los pasa a la lengua a través de un tubo de plástico que finaliza en una especie de 'piruleta' llena de microelectrodos.
La diferente intensidad que se siente en la lengua -como un hormigueo- se corresponde con el negro, el blanco y el gris de las imágenes, lo que permite al afectado percibir la luz y la oscuridad y visualizar en el cerebro la forma de los objetos que tiene delante. También percibe algo de perspectiva y de profundidad.
Parece ciencia ficción, pero funciona, tal y como ha demostrado el propio Lundberg, que fue capaz de leer la palabra 'cat' (gato en inglés) de un folio situado a un metro de distancia y de sortear algunos obstáculos en un circuito. "Es la primera vez desde el accidente de Irak que puedo hacer esto", explicó orgulloso el soldado. "Soy realista. Sé que no me va a devolver la visión, pero es lo que más se acerca", añadió.
De momento, es sólo un prototipo, pero "el potencial que tiene para cambiar mi vida es enorme", señala Craig Lundberg, que a pesar de su minusvalía ha escalado el Kilimanjaro, ha corrido la maratón de Londres y juega en el equipo inglés para ciegos.
El dispositivo que ha probado el británico, que afirma que se siente como si tuviera "una batería en la boca o un caramelo de pica-pica", consta de 400 puntos que envían información a la lengua. Sin embargo, los diseñadores pretenden ampliarlo hasta los 4.000 sensores, lo que permitirá mejorar la calidad y claridad de las imágenes. Asimismo, mientras se usa el BrainPort no se puede ni hablar ni comer, porque el tubo de la lengua lo impide. Pero la idea es crear un producto más pequeño que permita al afectado tenerlo permanentemente entre los dientes y que posibilite hacer otras cosas.
Pero pese a la inestimable ayuda del BrainPort, Craig Lundbergh reconoce que no prescindirá jamás de su perro Hugo, que le ha guiado durante todo este tiempo y que lo seguirá haciendo.
Eli Harari: Dentro de 10 años, la información de toda una vida cabrá en una tarjeta
Entrevista a Eli Harari, fundador y consejero delegado de SanDisk desde 1988. Es, por tanto, una rara avis en el sector tecnológico, por su veteranía en el cargo. En este tiempo SanDisk se ha convertido en el mayor fabricante mundial de tarjetas de memoria y pen drives USB, disfruta con estas comparaciones para demostrar el potencial del negocio.
FUENTE | El País 18/03/2010
Móviles, consolas, cámaras de fotos, e-readers, miniportátiles... es difícil encontrar ya equipos sin ranuras para tarjetas de memoria Flash. Incluso en la era de lo virtual y de la nube, estas piezas de plástico siguen vivas. "El consumidor quiere tener un poco de la nube en su bolsillo, ver información al instante sin necesidad de acceder constantemente a la Red".
Pregunta. Cada vez llevamos más aparatos móviles encima y, con ellos, los datos. ¿Buenas noticias para las tarjetas de memoria?
Respuesta. Muy buenas. La memoria Flash está en todas partes. Siempre que tengas una cámara de fotos digital, un portátil, un reproductor MP3, un navegador GPS, un móvil... tendrás una tarjeta de memoria. Llevamos 22 años en esto y todavía estamos al comienzo.
P. ¿Son los celulares su principal negocio?
R. Sí, suponen casi el 50% de nuestros ingresos totales. Las micro-SD ya son el estándar de memoria extraíble en móviles. Hay más de 1.000 millones de terminales que tienen ranura para micro-SD. En el último trimestre de 2009 vendimos 82 millones de unidades. Pegarán también muy fuerte en lectores electrónicos y tablets como el iPad.
P. ¿Por qué ha costado tanto tiempo establecer como estándar el formato SD y micro- SD?
R. Los estándares en tecnología son siempre complejos. Ahora puedes utilizar una tarjeta SD en decenas de miles de aparatos hechos por cientos de fabricantes distintos. Y funciona. Lo mismo ocurre con las micro-SD. El nuevo estándar SDXC traerá más rapidez y capacidad de almacenamiento, hasta dos terabytes.
P. Sony no ha ayudado mucho en el camino.
R. La filosofía de Sony con las Memory Stick era garantizar que la gente escogiera sus productos. Nosotros las soportamos en su momento, pero ahora Sony también apuesta por las tarjetas SD.
P. ¿Cuánta información seremos capaces de almacenar en ellas?
R. Dentro de 10 años, la información de toda una vida cabrá en una tarjeta. Hoy ya es posible guardar un terabyte en un espacio muy reducido. El cerebro humano acumula unos 10 terabytes. Dentro de una década podremos almacenar esa cantidad en una tarjeta de sólo 16 centímetros cúbicos, mucho más pequeña que el cerebro.
P. Menudo problema si se pierde...
R. Sí... es mejor que no la pierdas (risas).
P. Pero ¿no es ése el gran problema? La gente las pierde o se las roban.
R. Es segura. Si alguien la encuentra, al menos no podrá acceder a los datos.
P. Aun así, me quedo sin información.
R. Para eso está Internet. En la nube puedes hacer una copia de seguridad de los datos que utilizas a diario en local. Nadie llevará encima 10 terabytes a todas horas.
P. La gente está pasando de almacenar contenidos a consumirlos directamente a través de Internet, en tiempo real. ¿Pierden sentido las tarjetas de memoria?
R. No, el streaming es bueno mientras tienes ancho de banda; pero si todo el mundo hace lo mismo, hay problemas de red. Para los operadores es muy caro añadir ancho de banda. A ellos les encanta que haya almacenamiento local que alivie la carga de la Red.
P. ¿No ve el cloud computing como una amenaza para su negocio?
R. No, es una oportunidad más. Hay información que tendrás en el teléfono o en tu reproductor MP3 y estará siempre almacenada en el equipo, en lugar de estar constantemente descargando o almacenando datos en la nube. Cuanto más streaming, servicios y contenidos haya, más querrás utilizar Wi-Fi y descargar una película en dos minutos y verla en local.
P. ¿Veremos tarjetas de memoria más pequeñas que las micro-SD?
R. Para mucha gente la micro-SD es ya muy pequeña, son 0,9 milímetros de grosor, 11 milímetros de largo y 14 de ancho. Sin duda, podemos ir más allá, pero desde el punto de vista práctico, es lo más reducido que los consumidores aceptarían.
P. ¿Qué papel desempeñará la nanotecnología en la próxima generación de tarjetas de memoria?
R. Será importante en la tecnología que reemplazará a la memoria NAND Flash. Estamos trabajando en el desarrollo de memoria 3D. Empezaremos a introducirla entre los próximos 5 y 10 años. Creemos que sustituirá a la actualmente existente.
FUENTE | El País 18/03/2010
Móviles, consolas, cámaras de fotos, e-readers, miniportátiles... es difícil encontrar ya equipos sin ranuras para tarjetas de memoria Flash. Incluso en la era de lo virtual y de la nube, estas piezas de plástico siguen vivas. "El consumidor quiere tener un poco de la nube en su bolsillo, ver información al instante sin necesidad de acceder constantemente a la Red".
Pregunta. Cada vez llevamos más aparatos móviles encima y, con ellos, los datos. ¿Buenas noticias para las tarjetas de memoria?
Respuesta. Muy buenas. La memoria Flash está en todas partes. Siempre que tengas una cámara de fotos digital, un portátil, un reproductor MP3, un navegador GPS, un móvil... tendrás una tarjeta de memoria. Llevamos 22 años en esto y todavía estamos al comienzo.
P. ¿Son los celulares su principal negocio?
R. Sí, suponen casi el 50% de nuestros ingresos totales. Las micro-SD ya son el estándar de memoria extraíble en móviles. Hay más de 1.000 millones de terminales que tienen ranura para micro-SD. En el último trimestre de 2009 vendimos 82 millones de unidades. Pegarán también muy fuerte en lectores electrónicos y tablets como el iPad.
P. ¿Por qué ha costado tanto tiempo establecer como estándar el formato SD y micro- SD?
R. Los estándares en tecnología son siempre complejos. Ahora puedes utilizar una tarjeta SD en decenas de miles de aparatos hechos por cientos de fabricantes distintos. Y funciona. Lo mismo ocurre con las micro-SD. El nuevo estándar SDXC traerá más rapidez y capacidad de almacenamiento, hasta dos terabytes.
P. Sony no ha ayudado mucho en el camino.
R. La filosofía de Sony con las Memory Stick era garantizar que la gente escogiera sus productos. Nosotros las soportamos en su momento, pero ahora Sony también apuesta por las tarjetas SD.
P. ¿Cuánta información seremos capaces de almacenar en ellas?
R. Dentro de 10 años, la información de toda una vida cabrá en una tarjeta. Hoy ya es posible guardar un terabyte en un espacio muy reducido. El cerebro humano acumula unos 10 terabytes. Dentro de una década podremos almacenar esa cantidad en una tarjeta de sólo 16 centímetros cúbicos, mucho más pequeña que el cerebro.
P. Menudo problema si se pierde...
R. Sí... es mejor que no la pierdas (risas).
P. Pero ¿no es ése el gran problema? La gente las pierde o se las roban.
R. Es segura. Si alguien la encuentra, al menos no podrá acceder a los datos.
P. Aun así, me quedo sin información.
R. Para eso está Internet. En la nube puedes hacer una copia de seguridad de los datos que utilizas a diario en local. Nadie llevará encima 10 terabytes a todas horas.
P. La gente está pasando de almacenar contenidos a consumirlos directamente a través de Internet, en tiempo real. ¿Pierden sentido las tarjetas de memoria?
R. No, el streaming es bueno mientras tienes ancho de banda; pero si todo el mundo hace lo mismo, hay problemas de red. Para los operadores es muy caro añadir ancho de banda. A ellos les encanta que haya almacenamiento local que alivie la carga de la Red.
P. ¿No ve el cloud computing como una amenaza para su negocio?
R. No, es una oportunidad más. Hay información que tendrás en el teléfono o en tu reproductor MP3 y estará siempre almacenada en el equipo, en lugar de estar constantemente descargando o almacenando datos en la nube. Cuanto más streaming, servicios y contenidos haya, más querrás utilizar Wi-Fi y descargar una película en dos minutos y verla en local.
P. ¿Veremos tarjetas de memoria más pequeñas que las micro-SD?
R. Para mucha gente la micro-SD es ya muy pequeña, son 0,9 milímetros de grosor, 11 milímetros de largo y 14 de ancho. Sin duda, podemos ir más allá, pero desde el punto de vista práctico, es lo más reducido que los consumidores aceptarían.
P. ¿Qué papel desempeñará la nanotecnología en la próxima generación de tarjetas de memoria?
R. Será importante en la tecnología que reemplazará a la memoria NAND Flash. Estamos trabajando en el desarrollo de memoria 3D. Empezaremos a introducirla entre los próximos 5 y 10 años. Creemos que sustituirá a la actualmente existente.
Para vender más, estudian el cerebro
En la batalla por obtener nuestro dinero y nuestra lealtad, las compañías que nos quieren vender productos han centrado su atención en algo que está frente a nuestras narices.
O mejor dicho, detrás de nuestras narices. Ahora, el cerebro es considerado "lo último" en el área de los negocios, y es la tecnología la que les permite a las empresas echar un vistazo a lo que sucede dentro de nuestras cabezas.
En este tipo de investigación de mercado, que se realiza en el nivel neurológico, los participantes deben colocarse una gorra provista de sensores que registran la actividad cerebral, al tiempo que la persona observa publicidades de diferentes productos.
El estudio intenta medir la respuesta emocional, la atención y la memoria del participante.
El estudio intenta medir la respuesta emocional, la atención y la memoria del participante.
La electroencefalografía (EEG) –una exploración neurofisiológica que no es dolorosa y se basa en el registro de la actividad cerebral- les permite a los investigadores observar los impulsos eléctricos en la corteza cerebral. Me ofrecí como conejillo de indias para ver cómo funciona esta técnica.
La EEG ha sido utilizada durante aproximadamente 90 años y se emplea frecuentemente en el diagnóstico de la epilepsia.
En las últimas dos décadas, esta tecnología ha avanzado notoriamente. La actividad cerebral solía ser registrada utilizando bolígrafos sobre una faja de papel en movimiento, pero ahora puede ser digitalizada e instantáneamente representada en gráficos.
El aparato también se ha vuelto mucho más pequeño y portátil. En opinión de los expertos en marketing, ahora el equipo puede ser utilizado de forma más amplia como una herramienta para el estudio de las reacciones de potenciales consumidores.
clic ¿Examinar el cerebro para vender más?¡Opine!
Secretos comerciales
Durante la demostración de la técnica, me colocaron algo similar a un gorra de natación llena de agujeros.
Los sensores -encargados de captar la actividad de las ondas cerebrales 2.000 veces por segundo- fueron conectados a mi cabeza a través de los huecos.
Me aplicaron un gel para permitir que las señales eléctricas de mi cerebro fueran registradas.
Al tiempo que me colocaban los sensores en la gorra -y dos de ellos adheridos cerca de mis ojos para medir el parpadeo-, el director de operaciones del laboratorio Neurofocus Europa, Darren Bridger, me explicó los conceptos básicos de esta metodología.
No todo es fácil de predecir: algunas compras pueden hacerse de forma caprichosa e impulsiva.
"Actualmente, las computadoras permiten añadir los resultados e incluir a más personas en la muestra. También es posible calibrar las respuestas según resultados anteriores", dijo Bridger.
"Se obtienen diferentes respuestas dependiendo de si la persona observa una pantalla grande o pequeña, por ejemplo, si se trata de un televisor o de un teléfono celular. Y si caminas por un supermercado, las reacciones serán diferentes a las obtenidas cuando el individuo está viendo una pantalla estática".
Antes de someterme a la prueba, mi gorra con sensores fue cubierta con una especie de sombrero suave y flexible.
Bridger me explicó que la razón para utilizar este sombrero era proteger el secretos comercial de los competidores, fundamentalmente la ubicación exacta de los sensores.
Al parecer el denominado neuromarketing -el empleo de técnicas pertenecientes a la neurociencia al ámbito de la mercadotecnia- es un negocio implacable: en el mundo de la comercialización y las marcas, es alto el interés en los potenciales clientes.
Como era lunes por la mañana, no estaba muy segura de cuánta actividad cerebral sería registrada. Sin embargo, cuando el aparato comenzó a funcionar, diferentes líneas de colores comenzaron a aparecer como garabatos en la pantalla.
Me hicieron ver algunos cortos publicitarios. Mis ondas cerebrales parecían actualizar constantemente los gráficos. Estos, a su vez, eran desglosados en indicadores de atención, emoción y memoria. Los algoritmos se utilizan para calcular qué escenas le gustan más a una persona.
Pingüinos
Después del primer corto, Quentin Baldwin, de Neurofocus, el encargado de mostrar esta tecnología a los clientes, me dijo que a mí me gustaban los pingüinos. Esto no es algo inusual -explicó-. La mayoría de las personas se siente atraída por ellos, porque los movimientos de estos animales se asemejan al caminar de los niños pequeños".
Lavie advirtió podría ser muy difícil establecer con exactitud qué es lo que dicta la elección del consumidor.
Yo me sentía algo incómoda con la idea de que tanto mis pensamientos como mis reacciones estaban siendo espiados. Después del segundo filme, Quentin comentó que a mi subconsciente le habían agradado mucho la jirafas, así como las caras.
"Como seres humanos, nos atraen mucho los rostros, especialmente detalels como los ojos, y esto se observa en el nivel neurológico", explicó. Después de todo, no reveló nada demasiado siniestro.
En una muestra real participan por lo menos 24 personas y se utilizan entre 64 y 128 sensores por cabeza, con el objetivo de medir la reacción a los mensajes de una empresa y sus productos.
Los sensores se utilizan junto con un equipo que registra el movimiento ocular, lo que permite ofrecer un panorama general de las respuestas de los participantes.
Compras subconscientes
¿Pero hasta qué punto puede una encefalografía poner de manifiesto nuestras preferencias? La profesora Nilli Lavie, del Instituto de Neurociencia Cognitiva del University College London, expresó algunas dudas sobre la técnica, aunque también señaló algunos posibles beneficios.
El neuromarketing se está convirtiendo en un tema controvertido en el área de la comercialización y dentro de la comunidad científica
Prof. Nilli Lavie, University College London
"El neuromarketing se está convirtiendo en un tema controvertido en el área de la comercialización y dentro de la comunidad científica", advirtió.
"En general, el enfoque puede ser muy productivo y -potencialmente- puede suministrar información sobre el cerebro del consumidor, algo que de otro modo sería difícil de obtener".
"Sin embargo, en algunas áreas creo que aún es muy grande la brecha entre lo que sabemos científicamente y lo que conocemos sobre las predilecciones de los consumidores a la hora de elegir", agregó.
"La investigación neurocientífica puede ser utilizada para conocer qué tipo de herramientas de marketing o publicitarias son útiles para atraer más la atención de las personas".
No obstante, en términos de lo que finalmente compra.
"En definitiva, tenemos que aceptar que en cierta medida las compras también pueden hacerse sobre la base de caprichos e impulsos".
Una gran preocupación es que es necesario evaluar el costo versus el beneficio
Profesora Nillie Lavie
Lavie dijo preferir otra técnica de neuroimágenes. Según ella, la resonancia magnética funcional (IRMf) da una indicación más clara de lo que sucede en la mente del consumidor. Permite definir mejor cuáles áreas del cerebro están activas.
"Cuando se trata de herramientas específicas de neuromarketing, el método más claro y el único que ha sido investigado ampliamente en el ámbito científico es la exploración cerebral por medio de la IRMf".
Sin embargo, esta opción es muy costosa. "Una gran preocupación es que es necesario evaluar el costo versus el beneficio, y el costo es, naturalmente, muy alto para el uso de estos métodos", añadió Lavie.
Los investigadores esperan que el neuromarketing sea más preciso y utilizado en el futuro.
Al parecer, como nunca antes, nuestro subconsciente está involucrado en la experiencia de la compra.
O mejor dicho, detrás de nuestras narices. Ahora, el cerebro es considerado "lo último" en el área de los negocios, y es la tecnología la que les permite a las empresas echar un vistazo a lo que sucede dentro de nuestras cabezas.
En este tipo de investigación de mercado, que se realiza en el nivel neurológico, los participantes deben colocarse una gorra provista de sensores que registran la actividad cerebral, al tiempo que la persona observa publicidades de diferentes productos.
El estudio intenta medir la respuesta emocional, la atención y la memoria del participante.
El estudio intenta medir la respuesta emocional, la atención y la memoria del participante.
La electroencefalografía (EEG) –una exploración neurofisiológica que no es dolorosa y se basa en el registro de la actividad cerebral- les permite a los investigadores observar los impulsos eléctricos en la corteza cerebral. Me ofrecí como conejillo de indias para ver cómo funciona esta técnica.
La EEG ha sido utilizada durante aproximadamente 90 años y se emplea frecuentemente en el diagnóstico de la epilepsia.
En las últimas dos décadas, esta tecnología ha avanzado notoriamente. La actividad cerebral solía ser registrada utilizando bolígrafos sobre una faja de papel en movimiento, pero ahora puede ser digitalizada e instantáneamente representada en gráficos.
El aparato también se ha vuelto mucho más pequeño y portátil. En opinión de los expertos en marketing, ahora el equipo puede ser utilizado de forma más amplia como una herramienta para el estudio de las reacciones de potenciales consumidores.
clic ¿Examinar el cerebro para vender más?¡Opine!
Secretos comerciales
Durante la demostración de la técnica, me colocaron algo similar a un gorra de natación llena de agujeros.
Los sensores -encargados de captar la actividad de las ondas cerebrales 2.000 veces por segundo- fueron conectados a mi cabeza a través de los huecos.
Me aplicaron un gel para permitir que las señales eléctricas de mi cerebro fueran registradas.
Al tiempo que me colocaban los sensores en la gorra -y dos de ellos adheridos cerca de mis ojos para medir el parpadeo-, el director de operaciones del laboratorio Neurofocus Europa, Darren Bridger, me explicó los conceptos básicos de esta metodología.
No todo es fácil de predecir: algunas compras pueden hacerse de forma caprichosa e impulsiva.
"Actualmente, las computadoras permiten añadir los resultados e incluir a más personas en la muestra. También es posible calibrar las respuestas según resultados anteriores", dijo Bridger.
"Se obtienen diferentes respuestas dependiendo de si la persona observa una pantalla grande o pequeña, por ejemplo, si se trata de un televisor o de un teléfono celular. Y si caminas por un supermercado, las reacciones serán diferentes a las obtenidas cuando el individuo está viendo una pantalla estática".
Antes de someterme a la prueba, mi gorra con sensores fue cubierta con una especie de sombrero suave y flexible.
Bridger me explicó que la razón para utilizar este sombrero era proteger el secretos comercial de los competidores, fundamentalmente la ubicación exacta de los sensores.
Al parecer el denominado neuromarketing -el empleo de técnicas pertenecientes a la neurociencia al ámbito de la mercadotecnia- es un negocio implacable: en el mundo de la comercialización y las marcas, es alto el interés en los potenciales clientes.
Como era lunes por la mañana, no estaba muy segura de cuánta actividad cerebral sería registrada. Sin embargo, cuando el aparato comenzó a funcionar, diferentes líneas de colores comenzaron a aparecer como garabatos en la pantalla.
Me hicieron ver algunos cortos publicitarios. Mis ondas cerebrales parecían actualizar constantemente los gráficos. Estos, a su vez, eran desglosados en indicadores de atención, emoción y memoria. Los algoritmos se utilizan para calcular qué escenas le gustan más a una persona.
Pingüinos
Después del primer corto, Quentin Baldwin, de Neurofocus, el encargado de mostrar esta tecnología a los clientes, me dijo que a mí me gustaban los pingüinos. Esto no es algo inusual -explicó-. La mayoría de las personas se siente atraída por ellos, porque los movimientos de estos animales se asemejan al caminar de los niños pequeños".
Lavie advirtió podría ser muy difícil establecer con exactitud qué es lo que dicta la elección del consumidor.
Yo me sentía algo incómoda con la idea de que tanto mis pensamientos como mis reacciones estaban siendo espiados. Después del segundo filme, Quentin comentó que a mi subconsciente le habían agradado mucho la jirafas, así como las caras.
"Como seres humanos, nos atraen mucho los rostros, especialmente detalels como los ojos, y esto se observa en el nivel neurológico", explicó. Después de todo, no reveló nada demasiado siniestro.
En una muestra real participan por lo menos 24 personas y se utilizan entre 64 y 128 sensores por cabeza, con el objetivo de medir la reacción a los mensajes de una empresa y sus productos.
Los sensores se utilizan junto con un equipo que registra el movimiento ocular, lo que permite ofrecer un panorama general de las respuestas de los participantes.
Compras subconscientes
¿Pero hasta qué punto puede una encefalografía poner de manifiesto nuestras preferencias? La profesora Nilli Lavie, del Instituto de Neurociencia Cognitiva del University College London, expresó algunas dudas sobre la técnica, aunque también señaló algunos posibles beneficios.
El neuromarketing se está convirtiendo en un tema controvertido en el área de la comercialización y dentro de la comunidad científica
Prof. Nilli Lavie, University College London
"El neuromarketing se está convirtiendo en un tema controvertido en el área de la comercialización y dentro de la comunidad científica", advirtió.
"En general, el enfoque puede ser muy productivo y -potencialmente- puede suministrar información sobre el cerebro del consumidor, algo que de otro modo sería difícil de obtener".
"Sin embargo, en algunas áreas creo que aún es muy grande la brecha entre lo que sabemos científicamente y lo que conocemos sobre las predilecciones de los consumidores a la hora de elegir", agregó.
"La investigación neurocientífica puede ser utilizada para conocer qué tipo de herramientas de marketing o publicitarias son útiles para atraer más la atención de las personas".
No obstante, en términos de lo que finalmente compra.
"En definitiva, tenemos que aceptar que en cierta medida las compras también pueden hacerse sobre la base de caprichos e impulsos".
Una gran preocupación es que es necesario evaluar el costo versus el beneficio
Profesora Nillie Lavie
Lavie dijo preferir otra técnica de neuroimágenes. Según ella, la resonancia magnética funcional (IRMf) da una indicación más clara de lo que sucede en la mente del consumidor. Permite definir mejor cuáles áreas del cerebro están activas.
"Cuando se trata de herramientas específicas de neuromarketing, el método más claro y el único que ha sido investigado ampliamente en el ámbito científico es la exploración cerebral por medio de la IRMf".
Sin embargo, esta opción es muy costosa. "Una gran preocupación es que es necesario evaluar el costo versus el beneficio, y el costo es, naturalmente, muy alto para el uso de estos métodos", añadió Lavie.
Los investigadores esperan que el neuromarketing sea más preciso y utilizado en el futuro.
Al parecer, como nunca antes, nuestro subconsciente está involucrado en la experiencia de la compra.
Un paso hacia el gato de Schrödinger
Los investigadores llevan mucho tiempo tratando de producir estados cuánticos en objetos mecánicos macroscópicos para controlarlos y han dado el primer paso. Un dispositivo mecánico, diminuto pero visible para el ojo humano, se ha comportado por vez primera como un auténtico sistema cuántico, según un trabajo liderado por Andrew Cleland, investigador de la Universidad de California (EE.UU.), y que se publica en la revista Nature.
Este logro largamente buscado representa que los sistemas mecánicos entran en el terreno de la física cuántica y es un primer paso crucial hacia la investigación del experimento del gato de Schrödinger, un experimento imaginario que concibió este físico en 1935 para exponer uno de los fenómenos de la mecánica cuántica sobre objetos macroscópicos. El éxito del trabajo anuncia una nueva generación de experimentos cuánticos, piensan los expertos, ya que las implicaciones de este descubrimiento son trascendentales para el empleo de dispositivos mecánicos en sistemas de proceso de información cuántica y, en última instancia, para tratar las paradojas que parecen presentarse cuando la teoría cuántica se aplica al mundo macroscópico.
¿Cómo es posible observar el comportamiento cuántico en un sistema mecánico macroscópico? Los investigadores enfriaron el sistema para que alcanzara el estado cuántico, situación en la que todas las vibraciones térmicas son eliminadas. El equipo de Cleland logró construir un resonador mecánico con una frecuencia de oscilación muy alta, cercana a los 6.000 millones de ciclos por segundo, y lo enfrió a una cuadragésima de grado por encima del cero absoluto. El resonador, con un grosor inferior al micrómetro y de cerca de 40 micrómetros de largo, se une eléctricamente a un dispositivo cuántico, un superconductor cuántico de un bit o qubit (unidad cuántica de información), que utilizaron los autores para medir y controlar el estado del resonador.
Mediante un termómetro cuántico de un qubit, los investigadores demostraron el enfriamiento del resonador mecánico, verificando la ausencia, con elevada probabilidad, incluso de la excitación térmica del fonón (modo cuántico de vibración que se encuentra en las redes cristalinas). Entonces emplearon el qubit para excitar un único fonón en el resonador y transferir la excitación muchas veces entre el resonador y el qubit, de modo que dieron los primeros pasos hacia el control cuántico completo de un sistema mecánico. Futuros experimentos requerirán encontrar un régimen de funcionamiento a frecuencias más bajas, dice Markus Aspelmeyer, de la Facultad de Física de la Universidad de Viena (Austria), en la misma revista.
Este logro largamente buscado representa que los sistemas mecánicos entran en el terreno de la física cuántica y es un primer paso crucial hacia la investigación del experimento del gato de Schrödinger, un experimento imaginario que concibió este físico en 1935 para exponer uno de los fenómenos de la mecánica cuántica sobre objetos macroscópicos. El éxito del trabajo anuncia una nueva generación de experimentos cuánticos, piensan los expertos, ya que las implicaciones de este descubrimiento son trascendentales para el empleo de dispositivos mecánicos en sistemas de proceso de información cuántica y, en última instancia, para tratar las paradojas que parecen presentarse cuando la teoría cuántica se aplica al mundo macroscópico.
¿Cómo es posible observar el comportamiento cuántico en un sistema mecánico macroscópico? Los investigadores enfriaron el sistema para que alcanzara el estado cuántico, situación en la que todas las vibraciones térmicas son eliminadas. El equipo de Cleland logró construir un resonador mecánico con una frecuencia de oscilación muy alta, cercana a los 6.000 millones de ciclos por segundo, y lo enfrió a una cuadragésima de grado por encima del cero absoluto. El resonador, con un grosor inferior al micrómetro y de cerca de 40 micrómetros de largo, se une eléctricamente a un dispositivo cuántico, un superconductor cuántico de un bit o qubit (unidad cuántica de información), que utilizaron los autores para medir y controlar el estado del resonador.
Mediante un termómetro cuántico de un qubit, los investigadores demostraron el enfriamiento del resonador mecánico, verificando la ausencia, con elevada probabilidad, incluso de la excitación térmica del fonón (modo cuántico de vibración que se encuentra en las redes cristalinas). Entonces emplearon el qubit para excitar un único fonón en el resonador y transferir la excitación muchas veces entre el resonador y el qubit, de modo que dieron los primeros pasos hacia el control cuántico completo de un sistema mecánico. Futuros experimentos requerirán encontrar un régimen de funcionamiento a frecuencias más bajas, dice Markus Aspelmeyer, de la Facultad de Física de la Universidad de Viena (Austria), en la misma revista.
martes, 16 de marzo de 2010
Cuando el niño sabe más que yo
Cualquiera puede comprender la creciente preocupación de los padres por el uso que hacen sus hijos de Internet, donde muchos chavales comparten sin miramientos datos personales y fotos comprometidas que quedan al alcance casi de cualquiera, con casos de adultos trastornados que contactan con menores en la Red, con acoso entre iguales...
FUENTE | El País Digital 16/03/2010
Pero si al miedo a las peores pesadillas de un progenitor se suma el desconocimiento del medio, las respuestas pueden ser exageradas y, sobre todo, contraproducentes, según expertos como el presidente de la asociación Protégeles, Guillermo Cánovas, o la investigadora de la Universidad del País Vasco Gemma Martínez.
El Defensor del Menor de la Comunidad de Madrid, Arturo Canalda, explicó un experimento que había realizado: se había dado de alta con una identidad falsa en la red social Tuenti, una de las más populares entre los chicos y chicas españoles, para controlar qué imágenes se suben o con qué personas contactan, antes de decidir si permitía a su hija darse de alta. El perfil ya está borrado, y Canalda dice que su hija conocía el experimento, pero el debate sobre hasta dónde es lícito y adecuado entrar en la intimidad de los menores para garantizar su seguridad en la Red ha quedado abierto de par en par.
"La actual es la primera generación de niños que saben más que sus padres sobre algo", las nuevas tecnologías, dice Cánovas. Lo primero que tienen que hacer los adultos es informarse sobre las ventajas y desventajas, por ejemplo, de las redes sociales, y sí, desde su organización aconsejan que los padres se den de alta en las redes sociales, "pero no falseando su identidad", añade. "Hay que trasladar a Internet las mismas pautas de actuación que en el espacio real. Por ejemplo, los padres quieren y deben saber con quién salen sus hijos el sábado por la noche. Pero no colocarían un micrófono oculto en el banco del parque para escuchar lo que dicen", añade.
Pero siguiendo con los ejemplos, a la investigadora Gemma Martínez ni siquiera le parece adecuado que los padres estén en las redes sociales con sus hijos. "Es como empeñarse en salir con él y sus amigos el fin de semana. El comportamiento del niño o la niña va a ser distinto", explica. Martínez comprende que "los padres están en una situación muy compleja", en un entorno desconocido en el que a cada rato se le plantea la misma pregunta: ¿cómo lo hago?
Las páginas y los decálogos de consejos para padres se multiplican de forma proporcional a la preocupación y entre las recomendaciones suelen destacar la colocación del ordenador en una zona compartida por la familia y acordar los horarios de uso, navegar junto a los niños o fomentar su espíritu crítico. Y, en general, estas medidas se van siguiendo. Según el informe de mayo de 2009 del observatorio de seguridad del Instituto Nacional de tecnologías de la Información (Inteco), el 91,7% de los padres informa a sus hijos sobre los posibles riesgos existentes en la Red y el 80,1% tiene el ordenador en un lugar común de la casa. Pero lo que no se puede hacer es relacionarse con los hijos y sus amigos a con una identidad falsa, dice Martínez: "Porque es lo que hacen otras personas con malas intenciones".
Canalda explicó que su intención era comprobar el funcionamiento de la Red antes de dar permiso a su hija para que participara. Junto a ella, y con el perfil falso, Canalda estuvo varios días "como espectador", "sin participar en las conversaciones" de sus hijos, pero viendo lo que hacían "como si fuera un chico más", ha explicado. Ese control es "algo necesario a pesar de que puede resultar controvertido, porque alguien puede entender que es vulnerar la intimidad de los hijos", ha dicho el Defensor, que aseguró que, invitado por su hija, no vulneró su intimidad. Aunque eso sea así, ¿y la intimidad del resto de chicos a cuyas conversaciones asistió bajo un nombre falso?
"Es complicado fijar dónde está la línea entre el deber de protección de los menores y el derecho a su intimidad", dice Jorge Flores, director de Pantallas Amigas, una web de promoción de la seguridad de los jóvenes en las nuevas tecnologías. El debate está constantemente en la sociedad, dice, y recuerda la obligación de las chicas de 16 años de informar a sus padres si quieren abortar.
El psiquiatra infantil Paulino Castells cree que la clave está en la relación afectiva de padres e hijos: "Si el hijo se siente querido nunca será una intromisión". En general, asegura que hay que respetar en la medida de lo posible la intimidad de los menores, pero señala que, ante la sospecha de un padre o un educador de que hay situaciones peligrosas, es mejor traspasar la línea del "intervencionismo". Castells recuerda cómo evitó el suicidio de dos adolescentes hace años gracias a que una madre llegó a su consulta con el diario de su hija -la versión antigua y de papel de muchos blogs personales actuales-. Pero, en general, Castells considera que lo básico es enseñar a los chavales cuáles son los peligros de la Red, dónde pueden acudir si les ocurre algo y que sepan que sus padres siempre están para escucharles. "Es verdad que hay una cierta psicosis que hace que nos pasemos de la raya", añade.
En febrero del año pasado se presentaron los datos de una encuesta de la Comisión Europea que decía que los padres españoles son de los que más restricciones ponen a sus hijos en el uso de Internet (tiempo máximo de utilización, del uso del correo electrónico, la mensajería instantánea o chats). En un foro, poco después, algunos se congratulaban de esa enorme preocupación que demostraba ese dato, cuenta Martínez, que estuvo implicada en ese estudio. Pero la nota matizaba y reorientaba esa interpretación: "Los padres europeos que usan Internet son los menos preocupados", mientras que "los padres españoles no alcanzan los estándares de alfabetización digital de los padres anglosajones o escandinavos". Y por esa razón, a pesar de la preocupación, "tienen una menor tasa de uso de programas de filtrado y de monitorización que la media europea": un 42,7% y un 32,2%, frente a un 48,8% y 37%, de media (en Reino Unido un 77% de los padres usa el filtrado).
El caso de Canalda no parece fruto del desconocimiento. "A mí me parece más bien un toque de atención para que los padres estén encima y acompañen a sus hijos", dice el psiquiatra Castells. De hecho, Canalda ha explicado que no le gustaron las informaciones que vio intercambiar alegremente a los chicos -"Suben información por un tubo, tanto ellos como sus amigos, información que puede ser accesible a personas como yo, que soy un amigo que nadie conoce"- y por eso decidió junto a su hija que ésta no se diera de alta en Tuenti.
Al responsable de comunicación de Tuenti, Ícaro Moyano, le parece muy bien que los padres, sobre todo al principio, acompañen a sus hijos en el uso de estas herramientas, y que se den de alta en las redes, pero, una vez más, el problema es la identidad falsa. Moyano explica que Tuenti cumple con los protocolos de seguridad fijados por la Comisión Europea, por ejemplo que sólo están autorizados a entrar mayores de 14 años, los perfiles no aparecen en los buscadores de Internet y todo menor tiene activados por defecto los controles de privacidad más altos.
En cualquier caso, por grandes que sean los controles, y como ha demostrado Canalda, los peligros están ahí. En el servicio de atención de la asociación Protégeles, las consultas más frecuentes son por casos de acoso y sobre vulneración de la intimidad. Además, expertos en violencia escolar, como la catedrática de Psicología de la Universidad de Córdoba Rosario Ortega, alertan con preocupación del aumento de la violencia mediante el uso de las nuevas tecnologías, redes sociales o el cyberbullying.
Así, la pregunta de cualquier padre, aun despojado de esa psicosis a la que se refería Castells, es: ¿qué puedo hacer? "No se trata de un tema de fiscalización e intromisión, mucho menos exitosas, sino de educación", asegura Guillermo Cánovas, de Protégeles. "Hay que educar al menor desde que es pequeño", añade Gemma Martínez: sentarse junto a él a navegar -por ejemplo, elegir junto al chico o la chica los niveles de seguridad de su perfil en una red social- y, sobre todo, hablar con él. "Cuando eso falla se va a las restricciones, sin pararse a pensar que eso puede causar al menor problemas de exclusión entre sus amigos". Y, además, si un menor tiene vetado Internet o la red social en casa, "probablemente los use fuera, en un cibercafé, que es mucho más peligroso", dice Martínez. Pero claro, como recuerda Rosario Ortega, todas esas recomendaciones que los expertos colocan por encima de las demás requieren "dedicarle mucho más tiempo tanto a los niños como a los adolescentes".
FUENTE | El País Digital 16/03/2010
Pero si al miedo a las peores pesadillas de un progenitor se suma el desconocimiento del medio, las respuestas pueden ser exageradas y, sobre todo, contraproducentes, según expertos como el presidente de la asociación Protégeles, Guillermo Cánovas, o la investigadora de la Universidad del País Vasco Gemma Martínez.
El Defensor del Menor de la Comunidad de Madrid, Arturo Canalda, explicó un experimento que había realizado: se había dado de alta con una identidad falsa en la red social Tuenti, una de las más populares entre los chicos y chicas españoles, para controlar qué imágenes se suben o con qué personas contactan, antes de decidir si permitía a su hija darse de alta. El perfil ya está borrado, y Canalda dice que su hija conocía el experimento, pero el debate sobre hasta dónde es lícito y adecuado entrar en la intimidad de los menores para garantizar su seguridad en la Red ha quedado abierto de par en par.
"La actual es la primera generación de niños que saben más que sus padres sobre algo", las nuevas tecnologías, dice Cánovas. Lo primero que tienen que hacer los adultos es informarse sobre las ventajas y desventajas, por ejemplo, de las redes sociales, y sí, desde su organización aconsejan que los padres se den de alta en las redes sociales, "pero no falseando su identidad", añade. "Hay que trasladar a Internet las mismas pautas de actuación que en el espacio real. Por ejemplo, los padres quieren y deben saber con quién salen sus hijos el sábado por la noche. Pero no colocarían un micrófono oculto en el banco del parque para escuchar lo que dicen", añade.
Pero siguiendo con los ejemplos, a la investigadora Gemma Martínez ni siquiera le parece adecuado que los padres estén en las redes sociales con sus hijos. "Es como empeñarse en salir con él y sus amigos el fin de semana. El comportamiento del niño o la niña va a ser distinto", explica. Martínez comprende que "los padres están en una situación muy compleja", en un entorno desconocido en el que a cada rato se le plantea la misma pregunta: ¿cómo lo hago?
Las páginas y los decálogos de consejos para padres se multiplican de forma proporcional a la preocupación y entre las recomendaciones suelen destacar la colocación del ordenador en una zona compartida por la familia y acordar los horarios de uso, navegar junto a los niños o fomentar su espíritu crítico. Y, en general, estas medidas se van siguiendo. Según el informe de mayo de 2009 del observatorio de seguridad del Instituto Nacional de tecnologías de la Información (Inteco), el 91,7% de los padres informa a sus hijos sobre los posibles riesgos existentes en la Red y el 80,1% tiene el ordenador en un lugar común de la casa. Pero lo que no se puede hacer es relacionarse con los hijos y sus amigos a con una identidad falsa, dice Martínez: "Porque es lo que hacen otras personas con malas intenciones".
Canalda explicó que su intención era comprobar el funcionamiento de la Red antes de dar permiso a su hija para que participara. Junto a ella, y con el perfil falso, Canalda estuvo varios días "como espectador", "sin participar en las conversaciones" de sus hijos, pero viendo lo que hacían "como si fuera un chico más", ha explicado. Ese control es "algo necesario a pesar de que puede resultar controvertido, porque alguien puede entender que es vulnerar la intimidad de los hijos", ha dicho el Defensor, que aseguró que, invitado por su hija, no vulneró su intimidad. Aunque eso sea así, ¿y la intimidad del resto de chicos a cuyas conversaciones asistió bajo un nombre falso?
"Es complicado fijar dónde está la línea entre el deber de protección de los menores y el derecho a su intimidad", dice Jorge Flores, director de Pantallas Amigas, una web de promoción de la seguridad de los jóvenes en las nuevas tecnologías. El debate está constantemente en la sociedad, dice, y recuerda la obligación de las chicas de 16 años de informar a sus padres si quieren abortar.
El psiquiatra infantil Paulino Castells cree que la clave está en la relación afectiva de padres e hijos: "Si el hijo se siente querido nunca será una intromisión". En general, asegura que hay que respetar en la medida de lo posible la intimidad de los menores, pero señala que, ante la sospecha de un padre o un educador de que hay situaciones peligrosas, es mejor traspasar la línea del "intervencionismo". Castells recuerda cómo evitó el suicidio de dos adolescentes hace años gracias a que una madre llegó a su consulta con el diario de su hija -la versión antigua y de papel de muchos blogs personales actuales-. Pero, en general, Castells considera que lo básico es enseñar a los chavales cuáles son los peligros de la Red, dónde pueden acudir si les ocurre algo y que sepan que sus padres siempre están para escucharles. "Es verdad que hay una cierta psicosis que hace que nos pasemos de la raya", añade.
En febrero del año pasado se presentaron los datos de una encuesta de la Comisión Europea que decía que los padres españoles son de los que más restricciones ponen a sus hijos en el uso de Internet (tiempo máximo de utilización, del uso del correo electrónico, la mensajería instantánea o chats). En un foro, poco después, algunos se congratulaban de esa enorme preocupación que demostraba ese dato, cuenta Martínez, que estuvo implicada en ese estudio. Pero la nota matizaba y reorientaba esa interpretación: "Los padres europeos que usan Internet son los menos preocupados", mientras que "los padres españoles no alcanzan los estándares de alfabetización digital de los padres anglosajones o escandinavos". Y por esa razón, a pesar de la preocupación, "tienen una menor tasa de uso de programas de filtrado y de monitorización que la media europea": un 42,7% y un 32,2%, frente a un 48,8% y 37%, de media (en Reino Unido un 77% de los padres usa el filtrado).
El caso de Canalda no parece fruto del desconocimiento. "A mí me parece más bien un toque de atención para que los padres estén encima y acompañen a sus hijos", dice el psiquiatra Castells. De hecho, Canalda ha explicado que no le gustaron las informaciones que vio intercambiar alegremente a los chicos -"Suben información por un tubo, tanto ellos como sus amigos, información que puede ser accesible a personas como yo, que soy un amigo que nadie conoce"- y por eso decidió junto a su hija que ésta no se diera de alta en Tuenti.
Al responsable de comunicación de Tuenti, Ícaro Moyano, le parece muy bien que los padres, sobre todo al principio, acompañen a sus hijos en el uso de estas herramientas, y que se den de alta en las redes, pero, una vez más, el problema es la identidad falsa. Moyano explica que Tuenti cumple con los protocolos de seguridad fijados por la Comisión Europea, por ejemplo que sólo están autorizados a entrar mayores de 14 años, los perfiles no aparecen en los buscadores de Internet y todo menor tiene activados por defecto los controles de privacidad más altos.
En cualquier caso, por grandes que sean los controles, y como ha demostrado Canalda, los peligros están ahí. En el servicio de atención de la asociación Protégeles, las consultas más frecuentes son por casos de acoso y sobre vulneración de la intimidad. Además, expertos en violencia escolar, como la catedrática de Psicología de la Universidad de Córdoba Rosario Ortega, alertan con preocupación del aumento de la violencia mediante el uso de las nuevas tecnologías, redes sociales o el cyberbullying.
Así, la pregunta de cualquier padre, aun despojado de esa psicosis a la que se refería Castells, es: ¿qué puedo hacer? "No se trata de un tema de fiscalización e intromisión, mucho menos exitosas, sino de educación", asegura Guillermo Cánovas, de Protégeles. "Hay que educar al menor desde que es pequeño", añade Gemma Martínez: sentarse junto a él a navegar -por ejemplo, elegir junto al chico o la chica los niveles de seguridad de su perfil en una red social- y, sobre todo, hablar con él. "Cuando eso falla se va a las restricciones, sin pararse a pensar que eso puede causar al menor problemas de exclusión entre sus amigos". Y, además, si un menor tiene vetado Internet o la red social en casa, "probablemente los use fuera, en un cibercafé, que es mucho más peligroso", dice Martínez. Pero claro, como recuerda Rosario Ortega, todas esas recomendaciones que los expertos colocan por encima de las demás requieren "dedicarle mucho más tiempo tanto a los niños como a los adolescentes".
Creatividad académica
En 2007, a los 89 años, fallecía Arthur Kornberg, discípulo de Severo Ochoa con quien compartió el Nobel en 1959. Hasta sus últimos días mantuvo un laboratorio y un despacho en la Universidad de Stanford. Científico dotado de una especial brillantez intelectual pudo ver en vida cómo su hijo Roger alcanzaba también el Nobel.
FUENTE | ABC Periódico Electrónico S.A. 16/03/2010
Son numerosos los ejemplos demostrativos de que la creatividad académica y científica se extiende hasta edades más allá de la convencionalmente establecida como de jubilación. El envejecimiento es un hecho biológico incontrovertible, como lo es la ampliación de la expectativa de vida con calidad y capacidad intelectual suficiente.
Son cambios que deberían llevar aparejados otros, como la revisión de pautas de organización social, establecidas con acierto en otras épocas, pero necesitadas de modificación a día de hoy. El aumento de la duración de la vida va acompañado de una reducción de la natalidad, con lo que el propio sistema de protección social se resiente.
En el mundo universitario el acierto está tanto en propiciar oportunidades para las nuevas generaciones, como en aprovechar la experiencia de quienes, voluntariamente y en condiciones adecuadas, estén dispuestos a ampliar su prestación. La disminución de la creatividad se compensa por la experiencia acumulada, para seguir aportando una tarea eficaz. En nuestra universidad pública hemos pasado por diversas oscilaciones, sin acertar en lo que sería necesario. En los ochenta, muchos de los profesores que habían alcanzado la condición de numerarios, en duras oposiciones y a edades no muy jóvenes, se vieron sorprendidos por el adelantamiento de su jubilación forzosa, medida que fue revocada en los noventa. Nuestra universidad necesita una gestión diferente. En especial para cambiar los procesos de selección del profesorado, así como el desarrollo de su carrera hasta la jubilación.
FUENTE | ABC Periódico Electrónico S.A. 16/03/2010
Son numerosos los ejemplos demostrativos de que la creatividad académica y científica se extiende hasta edades más allá de la convencionalmente establecida como de jubilación. El envejecimiento es un hecho biológico incontrovertible, como lo es la ampliación de la expectativa de vida con calidad y capacidad intelectual suficiente.
Son cambios que deberían llevar aparejados otros, como la revisión de pautas de organización social, establecidas con acierto en otras épocas, pero necesitadas de modificación a día de hoy. El aumento de la duración de la vida va acompañado de una reducción de la natalidad, con lo que el propio sistema de protección social se resiente.
En el mundo universitario el acierto está tanto en propiciar oportunidades para las nuevas generaciones, como en aprovechar la experiencia de quienes, voluntariamente y en condiciones adecuadas, estén dispuestos a ampliar su prestación. La disminución de la creatividad se compensa por la experiencia acumulada, para seguir aportando una tarea eficaz. En nuestra universidad pública hemos pasado por diversas oscilaciones, sin acertar en lo que sería necesario. En los ochenta, muchos de los profesores que habían alcanzado la condición de numerarios, en duras oposiciones y a edades no muy jóvenes, se vieron sorprendidos por el adelantamiento de su jubilación forzosa, medida que fue revocada en los noventa. Nuestra universidad necesita una gestión diferente. En especial para cambiar los procesos de selección del profesorado, así como el desarrollo de su carrera hasta la jubilación.
Tres siestas al día como terapia
La vida de David Franco depende de las alarmas de su móvil. Ellas le marcan la hora en que tiene que tomar la medicación (a las 3.00, las 15.00 y las 23.00) y le sugieren cuándo debe hacer un receso y echarse una siesta. Sólo así ha conseguido controlar la narcolepsia que padece, una enfermedad que le diagnosticaron hace ocho años después de que sufriera un accidente de tráfico porque se quedó literalmente dormido al volante. "Casi me mato", dice este hombre de 40 años en la consulta de Juan Pareja, el médico de la unidad de trastornos del sueño del Hospital Fundación de Alcorcón que le atiende. "Pasó varios años casi en hibernación", añade Pareja, quien también es miembro de la Sociedad Española de Neurología. "Ahora estoy muy bien. Mi mujer dice que empiezo a ser el que era", añade Franco.
Sara Breñas, de 31 años, asiste a la conversación casi con incredulidad. Ella también tiene narcolepsia, pero en un estado mucho menos avanzado. "Me lo diagnosticaron a los 19 años, aunque los síntomas empezaron tres años antes". "Te angustia, sobre todo al principio. Me dormía en clase, y no pude acabar los estudios. Me llamaban vaga. Lo peor es cómo lo lleva la gente. Intento trabajar, pero madrugar me mata. Simplemente, no puedo", dice Breñas, quien esta semana se quedará en el paro.
Breñas y Franco son dos casos de un amplio abanico que pasa por la consulta de Pareja. "Algunos no necesitan medicación; les basta con tomar café", dice el médico. Aunque la enfermedad es fácil de diagnosticar, no hay datos sobre su incidencia. La SEN calcula que serán unos 30.000 en España. "Tienen sueño durante el día, ataques de cataplejia (pérdida súbita del tono muscular), parálisis del sueño, alucinaciones antes de dormirse", explica el médico.
También se conoce la causa: el deterioro de unas neuronas del hipotálamo que secretan un neurotransmisor, las hipocretinas, que regulan la actividad motora y el sueño. En esta sustancia están las esperanzas de los médicos y los pacientes. "El problema es que no se puede dar por boca ni pincharla en sangre porque son muy lábiles", explica Pareja. Pero su esperanza es que se consiga una vía de administración "como la insulina para la diabetes o la dopamina para el párkinson" que permita compensar el déficit de los afectados. Mientras tanto, "sólo pueden recibir tratamiento sintomático, estimulantes para el sueño, y antidepresivos para los problemas de rigidez motora".
Breñas y Franco le escuchan con incredulidad. "Siempre nos está dando esperanzas", dice la mujer. Pero, por si acaso, prefiere no hacerse muchas ilusiones. "De momento, con controlar lo mío tengo bastante", dice. Franco, más reservado, asiente.
Pero, curiosamente, si el síntoma más conocido de los afectados es que se quedan dormidos durante el día -"como idos, de golpe", expone Breñas-, uno de los aspectos que más les angustia es que por la noche duermen muy mal. "Te crea mucha ansiedad. Como no duermes, por la noche, comes", dice la mujer.
Y no es algo trivial. "Llegué a pesar 180 kilos", cuenta Franco, siempre con parsimonia. Tanto, que se ha tenido que someter a una operación de reducción de estómago. "Las hipocretinas también regulan el apetito", explica Pareja.
Aunque los dos tienen claro que quieren que se conozcan los problemas que tienen -el próximo jueves 18 se conmemora por primera vez en el mundo un día contra esta enfermedad-, no pueden permitirse exaltarse. Y es que la frialdad emocional es también parte del tratamiento. "Como la cataplejia sobreviene con las emociones, tienen que adquirir frialdad. Es casi una anestesia psíquica", indica el médico.
Así que los afectados se pasan el día controlándose. Para no dormirse cuando no deben, para no emocionarse, para asegurarse de que tienen tiempo para una siesta, para seguir las pautas de la medicación. A pesar de sus esfuerzos por hacer una vida normal, el ataque en cualquiera de sus formas puede surgir en cualquier momento. Por ejemplo, al hacerse las fotos para este reportaje. Breñas, más extrovertida, pide que no se le haga reír para que no le dé. David Franco, más reservado, está a punto de dormirse cuando se tumba en la camilla para simular un reconocimiento.
"Mis amigos ya saben cuándo me va a dar, pero para ellos es una putada", dice Breñas. Los dos han tenido que dejar radicalmente el alcohol, y que educar a su entorno. "La gente se cree que estamos borrachos, que somos torpes, que no ponemos interés", dice Breñas. Franco, después de su accidente, tiene una invalidez. La mujer, más joven, aún lucha para llevar una vida lo más normal posible. "Me decían que no podía estar en ninguna empresa".
Ahora que siente que después de 12 años empieza a controlar otra vez su vida, está empeñada en sacarse el carné de conducir. Ya ha aprobado el teórico, y le consulta al médico qué debe hacer para pasar el reconocimiento médico. "Soy muy estricta con el tratamiento y los horarios. No puedo permitirme otra cosa", afirma convencida. "Antes, para mí era muy importante beber si salía con los amigos; ahora ya no". "Me decía que no era normal. Ha sido un calvario. Al principio no podía salir a la calle porque me caía, me daban las cataplejias. Ahora ya no", dice aliviada. Franco, que se ha saltado una de sus siestas para estar en la entrevista, ha ido perdiendo fuelle. "Ahora, a comer y a dormir. O al revés", casi bromea.
Sara Breñas, de 31 años, asiste a la conversación casi con incredulidad. Ella también tiene narcolepsia, pero en un estado mucho menos avanzado. "Me lo diagnosticaron a los 19 años, aunque los síntomas empezaron tres años antes". "Te angustia, sobre todo al principio. Me dormía en clase, y no pude acabar los estudios. Me llamaban vaga. Lo peor es cómo lo lleva la gente. Intento trabajar, pero madrugar me mata. Simplemente, no puedo", dice Breñas, quien esta semana se quedará en el paro.
Breñas y Franco son dos casos de un amplio abanico que pasa por la consulta de Pareja. "Algunos no necesitan medicación; les basta con tomar café", dice el médico. Aunque la enfermedad es fácil de diagnosticar, no hay datos sobre su incidencia. La SEN calcula que serán unos 30.000 en España. "Tienen sueño durante el día, ataques de cataplejia (pérdida súbita del tono muscular), parálisis del sueño, alucinaciones antes de dormirse", explica el médico.
También se conoce la causa: el deterioro de unas neuronas del hipotálamo que secretan un neurotransmisor, las hipocretinas, que regulan la actividad motora y el sueño. En esta sustancia están las esperanzas de los médicos y los pacientes. "El problema es que no se puede dar por boca ni pincharla en sangre porque son muy lábiles", explica Pareja. Pero su esperanza es que se consiga una vía de administración "como la insulina para la diabetes o la dopamina para el párkinson" que permita compensar el déficit de los afectados. Mientras tanto, "sólo pueden recibir tratamiento sintomático, estimulantes para el sueño, y antidepresivos para los problemas de rigidez motora".
Breñas y Franco le escuchan con incredulidad. "Siempre nos está dando esperanzas", dice la mujer. Pero, por si acaso, prefiere no hacerse muchas ilusiones. "De momento, con controlar lo mío tengo bastante", dice. Franco, más reservado, asiente.
Pero, curiosamente, si el síntoma más conocido de los afectados es que se quedan dormidos durante el día -"como idos, de golpe", expone Breñas-, uno de los aspectos que más les angustia es que por la noche duermen muy mal. "Te crea mucha ansiedad. Como no duermes, por la noche, comes", dice la mujer.
Y no es algo trivial. "Llegué a pesar 180 kilos", cuenta Franco, siempre con parsimonia. Tanto, que se ha tenido que someter a una operación de reducción de estómago. "Las hipocretinas también regulan el apetito", explica Pareja.
Aunque los dos tienen claro que quieren que se conozcan los problemas que tienen -el próximo jueves 18 se conmemora por primera vez en el mundo un día contra esta enfermedad-, no pueden permitirse exaltarse. Y es que la frialdad emocional es también parte del tratamiento. "Como la cataplejia sobreviene con las emociones, tienen que adquirir frialdad. Es casi una anestesia psíquica", indica el médico.
Así que los afectados se pasan el día controlándose. Para no dormirse cuando no deben, para no emocionarse, para asegurarse de que tienen tiempo para una siesta, para seguir las pautas de la medicación. A pesar de sus esfuerzos por hacer una vida normal, el ataque en cualquiera de sus formas puede surgir en cualquier momento. Por ejemplo, al hacerse las fotos para este reportaje. Breñas, más extrovertida, pide que no se le haga reír para que no le dé. David Franco, más reservado, está a punto de dormirse cuando se tumba en la camilla para simular un reconocimiento.
"Mis amigos ya saben cuándo me va a dar, pero para ellos es una putada", dice Breñas. Los dos han tenido que dejar radicalmente el alcohol, y que educar a su entorno. "La gente se cree que estamos borrachos, que somos torpes, que no ponemos interés", dice Breñas. Franco, después de su accidente, tiene una invalidez. La mujer, más joven, aún lucha para llevar una vida lo más normal posible. "Me decían que no podía estar en ninguna empresa".
Ahora que siente que después de 12 años empieza a controlar otra vez su vida, está empeñada en sacarse el carné de conducir. Ya ha aprobado el teórico, y le consulta al médico qué debe hacer para pasar el reconocimiento médico. "Soy muy estricta con el tratamiento y los horarios. No puedo permitirme otra cosa", afirma convencida. "Antes, para mí era muy importante beber si salía con los amigos; ahora ya no". "Me decía que no era normal. Ha sido un calvario. Al principio no podía salir a la calle porque me caía, me daban las cataplejias. Ahora ya no", dice aliviada. Franco, que se ha saltado una de sus siestas para estar en la entrevista, ha ido perdiendo fuelle. "Ahora, a comer y a dormir. O al revés", casi bromea.
sábado, 13 de marzo de 2010
La vitamina D, imprescindible para combatir las infecciones
El sol, las sardinas, el salmón, la leche, el hígado, los huevos, el aceite de hígado de bacalao... ¿qué tienen en común? Pues que están entre las principales fuentes naturales de vitamina D, fundamental para la absorción del calcio y del fósforo.
FUENTE ABC Periódico Electrónico S.A.
13/03/2010
Pero esta no es la única bondad conocida de esta vitamina porque un estudio publicado en la revista «Nature Inmunology» asegura que, además, es «absolutamente imprescindible» para activar el sistema inmunitario, pues sin ella las células T -encargadas de erradicar los virus o bacterias- no logran reaccionar ante una infección grave.El autor del estudio es el profesor de inmunología y microbiología de la Universidad de Copenhague Carsten Geisler, que explica que cuando las células T, un tipo de glóbulos blancos que detectan y matan grupos de bacterias o virus, están expuestas a un patógeno externo, emiten un receptor o antena que busca la vitamina D.CONTRA LA DIABETES Y ALGUNOS TIPOS DE CÁNCER«Si las células T no encuentran suficiente vitamina D en la sangre, ni siquiera empezarán a movilizarse», dijo. Según señala el investigador a Efe, aunque serán necesarios más estudios al respecto, los resultados indican que «un incremento en el consumo de vitamina D reduciría el riesgo de contraer infecciones, enfermedades autoinmunes como la esclerosis múltiple o la diabetes, algunos tipos de cáncer y la osteoporosis». Aunque el 90 por ciento de la vitamina D se produce en la piel mediante la exposición al sol, se puede obtener aumentando el consumo de alimentos como el salmón, las sardinas y los boquerones; atún y bonito, fresco o congelado; quesos grasos, margarina, champiñones, huevos, quesos curados y semicurados o frescos, la leche o el yogur, según informa la Clínica Universidad de Navarra en su web.«En muchas grandes ciudades en los inicios de la industrialización la contaminación del aire redujo la luz solar y gran parte de la población desarrolló carencias de vitamina D que provocaron raquitismo e infecciones», ha afirmado el autor de la investigación.Los científicos ya sabían que la vitamina D era importante para luchar contra las infecciones, pero hasta ahora no habían reparado en que las células T ni siquiera se movilizan ante los microorganismos peligrosos si no disponen de una dosis suficiente de vitamina D en la sangre.
FUENTE ABC Periódico Electrónico S.A.
13/03/2010
Pero esta no es la única bondad conocida de esta vitamina porque un estudio publicado en la revista «Nature Inmunology» asegura que, además, es «absolutamente imprescindible» para activar el sistema inmunitario, pues sin ella las células T -encargadas de erradicar los virus o bacterias- no logran reaccionar ante una infección grave.El autor del estudio es el profesor de inmunología y microbiología de la Universidad de Copenhague Carsten Geisler, que explica que cuando las células T, un tipo de glóbulos blancos que detectan y matan grupos de bacterias o virus, están expuestas a un patógeno externo, emiten un receptor o antena que busca la vitamina D.CONTRA LA DIABETES Y ALGUNOS TIPOS DE CÁNCER«Si las células T no encuentran suficiente vitamina D en la sangre, ni siquiera empezarán a movilizarse», dijo. Según señala el investigador a Efe, aunque serán necesarios más estudios al respecto, los resultados indican que «un incremento en el consumo de vitamina D reduciría el riesgo de contraer infecciones, enfermedades autoinmunes como la esclerosis múltiple o la diabetes, algunos tipos de cáncer y la osteoporosis». Aunque el 90 por ciento de la vitamina D se produce en la piel mediante la exposición al sol, se puede obtener aumentando el consumo de alimentos como el salmón, las sardinas y los boquerones; atún y bonito, fresco o congelado; quesos grasos, margarina, champiñones, huevos, quesos curados y semicurados o frescos, la leche o el yogur, según informa la Clínica Universidad de Navarra en su web.«En muchas grandes ciudades en los inicios de la industrialización la contaminación del aire redujo la luz solar y gran parte de la población desarrolló carencias de vitamina D que provocaron raquitismo e infecciones», ha afirmado el autor de la investigación.Los científicos ya sabían que la vitamina D era importante para luchar contra las infecciones, pero hasta ahora no habían reparado en que las células T ni siquiera se movilizan ante los microorganismos peligrosos si no disponen de una dosis suficiente de vitamina D en la sangre.
Nueva Técnica Para Detectar Desde la Superficie de la Tierra Planetas Similares al Nuestro
Una nueva técnica para estudiar, desde la superficie de la tierra, las atmósferas de planetas ubicados fuera de nuestro sistema solar va a acelerar la búsqueda de planetas similares al nuestro, que alberguen sustancias químicas relacionadas con la vida.
Unos astrónomos han desarrollado esta nueva técnica, usando un telescopio infrarrojo de la NASA, situado en tierra y relativamente pequeño, para identificar un compuesto orgánico en la atmósfera de un planeta del tamaño de Júpiter a cerca de 63 años-luz de distancia.Usando un novedoso método de calibración para eliminar errores de observación sistemáticos, los científicos obtuvieron una medición que revela detalles de las condiciones y la composición atmosféricas de ese planeta, un logro sin precedentes para un observatorio ubicado en la superficie de la Tierra.El objetivo final es observar la atmósfera de un planeta que posea la capacidad de sostener vida.
google_protectAndRun("ads_core.google_render_ad", google_handleError, google_render_ad);
La posibilidad de utilizar telescopios en tierra, en combinación con observatorios en el espacio, acelerará el trabajo de estudiar las atmósferas de planetas en otros sistemas solares.El hecho de que los investigadores hayan usado un telescopio relativamente pequeño y ubicado en tierra es alentador, porque implica que los mayores telescopios terrestres, usando esta técnica, podrían ser capaces de caracterizar planetas rocosos, o sea del mismo tipo que la Tierra.Actualmente se conocen más de 400 planetas en otros sistemas solares. La mayoría son gaseosos como Júpiter, pero se cree que algunas "superTierras" pueden tener bastantes rasgos en común con la Tierra.Un objetivo inmediato del uso de esta técnica es caracterizar más detalladamente la atmósfera de planetas de otros sistemas solares, incluyendo la detección de sustancias orgánicas y posiblemente prebióticas, como las que precedieron a la evolución de la vida en la Tierra.Giovanna Tinetti del University College de Londres y Mark Swain de la NASA han intervenido en el estudio.
Unos astrónomos han desarrollado esta nueva técnica, usando un telescopio infrarrojo de la NASA, situado en tierra y relativamente pequeño, para identificar un compuesto orgánico en la atmósfera de un planeta del tamaño de Júpiter a cerca de 63 años-luz de distancia.Usando un novedoso método de calibración para eliminar errores de observación sistemáticos, los científicos obtuvieron una medición que revela detalles de las condiciones y la composición atmosféricas de ese planeta, un logro sin precedentes para un observatorio ubicado en la superficie de la Tierra.El objetivo final es observar la atmósfera de un planeta que posea la capacidad de sostener vida.
google_protectAndRun("ads_core.google_render_ad", google_handleError, google_render_ad);
La posibilidad de utilizar telescopios en tierra, en combinación con observatorios en el espacio, acelerará el trabajo de estudiar las atmósferas de planetas en otros sistemas solares.El hecho de que los investigadores hayan usado un telescopio relativamente pequeño y ubicado en tierra es alentador, porque implica que los mayores telescopios terrestres, usando esta técnica, podrían ser capaces de caracterizar planetas rocosos, o sea del mismo tipo que la Tierra.Actualmente se conocen más de 400 planetas en otros sistemas solares. La mayoría son gaseosos como Júpiter, pero se cree que algunas "superTierras" pueden tener bastantes rasgos en común con la Tierra.Un objetivo inmediato del uso de esta técnica es caracterizar más detalladamente la atmósfera de planetas de otros sistemas solares, incluyendo la detección de sustancias orgánicas y posiblemente prebióticas, como las que precedieron a la evolución de la vida en la Tierra.Giovanna Tinetti del University College de Londres y Mark Swain de la NASA han intervenido en el estudio.
La Tierra fue una 'bola de nieve' hace 716 millones de años
Un grupo de geólogos ha encontrado pruebas de que el hielo en la superficie del mar se extendió hasta el Ecuador hace 716,5 millones de años, confirmando las sospechas de que en aquella época la Tierra llegó a convertirse en una "bola de nieve".Dirigido por científicos de la Universidad de Harvard, el estudio publicado en 'Science' y realizado sobre la base de un análisis de rocas antiguas tropicales que se encuentran ahora en el noroeste de Canadá, refuerza la teoría de que nuestro planeta tuvo en el pasado hielo extendido en todas sus latitudes a nivel del mar."Esta es la primera vez que se ha demostrado que la denominada glaciación esturtiana se produjo en latitudes tropicales, proporcionando evidencias directas de que esta glaciación en particular se convirtió en un evento que dejó a la Tierra convertida en una bola de nieve", según el autor principal Francis A. Macdonald, profesor asistente en el Departamento de la Tierra y Ciencias Planetarias en la Universidad de Harvard. "Nuestros datos también sugieren que la glaciación esturtiana tuvo una duración mínima de 5 millones de años".La supervivencia de la vida eucariota lo largo de este período indica que la luz del sol y el agua superficial disponible en algún sitio se mantuvo en la superficie de la Tierra. Los primeros animales surgieron en la misma época, a raíz de una proliferación importante de los eucariotas, informa 'Science Daily'.Incluso en una Tierra 'bola de nieve', afirma Macdonald, habría gradientes de temperatura en la Tierra, y es probable que el hielo podría ser dinámico: fluye, adelgaza y forma parches locales de aguas abiertas, que ofrecen refugio para la vida."El registro fósil indica que todos los principales grupos de eucariotas, con la posible excepción de los animales, existían antes de la glaciación esturtiana", señala Macdonald. Macdonald y sus colegas analizaron en Yukon (Canadá), depósitos glaciales y otros signos de glaciación, como clastos estriados, restos de hielo navegable, y la deformación de los sedimentos blandos. Los científicos fueron capaces de determinar, con base en el magnetismo y la composición de estas rocas, que hace 716,5 millones años esas rocas se encontraban en el nivel del mar en los trópicos, a una latitud de unos 10 grados."Debido a la alta reflectividad del hielo, el modelado del clima predice que si el hielo alguna vez se desarrolló dentro de la latitud 30 grados del Ecuador, todo el océano se congelaba con rapidez", señala Macdonald. "Así que nuestro resultado implica muy fuertemente que el hielo se han encontrado en todas las latitudes durante la glaciación esturtiana".Los científicos no saben exactamente lo que causó esta glaciación o lo que la puso fin, pero Macdonald afirma que su edad de 716,5 millones año se acerca a la edad de una amplia provincia ígnea que se extiende más de 1,500 kilómetros desde Alaska hasta la isla de Ellesmere, en el extremo nororiental de Canadá. Esta coincidencia podría significar que la glaciación fue precipitada por la actividad volcánica.
martes, 9 de marzo de 2010
Los neumáticos usados son ahora un juego de niños
A los que piensen que a partir del material reciclado sólo se puede obtener papel, botellas de vidrio y nuevos envases de plástico, varias empresas españolas están dispuestas a demostrarles lo contrario.
FUENTE Público
08/03/2010
Se trata de compañías que, al igual que Terracycle en EE.UU. y Elvis&Kresse en Reino Unido, se han apuntado al upcycling, o lo que es lo mismo: generar productos de calidad a partir de componentes reciclados. Este es el caso de Zicla, una compañía catalana que fabrica pavimentos para áreas de juego infantil con neumáticos usados. "Lo que pretendemos es recuperar un residuo y utilizarlo como materia prima, así ahorramos costes y al tiempo reducimos las emisiones de CO2", explica la directora de Zicla, Verónica Kuchinow. El catálogo de esta empresa cuenta con otros productos como separadores de carril bici y plataformas de acceso a los autobuses, fabricados a partir del residuo plástico de los cables eléctricos. "Sólo con los separadores de bici hemos conseguido recuperar unas 1.000 toneladas de plástico", afirma la directora.En el caso de los pavimentos de caucho, "por cada metro cuadrado que fabricamos evitamos la emisión de 11,34 kilogramos de CO2 que se habrían generado si se hubiese utilizado petróleo como materia prima en vez de caucho reciclado", comenta el codirector, Alfredo Balmaceda.APROVECHAR LO INSERVIBLEZicla no es la única que ha sabido descubrir el valor de los materiales desechados. Lasentiu aprovecha el residuo último de los plásticos para generar sus productos. La mayor parte de los desechos que se tiran al contenedor amarillo -para plásticos y envases- se separa y se vuelve a utilizar como materia prima. Sin embargo, siempre hay una fracción mezclada que no puede procesarse y se envía al vertedero. "Nosotros utilizamos esa parte que, de otra forma, no tendría utilidad", explica el director comercial de Lasentiu, Antonio Bertrán.Esta mezcla residual de plásticos sirve a la empresa para generar productos como papeleras y bancos de diseño. "Además de ahorrar costes en materia prima, este material tiene mejores propiedades que la madera que se suele utilizar para este tipo de productos", dice Bertrán. "Lasentiu emplea anualmente unas 2.500 toneladas de esta mezcla" que no irán al vertedero, añade.Los productos que se generan gracias al upcycling no sólo tienen las ventajas ecológicas del reciclado tradicional, "sino que tienen un valor añadido", afirma Kuchinow. Según la directora, "todos estos productos tienen algún beneficio sobre aquellos que se generan a partir de materias primas habituales".
FUENTE Público
08/03/2010
Se trata de compañías que, al igual que Terracycle en EE.UU. y Elvis&Kresse en Reino Unido, se han apuntado al upcycling, o lo que es lo mismo: generar productos de calidad a partir de componentes reciclados. Este es el caso de Zicla, una compañía catalana que fabrica pavimentos para áreas de juego infantil con neumáticos usados. "Lo que pretendemos es recuperar un residuo y utilizarlo como materia prima, así ahorramos costes y al tiempo reducimos las emisiones de CO2", explica la directora de Zicla, Verónica Kuchinow. El catálogo de esta empresa cuenta con otros productos como separadores de carril bici y plataformas de acceso a los autobuses, fabricados a partir del residuo plástico de los cables eléctricos. "Sólo con los separadores de bici hemos conseguido recuperar unas 1.000 toneladas de plástico", afirma la directora.En el caso de los pavimentos de caucho, "por cada metro cuadrado que fabricamos evitamos la emisión de 11,34 kilogramos de CO2 que se habrían generado si se hubiese utilizado petróleo como materia prima en vez de caucho reciclado", comenta el codirector, Alfredo Balmaceda.APROVECHAR LO INSERVIBLEZicla no es la única que ha sabido descubrir el valor de los materiales desechados. Lasentiu aprovecha el residuo último de los plásticos para generar sus productos. La mayor parte de los desechos que se tiran al contenedor amarillo -para plásticos y envases- se separa y se vuelve a utilizar como materia prima. Sin embargo, siempre hay una fracción mezclada que no puede procesarse y se envía al vertedero. "Nosotros utilizamos esa parte que, de otra forma, no tendría utilidad", explica el director comercial de Lasentiu, Antonio Bertrán.Esta mezcla residual de plásticos sirve a la empresa para generar productos como papeleras y bancos de diseño. "Además de ahorrar costes en materia prima, este material tiene mejores propiedades que la madera que se suele utilizar para este tipo de productos", dice Bertrán. "Lasentiu emplea anualmente unas 2.500 toneladas de esta mezcla" que no irán al vertedero, añade.Los productos que se generan gracias al upcycling no sólo tienen las ventajas ecológicas del reciclado tradicional, "sino que tienen un valor añadido", afirma Kuchinow. Según la directora, "todos estos productos tienen algún beneficio sobre aquellos que se generan a partir de materias primas habituales".
lunes, 8 de marzo de 2010
Las mujeres que toman dos copas de alcohol al día engordan menos
Una investigación hecha en Estados Unidos llegó a esta conclusión tras un seguimiento a 19 mil mujeres durante un periodo de 13 años.
Comentarios (4)
5
1
2
3
4
5
Compartir
Enviar
Los autores del estudio, sin embargo, se abstuvieron de recomendar el consumo de alcohol. (AP)
Las mujeres que toman dos copas de vino, de cerveza o de alcohol fuerte diarios corren menos riesgos de engordar que aquellas que no toman en absoluto, reveló un estudio publicado hoy por una revista estadounidense de medicina.
Investigadores del hospital Brigham and women de Boston (Massachusetts, noreste de Estados Unidos) interrogaron a 19.000 mujeres estadounidenses sin problemas de sobrepeso, de 39 años o más, sobre la cantidad de vasos de alcohol que consumían a diario y monitorearon a estas mujeres durante unos 13 años.
En esta muestra, el grupo más importante, de 7.346 personas, estaba formado por mujeres que no tomaban alcohol en absoluto, reveló el estudio divulgado en Archives of Internal Medicine . El segundo grupo más importante, con 6.312 mujeres (cerca de un tercio del total), lo integraban mujeres que afirmaron tomar alrededor de un tercio de vaso de vino, cerveza u otra bebida alcohólica por día, mientras que 20% tomaba un vaso, 6% dos vasos y 3% más de dos.
El vaso de alcohol considerado como estándar en Estados Unidos, sea una copa de vino (15 cl), de cerveza (35 cl) o una dosis de 43 ml de una bebida con una graduación alcohólica de 80, contiene la misma cantidad de alcohol, es decir 14 gramos.
En el período de 13 años estudiado, las mujeres que no tomaban alcohol fueron las que más engordaron, y quienes tomaban lo equivalente a dos vasos diarios fueron las que más resistieron a los kilos de más.
DATOS
El vino tinto resultó ser la bebida más eficiente contra el sobrepeso, pero el vino blanco, la cerveza o los licores, mostraron la misma “asociación inversa entre consumo de alcohol y riesgo de sobrepeso u obesidad”, según el estudio.
Los autores del trabajo se abstuvieron, no obstante, de recomendar el consumo de alcohol como manera de luchar contra la obesidad, dados los problemas médicos y psico-sociológicos vinculados al alcohol.
Comentarios (4)
5
1
2
3
4
5
Compartir
Enviar
Los autores del estudio, sin embargo, se abstuvieron de recomendar el consumo de alcohol. (AP)
Las mujeres que toman dos copas de vino, de cerveza o de alcohol fuerte diarios corren menos riesgos de engordar que aquellas que no toman en absoluto, reveló un estudio publicado hoy por una revista estadounidense de medicina.
Investigadores del hospital Brigham and women de Boston (Massachusetts, noreste de Estados Unidos) interrogaron a 19.000 mujeres estadounidenses sin problemas de sobrepeso, de 39 años o más, sobre la cantidad de vasos de alcohol que consumían a diario y monitorearon a estas mujeres durante unos 13 años.
En esta muestra, el grupo más importante, de 7.346 personas, estaba formado por mujeres que no tomaban alcohol en absoluto, reveló el estudio divulgado en Archives of Internal Medicine . El segundo grupo más importante, con 6.312 mujeres (cerca de un tercio del total), lo integraban mujeres que afirmaron tomar alrededor de un tercio de vaso de vino, cerveza u otra bebida alcohólica por día, mientras que 20% tomaba un vaso, 6% dos vasos y 3% más de dos.
El vaso de alcohol considerado como estándar en Estados Unidos, sea una copa de vino (15 cl), de cerveza (35 cl) o una dosis de 43 ml de una bebida con una graduación alcohólica de 80, contiene la misma cantidad de alcohol, es decir 14 gramos.
En el período de 13 años estudiado, las mujeres que no tomaban alcohol fueron las que más engordaron, y quienes tomaban lo equivalente a dos vasos diarios fueron las que más resistieron a los kilos de más.
DATOS
El vino tinto resultó ser la bebida más eficiente contra el sobrepeso, pero el vino blanco, la cerveza o los licores, mostraron la misma “asociación inversa entre consumo de alcohol y riesgo de sobrepeso u obesidad”, según el estudio.
Los autores del trabajo se abstuvieron, no obstante, de recomendar el consumo de alcohol como manera de luchar contra la obesidad, dados los problemas médicos y psico-sociológicos vinculados al alcohol.
domingo, 7 de marzo de 2010
Un estudioso que triunfa con la baba de caracol
Cirujano de profesión, Javier Peña empezó la crianza de caracoles como pasatiempo. Hoy exporta una tonelada al mes de este insumo.
3
1
2
3
4
5
Compartir
Enviar
Médico y empresario que le dio valor agregado a la crianza de caracoles. (Rafael Cornejo)
Javier Peña es un médico cirujano que ha estudiado a los caracoles con la misma precisión y cuidado que sus operaciones requieren. Esa dedicación lo ha llevado al éxito, en medio de un mercado que, años atrás, despertó el entusiasmo de muchos, pero que hoy solo ha dejado a unos cuantos sobrevivientes.
Peña es dueño de la empresa Galeón Cosmética y, en 2005, empezó con la crianza de caracoles, como un pasatiempo. Como él mismo dice “para desestresarme”.
Este doctor-empresario le tomó cariño a los pequeños animalitos y se dedicó a estudiarlos. Se animó por el negocio de la exportación de carne de caracol, pero se dio cuenta en el camino que no era una aventura rentable. En esa época, existían alrededor de 200 personas haciendo lo mismo, las que, después del fracaso, huyeron en estampida.
“Yo seguía criando y pensé que podía hacer algo de emprendimiento con los caracoles. Así que busqué estabilizar la baba del animal para venderla con fines cosméticos. Mi primera exportación fue a España de 200 kilos”, recuerda.
EL PROCESO. Para extraer baba de caracol no es necesario sacrificar al animalito. Primero, se le somete a un proceso de estrés, lo que hace que libere la sustancia de su cuerpo. Eso se hace manualmente: se coloca a los caracoles en agua destilada, de manera que sueltan la baba y se forma una solución gelatinosa.
Ahí no termina la cosa, porque se necesita un cuidadoso proceso de purificación, pues la baba se contamina fácilmente y pierde sus propiedades. Javier Peña aprendió esa técnica en varias capacitaciones que llevó en España.
La exportación del insumo lo obligó a sortear rigurosas certificaciones de calidad en Europa, para poder comercializar su producto. Incluso, probó científicamente los beneficios de la baba de caracol peruana en la piel humana. Todo ello, le dio prestigio internacional a nuestro producto. A la fecha, Galeón Cosmética exporta una tonelada al mes, en promedio, a países como España, Estados Unidos, Arabia, Corea, China y, próximamente, a Venezuela.
APUESTA. Los avances del doctor Peña lo llevaron a darle valor agregado a la baba de caracol, con la producción de cremas, champú, lociones y artículos de cosmética sobre la base de este beneficioso insumo. El empresario está ahora en pleno desarrollo de un ambicioso proyecto: la creación de una propuesta cosmética peruana con 20 activos naturales. Peña está estudiando el café, el cacao, la tuna y el extracto de papa nativa. “Queremos que esta propuesta compita con marcas como Gucci o Chanel”, asegura.
3
1
2
3
4
5
Compartir
Enviar
Médico y empresario que le dio valor agregado a la crianza de caracoles. (Rafael Cornejo)
Javier Peña es un médico cirujano que ha estudiado a los caracoles con la misma precisión y cuidado que sus operaciones requieren. Esa dedicación lo ha llevado al éxito, en medio de un mercado que, años atrás, despertó el entusiasmo de muchos, pero que hoy solo ha dejado a unos cuantos sobrevivientes.
Peña es dueño de la empresa Galeón Cosmética y, en 2005, empezó con la crianza de caracoles, como un pasatiempo. Como él mismo dice “para desestresarme”.
Este doctor-empresario le tomó cariño a los pequeños animalitos y se dedicó a estudiarlos. Se animó por el negocio de la exportación de carne de caracol, pero se dio cuenta en el camino que no era una aventura rentable. En esa época, existían alrededor de 200 personas haciendo lo mismo, las que, después del fracaso, huyeron en estampida.
“Yo seguía criando y pensé que podía hacer algo de emprendimiento con los caracoles. Así que busqué estabilizar la baba del animal para venderla con fines cosméticos. Mi primera exportación fue a España de 200 kilos”, recuerda.
EL PROCESO. Para extraer baba de caracol no es necesario sacrificar al animalito. Primero, se le somete a un proceso de estrés, lo que hace que libere la sustancia de su cuerpo. Eso se hace manualmente: se coloca a los caracoles en agua destilada, de manera que sueltan la baba y se forma una solución gelatinosa.
Ahí no termina la cosa, porque se necesita un cuidadoso proceso de purificación, pues la baba se contamina fácilmente y pierde sus propiedades. Javier Peña aprendió esa técnica en varias capacitaciones que llevó en España.
La exportación del insumo lo obligó a sortear rigurosas certificaciones de calidad en Europa, para poder comercializar su producto. Incluso, probó científicamente los beneficios de la baba de caracol peruana en la piel humana. Todo ello, le dio prestigio internacional a nuestro producto. A la fecha, Galeón Cosmética exporta una tonelada al mes, en promedio, a países como España, Estados Unidos, Arabia, Corea, China y, próximamente, a Venezuela.
APUESTA. Los avances del doctor Peña lo llevaron a darle valor agregado a la baba de caracol, con la producción de cremas, champú, lociones y artículos de cosmética sobre la base de este beneficioso insumo. El empresario está ahora en pleno desarrollo de un ambicioso proyecto: la creación de una propuesta cosmética peruana con 20 activos naturales. Peña está estudiando el café, el cacao, la tuna y el extracto de papa nativa. “Queremos que esta propuesta compita con marcas como Gucci o Chanel”, asegura.
sábado, 6 de marzo de 2010
La Red nos hace más listos
Quedan sólo diez años para que los seres humanos sean más inteligentes. No sólo eso, también serán mejores lectores, con buena ortografía y habrán ampliado sus capacidades de comprensión. Y todo gracias a Internet.
FUENTE Público
05/03/2010
La década traerá otras tres buenas nuevas: la tecnología seguirá sorprendiendo, Internet continuará libre y conservará muchas parcelas donde seguir siendo anónimo. Parece un cuento, pero son los resultados de una encuesta del Pew Research Center de EE.UU. realizada a 900 expertos, entre profesores universitarios, responsables de empresas tecnológicas o líderes de la Red. La mitad son veteranos: están en Internet desde 1992. El trabajo forma parte de una serie de encuestas que, con carácter anual, dibujan cómo será la Internet del futuro. Cada año, cambian las preguntas. En la anterior edición presentaron ocho escenarios posibles a los entrevistados. La mayoría eran sobre innovaciones tecnológicas: realidad aumentada, interfaces o redes sociales.En esta cuarta entrega, las cuestiones son más provocadoras. Dos de ellas plantean la posibilidad de que Internet esté modificando el intelecto humano. Una tercera pregunta, si las innovaciones tecnológicas seguirán sorprendiendo la imaginación de los hombres.Las dos últimas tienen un cariz más social. Una pregunta por la supervivencia del principio end-to-end (o punta a punta, en inglés). Postulado en 1981, proponía que los protocolos necesarios para la comunicación en la Red se ejecutaran en los extremos de estalos usuarios sin necesidad de intervención del medio, las redes. Pensado por ingenieros, derivó a lo que hoy se llama neutralidad de la Red. La quinta pide a los expertos que imaginen si será posible ser anónimo en 2020 o, por el contrario, se impondrá el control.¿SEREMOS MÁS INTELIGENTES?En julio de 2008, el escritor estadounidense Nicholas Carr escribió un largo artículo en la revista The Atlantic con el título de Is Google Making Us Stupid? (¿Google nos está haciendo estúpidos?). Sostenía, como dicen algunos neurólogos y psicólogos, que el acceso fácil a datos on-line y la forma propia de navegar, saltando de una página a otra, están limitando la capacidad para concentrarse. De esta manera, la impresión del saber en el cerebro sería más débil que al leer un libro, haciéndolo deleble.Pero el 76% de los entrevistados por Pew Internet no está de acuerdo. Al contrario, creen que Internet potenciará las habilidades mentales. Sólo un 21% considera que su impacto será negativo. El propio Carr es uno de estos, cuando afirma: "El precio de moverse rápidamente entre muchos bits de información es la pérdida de profundidad en nuestro pensamiento".Le responde el profesor de la Universidad de Berkeley y economista jefe de Google, Hal Varian: "Google nos hará más informados. Los más inteligentes del mundo podrían estar tras un arado en China o India. Ofrecerles un acceso universal al conocimiento les permitirá desarrollar todo su potencial".Sin embargo, para otros, la cuestión está mal planteada. Lo que está provocando Google es una inteligencia diferente. De la misma forma que las calculadoras hicieron innecesario realizar operaciones, la acumulación de saber no tendrá ya sentido. Lo explica el vicepresidente de la Asociación de Investigadores de Internet, Alex Halavais: "Retener en la cabeza información que es fácil de encontrar en Google no será ya una señal de inteligencia. Ser capaz de descubrir de forma rápida y efectiva información y resolver problemas más que hacerlos en nuestra mente será la medida que usaremos".¿LEEREMOS MEJOR?A la segunda pregunta, el 65% de los entrevistados respondió que, en 2020, Internet habrá mejorado la capacidad de leer y escribir. La mayoría coincide en que la Red está provocando una revolución de tanto o mayor impacto que la que provocó la imprenta.Los que ven claro el cambio que se está produciendo casi se escandalizan por la pregunta. "La mejora será especialmente grande y evidente porque los nuevos lectores serán comparados con la generación previa, la de la televisión... Pero la vieja generación seguirá diciendo que los jóvenes no pueden leer, a pesar de las evidencias en contra", argumenta Stephen Downes, del Consejo Nacional de Investigación de Canadá.Ese miedo, casi desprecio, al cambio por parte de los mayores es destacado por muchos. Como explica Mark Edwards, de la Universidad de Harvard, "cuando apareció la escritura, los filósofos temieron que debilitaría la memoria y degradaría la inteligencia... Cuando surgió la imprenta, los maestros despreciaron la nueva tecnología porque propagaría el error y sin embargo el conocimiento floreció. Internet tendrá los mismos efectos".Eso sí, las formas de leer, escribir y compartir conocimiento serán diferentes. El profesor de la Universidad de Nueva York, Clay Shirky, lo ve así: "La ficción de largo formato sufrirá (aunque viene sufriendo desde la aparición de la radio) mientras todas las formas numéricas, gráficas, de mostrar el saber, desde la creación de bases de datos, hasta todas las maneras visuales de mostrar datos, vivirán una edad de oro".LAS INNOVACIONES SEGUIRÁN FASCINANDODe la misma forma que nadie podría haber previsto en el año 2000 la aparición del iPhone o el éxito de Facebook, el 80% de los encuestados sostiene que los avances que vienen no agotarán la capacidad de asombro de los usuarios. El cofundador del medidor de blogs Technorati, David Sifry, lo dice muy claro: "No tenemos ni idea de cuáles serán los aparatos y aplicaciones principales en 2020". El hecho de que la esfera tecnológica aún esté tomando forma no ayuda a hacer de adivino. Varios expertos dicen que el aumento de la banda ancha y la potencia de computación de las máquinas espolearán una nueva oleada de innovación.Sin embargo, algunos expertos sostienen que la simiente del futuro está en el presente. "La realidad aumentada es el futuro, junto a su prima hermana, la Internet de las cosas", imagina Rich Osborne, de la Universidad de Exeter. Junto a estas dos, también se habla del cibercoche, ambientes llenos de sensores y variados implantes que anticiparán la era de los ciborg.EL PELIGRO DE OPERADORAS Y GOBIERNOSAunque la mayoría (un 61%) cree que el principio end-to-end seguirá vivo en 2020, todos reconocen que el peligro de que Internet deje de ser libre y neutral existe. El profesor de las universidades de Stanford y Berkeley Howard Rheingold describe el proceso que teme vendrá: "Las fuerzas del control central, las políticas y económicas, se moverán para volver a centralizar el poder que perdieron cuando Internet estalló". Hablan de China, de Irán, pero también de los gobiernos occidentales y de las grandes empresas como los más interesados en tener la Red bajo control.Los optimistas confían en el poder de la gente. "Los usuarios de la Red se unirán para mantenerla abierta", asegura el responsable del Centro para la Democracia y la Tecnología, Jerry Berman. "Hay mucho en juego para dejar que los intermediarios controlen el tubo", añade el director del Centro de Investigación para Internet de Singapur, Peng Hwa Ang.AÚN SE PODRÁ NAVEGAR SIN REVELAR LA IDENTIDADLa última cuestión dibujaba un mundo lleno de sistemas de identificación (lectores del iris, escáneres de ADN...) con los que poder acceder a los servicios de Internet, a cambio de renunciar al anonimato. Triunfó la división. Aunque el 41% apuesta por esta posibilidad, el 55% no cree que sea para tanto."La batalla por las libertades civiles y la privacidad de la próxima década girará en torno a la creciente exigencia de credenciales de identidad. Pero los nuevos sistemas de autenticación traerán nuevos problemas", opina el director de EPIC, un organismo defensor de los ciberderechos.Pero hay quien sostiene que esto no es necesariamente malo. "Veremos una variedad de opciones de identificación on-line. Los denunciantes necesitan anonimato; los foros de discusión, un modesto nivel de verificación, mientras que la banca en casa exige una fuerte autenticación", dice el fundador del sitio de anuncios Craiglist, Craig Newmark.Para defensores de la privacidad, como el director del Instituto para el Futuro, la pregunta se ha quedado vieja: "Teniendo en cuenta la cantidad de comunicaciones que ya vigilan los gobiernos, probablemente hemos superado ese punto".Lo que más ha sorprendido al director del Pew Internet, Lee Rainie, no es ni el fin de la privacidad ni las amenazas a la neutralidad de la Red, sino los resultados a la tercera pregunta. "Creía que estos expertos sabrían qué gadgets y aplicaciones surgirían, pero ni ellos confían en su capacidad para predecir el futuro".
FUENTE Público
05/03/2010
La década traerá otras tres buenas nuevas: la tecnología seguirá sorprendiendo, Internet continuará libre y conservará muchas parcelas donde seguir siendo anónimo. Parece un cuento, pero son los resultados de una encuesta del Pew Research Center de EE.UU. realizada a 900 expertos, entre profesores universitarios, responsables de empresas tecnológicas o líderes de la Red. La mitad son veteranos: están en Internet desde 1992. El trabajo forma parte de una serie de encuestas que, con carácter anual, dibujan cómo será la Internet del futuro. Cada año, cambian las preguntas. En la anterior edición presentaron ocho escenarios posibles a los entrevistados. La mayoría eran sobre innovaciones tecnológicas: realidad aumentada, interfaces o redes sociales.En esta cuarta entrega, las cuestiones son más provocadoras. Dos de ellas plantean la posibilidad de que Internet esté modificando el intelecto humano. Una tercera pregunta, si las innovaciones tecnológicas seguirán sorprendiendo la imaginación de los hombres.Las dos últimas tienen un cariz más social. Una pregunta por la supervivencia del principio end-to-end (o punta a punta, en inglés). Postulado en 1981, proponía que los protocolos necesarios para la comunicación en la Red se ejecutaran en los extremos de estalos usuarios sin necesidad de intervención del medio, las redes. Pensado por ingenieros, derivó a lo que hoy se llama neutralidad de la Red. La quinta pide a los expertos que imaginen si será posible ser anónimo en 2020 o, por el contrario, se impondrá el control.¿SEREMOS MÁS INTELIGENTES?En julio de 2008, el escritor estadounidense Nicholas Carr escribió un largo artículo en la revista The Atlantic con el título de Is Google Making Us Stupid? (¿Google nos está haciendo estúpidos?). Sostenía, como dicen algunos neurólogos y psicólogos, que el acceso fácil a datos on-line y la forma propia de navegar, saltando de una página a otra, están limitando la capacidad para concentrarse. De esta manera, la impresión del saber en el cerebro sería más débil que al leer un libro, haciéndolo deleble.Pero el 76% de los entrevistados por Pew Internet no está de acuerdo. Al contrario, creen que Internet potenciará las habilidades mentales. Sólo un 21% considera que su impacto será negativo. El propio Carr es uno de estos, cuando afirma: "El precio de moverse rápidamente entre muchos bits de información es la pérdida de profundidad en nuestro pensamiento".Le responde el profesor de la Universidad de Berkeley y economista jefe de Google, Hal Varian: "Google nos hará más informados. Los más inteligentes del mundo podrían estar tras un arado en China o India. Ofrecerles un acceso universal al conocimiento les permitirá desarrollar todo su potencial".Sin embargo, para otros, la cuestión está mal planteada. Lo que está provocando Google es una inteligencia diferente. De la misma forma que las calculadoras hicieron innecesario realizar operaciones, la acumulación de saber no tendrá ya sentido. Lo explica el vicepresidente de la Asociación de Investigadores de Internet, Alex Halavais: "Retener en la cabeza información que es fácil de encontrar en Google no será ya una señal de inteligencia. Ser capaz de descubrir de forma rápida y efectiva información y resolver problemas más que hacerlos en nuestra mente será la medida que usaremos".¿LEEREMOS MEJOR?A la segunda pregunta, el 65% de los entrevistados respondió que, en 2020, Internet habrá mejorado la capacidad de leer y escribir. La mayoría coincide en que la Red está provocando una revolución de tanto o mayor impacto que la que provocó la imprenta.Los que ven claro el cambio que se está produciendo casi se escandalizan por la pregunta. "La mejora será especialmente grande y evidente porque los nuevos lectores serán comparados con la generación previa, la de la televisión... Pero la vieja generación seguirá diciendo que los jóvenes no pueden leer, a pesar de las evidencias en contra", argumenta Stephen Downes, del Consejo Nacional de Investigación de Canadá.Ese miedo, casi desprecio, al cambio por parte de los mayores es destacado por muchos. Como explica Mark Edwards, de la Universidad de Harvard, "cuando apareció la escritura, los filósofos temieron que debilitaría la memoria y degradaría la inteligencia... Cuando surgió la imprenta, los maestros despreciaron la nueva tecnología porque propagaría el error y sin embargo el conocimiento floreció. Internet tendrá los mismos efectos".Eso sí, las formas de leer, escribir y compartir conocimiento serán diferentes. El profesor de la Universidad de Nueva York, Clay Shirky, lo ve así: "La ficción de largo formato sufrirá (aunque viene sufriendo desde la aparición de la radio) mientras todas las formas numéricas, gráficas, de mostrar el saber, desde la creación de bases de datos, hasta todas las maneras visuales de mostrar datos, vivirán una edad de oro".LAS INNOVACIONES SEGUIRÁN FASCINANDODe la misma forma que nadie podría haber previsto en el año 2000 la aparición del iPhone o el éxito de Facebook, el 80% de los encuestados sostiene que los avances que vienen no agotarán la capacidad de asombro de los usuarios. El cofundador del medidor de blogs Technorati, David Sifry, lo dice muy claro: "No tenemos ni idea de cuáles serán los aparatos y aplicaciones principales en 2020". El hecho de que la esfera tecnológica aún esté tomando forma no ayuda a hacer de adivino. Varios expertos dicen que el aumento de la banda ancha y la potencia de computación de las máquinas espolearán una nueva oleada de innovación.Sin embargo, algunos expertos sostienen que la simiente del futuro está en el presente. "La realidad aumentada es el futuro, junto a su prima hermana, la Internet de las cosas", imagina Rich Osborne, de la Universidad de Exeter. Junto a estas dos, también se habla del cibercoche, ambientes llenos de sensores y variados implantes que anticiparán la era de los ciborg.EL PELIGRO DE OPERADORAS Y GOBIERNOSAunque la mayoría (un 61%) cree que el principio end-to-end seguirá vivo en 2020, todos reconocen que el peligro de que Internet deje de ser libre y neutral existe. El profesor de las universidades de Stanford y Berkeley Howard Rheingold describe el proceso que teme vendrá: "Las fuerzas del control central, las políticas y económicas, se moverán para volver a centralizar el poder que perdieron cuando Internet estalló". Hablan de China, de Irán, pero también de los gobiernos occidentales y de las grandes empresas como los más interesados en tener la Red bajo control.Los optimistas confían en el poder de la gente. "Los usuarios de la Red se unirán para mantenerla abierta", asegura el responsable del Centro para la Democracia y la Tecnología, Jerry Berman. "Hay mucho en juego para dejar que los intermediarios controlen el tubo", añade el director del Centro de Investigación para Internet de Singapur, Peng Hwa Ang.AÚN SE PODRÁ NAVEGAR SIN REVELAR LA IDENTIDADLa última cuestión dibujaba un mundo lleno de sistemas de identificación (lectores del iris, escáneres de ADN...) con los que poder acceder a los servicios de Internet, a cambio de renunciar al anonimato. Triunfó la división. Aunque el 41% apuesta por esta posibilidad, el 55% no cree que sea para tanto."La batalla por las libertades civiles y la privacidad de la próxima década girará en torno a la creciente exigencia de credenciales de identidad. Pero los nuevos sistemas de autenticación traerán nuevos problemas", opina el director de EPIC, un organismo defensor de los ciberderechos.Pero hay quien sostiene que esto no es necesariamente malo. "Veremos una variedad de opciones de identificación on-line. Los denunciantes necesitan anonimato; los foros de discusión, un modesto nivel de verificación, mientras que la banca en casa exige una fuerte autenticación", dice el fundador del sitio de anuncios Craiglist, Craig Newmark.Para defensores de la privacidad, como el director del Instituto para el Futuro, la pregunta se ha quedado vieja: "Teniendo en cuenta la cantidad de comunicaciones que ya vigilan los gobiernos, probablemente hemos superado ese punto".Lo que más ha sorprendido al director del Pew Internet, Lee Rainie, no es ni el fin de la privacidad ni las amenazas a la neutralidad de la Red, sino los resultados a la tercera pregunta. "Creía que estos expertos sabrían qué gadgets y aplicaciones surgirían, pero ni ellos confían en su capacidad para predecir el futuro".
Sólo 50 de las más de 5.000 enfermedades raras tiene tratamiento
Las personas afectadas por una enfermedad rara (que, en verdad en castellano habría que llamar infrecuentes) tienen una dura lucha para que alguien se ocupe de ellos. Como tienen, tomada una a una, muy baja incidencia (las padecen menos de 5 de cada 10.000 personas), las posibles ventas de un remedio serían muy bajas, mientras que el esfuerzo investigador para conseguirlo es el mismo (o superior) que el de medicamentos con mucha más salida comercial.
El resultado, según ha expuesto Ana Villegas, del Hospital Clínico San Carlos (Madrid), es que de las más de 5.000 patologías catalogadas como raras, sólo 50 tienen tratamiento. "Las enfermedades raras suponen un reto y son de una gran complejidad clínica a la hora de su diagnóstico", ha afirmado Villegas en una conferencia con motivo del día mundial para recordar estas enfermedades. "Muchos de estos pacientes tienen una gran sensación de orfandad y abandono, puesto que su enfermedad tiene una baja prevalencia social", añadió durante la jornada organizada por Alexión Pharma, un laboratorio que en 2007 sacó el único tratamiento que existe para la hemoglobinuria paroxística nocturna (HPN), una dolencia que se debe a que los glóbulos rojos se rompen, lo que provoca anemia y debilidad.Si tomadas una a una las enfermedades raras son muy infrecuentes, en su conjunto son muy relevantes. Se calcula que sólo en España hay más de tres millones de personas afectadas por una de ellas (una cifra que los expertos elevan a cinco millones si se tiene en cuenta que hay muchos pacientes leves sin diagnosticar).Dado el desinterés de la mayoría de los laboratorios -hay excepciones- por ellos, hace tiempo que los gobiernos y la sanidad pública han decidido asumir su tutela. Para ello se han desarrollado los programas de medicamentos huérfanos, que reciben subvenciones y tienen rebajas en las tasas de aprobación para ponerlos en el mercado. En España también existe desde 2007 el Centro de Investigación Biomédica en Red sobre Enfermedades Raras (Ciberer), englobado dentro del CSIC y que agrupa a 61 grupos de investigación.
El resultado, según ha expuesto Ana Villegas, del Hospital Clínico San Carlos (Madrid), es que de las más de 5.000 patologías catalogadas como raras, sólo 50 tienen tratamiento. "Las enfermedades raras suponen un reto y son de una gran complejidad clínica a la hora de su diagnóstico", ha afirmado Villegas en una conferencia con motivo del día mundial para recordar estas enfermedades. "Muchos de estos pacientes tienen una gran sensación de orfandad y abandono, puesto que su enfermedad tiene una baja prevalencia social", añadió durante la jornada organizada por Alexión Pharma, un laboratorio que en 2007 sacó el único tratamiento que existe para la hemoglobinuria paroxística nocturna (HPN), una dolencia que se debe a que los glóbulos rojos se rompen, lo que provoca anemia y debilidad.Si tomadas una a una las enfermedades raras son muy infrecuentes, en su conjunto son muy relevantes. Se calcula que sólo en España hay más de tres millones de personas afectadas por una de ellas (una cifra que los expertos elevan a cinco millones si se tiene en cuenta que hay muchos pacientes leves sin diagnosticar).Dado el desinterés de la mayoría de los laboratorios -hay excepciones- por ellos, hace tiempo que los gobiernos y la sanidad pública han decidido asumir su tutela. Para ello se han desarrollado los programas de medicamentos huérfanos, que reciben subvenciones y tienen rebajas en las tasas de aprobación para ponerlos en el mercado. En España también existe desde 2007 el Centro de Investigación Biomédica en Red sobre Enfermedades Raras (Ciberer), englobado dentro del CSIC y que agrupa a 61 grupos de investigación.
martes, 2 de marzo de 2010
¿Qué es un tsunami?
Un tsunami es una ola o serie de olas que se producen en una masa de agua al ser empujada violentamente por una fuerza que la desplaza verticalmente. Terremotos, volcanes, derrumbes costeros o subterráneos e incluso explosiones de gran magnitud pueden generar este fenómeno.
FUENTE El Mundo Digital
01/03/2010
El brusco movimiento del agua desde la profundidad genera un efecto de 'latigazo' hacia la superficie que es capaz de lograr olas de magnitud impensable. Teniendo en cuenta que la profundidad habitual del Océano Pacífico es de unos 4.000 metros, se pueden provocar olas que se mueven a 700 km/h. Y como las olas pierden su fuerza en relación inversa a su tamaño, al tener 4.000 metros puede viajar a miles de kilómetros de distancia sin perder mucha fuerza.Sólo cuando llegan a la costa comienzan a perder velocidad, al disminuir la profundidad del océano. La altura de las olas, sin embargo, puede incrementarse hasta superar los 30 metros (lo habitual es una altura de seis o siete metros).La causa más frecuente para la formación de olas gigantes son los terremotos ocurridos en el fondo marino. Cuando éste se mueve violentamente en sentido vertical, el océano ve alterado su equilibrio natural. Cuando la inmensa masa de agua trata de recuperar su equilibrio, se generan las olas gigantescas.Su tamaño dependerá de la magnitud del seísmo y de la deformación vertical del fondo marino. No todos los terremotos generan tsunamis, sino sólo aquellos de magnitud considerable, que ocurren bajo el lecho marino y que son capaces de deformarlo. Si bien cualquier océano puede experimentar un tsunami, es más frecuente que ocurran en el Océano Pacífico, donde son también más comunes los terremotos de magnitudes considerables (especialmente las costas de Chile, Perú y Japón).Además el tipo de falla que ocurre entre las placas de Nazca y Sudamericana (donde se ha producido el seísmo que ha azotado Chile), llamada de subducción -cuando una placa se va deslizando bajo la otra- hacen más propicia la deformidad del fondo marino y, por ende, los tsunamis u olas gigantes.Precisamente por eso los más devastadores casos de olas gigantescas han ocurrido en el Océano Pacífico, pero también se han registrado casos en el Atlántico e incluso en el Mediterráneo. Un gran tsunami acompañó los terremotos de Lisboa en 1755, el del Paso de Mona de Puerto Rico en 1918, y el de Grand Banks de Canadá en 1929.
FUENTE El Mundo Digital
01/03/2010
El brusco movimiento del agua desde la profundidad genera un efecto de 'latigazo' hacia la superficie que es capaz de lograr olas de magnitud impensable. Teniendo en cuenta que la profundidad habitual del Océano Pacífico es de unos 4.000 metros, se pueden provocar olas que se mueven a 700 km/h. Y como las olas pierden su fuerza en relación inversa a su tamaño, al tener 4.000 metros puede viajar a miles de kilómetros de distancia sin perder mucha fuerza.Sólo cuando llegan a la costa comienzan a perder velocidad, al disminuir la profundidad del océano. La altura de las olas, sin embargo, puede incrementarse hasta superar los 30 metros (lo habitual es una altura de seis o siete metros).La causa más frecuente para la formación de olas gigantes son los terremotos ocurridos en el fondo marino. Cuando éste se mueve violentamente en sentido vertical, el océano ve alterado su equilibrio natural. Cuando la inmensa masa de agua trata de recuperar su equilibrio, se generan las olas gigantescas.Su tamaño dependerá de la magnitud del seísmo y de la deformación vertical del fondo marino. No todos los terremotos generan tsunamis, sino sólo aquellos de magnitud considerable, que ocurren bajo el lecho marino y que son capaces de deformarlo. Si bien cualquier océano puede experimentar un tsunami, es más frecuente que ocurran en el Océano Pacífico, donde son también más comunes los terremotos de magnitudes considerables (especialmente las costas de Chile, Perú y Japón).Además el tipo de falla que ocurre entre las placas de Nazca y Sudamericana (donde se ha producido el seísmo que ha azotado Chile), llamada de subducción -cuando una placa se va deslizando bajo la otra- hacen más propicia la deformidad del fondo marino y, por ende, los tsunamis u olas gigantes.Precisamente por eso los más devastadores casos de olas gigantescas han ocurrido en el Océano Pacífico, pero también se han registrado casos en el Atlántico e incluso en el Mediterráneo. Un gran tsunami acompañó los terremotos de Lisboa en 1755, el del Paso de Mona de Puerto Rico en 1918, y el de Grand Banks de Canadá en 1929.
La basura, el nuevo combustible
Hasta noviembre, Altamont Landfill era poco más que un montón de basura. Un enorme vertedero frente a San Francisco en el que, desde 1980, se han ido amontonando las más de 15 millones de toneladas de desperdicios producidos por la ciudad de la bahía.
Sin embargo, hoy los cientos de camiones de basura que se acercan a diario a sus colinas ya no van a descargar, sino a llenar el depósito. La compañía Waste Management ha convertido Altamont Landfill en la mayor planta de tratamiento de gas metano del mundo. A través de más de 200 pozos hundidos en las 100 hectáreas de esta minirrefinería, la compañía recoge este gas de efecto invernadero, producido por la descomposición de la basura, para transformarlo en gas natural licuado (GNL). Así se obtiene una fuente de energía con menor impacto ambiental que cualquier combustible fósil, cuyo uso podría servir para reducir las emisiones hasta en un 70%, y que además es entre un 30% y un 60% más barata que la gasolina.Desde su puesta en marcha, la estación vive un trasiego inusual. A diario, más de 500 camiones de basura, autobuses y vehículos escolares de una veintena de localidades del norte de California se acercan allí para llenar sus depósitos. El proceso es sencillo: después de extraer el metano, se licúa a -161ºC. Kenneth Lewis, director de operaciones de la planta, resume su labor: "Convertimos los basureros en centros de producción energética". La planta puede distribuir 60.000 litros de GNL al día, lo que significa ahorrar 11,3 millones de litros de diesel cada año y "evitar que 30.000 toneladas de CO2 lleguen a la atmósfera", asegura Lewis.UN COCHE POR HABITANTEEl coste de la instalación, 12 millones de euros, ha sido subvencionado en parte dos millones por el estado de California, el más castigado por la contaminación del tráfico. Cerca de 32 millones de vehículos circulan por sus carreteras, casi uno por habitante.El gobernador Arnold Schwarzenegger pretende reducir las emisiones en California un 25% para 2020. La nueva planta evitará que en los próximos cuatro años lleguen a la atmósfera 1,5 millones de toneladas de CO2. La administración ya negocia la aportación a una planta gemela a 40 kilómetros al sur de Los Ángeles, la ciudad con la mayor flota de autobuses impulsados por GNL del país, unos 2.700."El GNL reduce la dependencia de los combustibles fósiles y supone un enorme beneficio ambiental para las comunidades", asegura Duane Woods, vicepresidente de Waste Management. El giro ecológico de la compañía de Houston (Texas), que lleva más de un siglo dedicada a la recogida de residuos, parece haber calado. La Agencia de Protección Ambiental de EE.UU. estima que casi uno de cada tres vertederos municipales del país cuenta con algún proyecto energético.
Sin embargo, hoy los cientos de camiones de basura que se acercan a diario a sus colinas ya no van a descargar, sino a llenar el depósito. La compañía Waste Management ha convertido Altamont Landfill en la mayor planta de tratamiento de gas metano del mundo. A través de más de 200 pozos hundidos en las 100 hectáreas de esta minirrefinería, la compañía recoge este gas de efecto invernadero, producido por la descomposición de la basura, para transformarlo en gas natural licuado (GNL). Así se obtiene una fuente de energía con menor impacto ambiental que cualquier combustible fósil, cuyo uso podría servir para reducir las emisiones hasta en un 70%, y que además es entre un 30% y un 60% más barata que la gasolina.Desde su puesta en marcha, la estación vive un trasiego inusual. A diario, más de 500 camiones de basura, autobuses y vehículos escolares de una veintena de localidades del norte de California se acercan allí para llenar sus depósitos. El proceso es sencillo: después de extraer el metano, se licúa a -161ºC. Kenneth Lewis, director de operaciones de la planta, resume su labor: "Convertimos los basureros en centros de producción energética". La planta puede distribuir 60.000 litros de GNL al día, lo que significa ahorrar 11,3 millones de litros de diesel cada año y "evitar que 30.000 toneladas de CO2 lleguen a la atmósfera", asegura Lewis.UN COCHE POR HABITANTEEl coste de la instalación, 12 millones de euros, ha sido subvencionado en parte dos millones por el estado de California, el más castigado por la contaminación del tráfico. Cerca de 32 millones de vehículos circulan por sus carreteras, casi uno por habitante.El gobernador Arnold Schwarzenegger pretende reducir las emisiones en California un 25% para 2020. La nueva planta evitará que en los próximos cuatro años lleguen a la atmósfera 1,5 millones de toneladas de CO2. La administración ya negocia la aportación a una planta gemela a 40 kilómetros al sur de Los Ángeles, la ciudad con la mayor flota de autobuses impulsados por GNL del país, unos 2.700."El GNL reduce la dependencia de los combustibles fósiles y supone un enorme beneficio ambiental para las comunidades", asegura Duane Woods, vicepresidente de Waste Management. El giro ecológico de la compañía de Houston (Texas), que lleva más de un siglo dedicada a la recogida de residuos, parece haber calado. La Agencia de Protección Ambiental de EE.UU. estima que casi uno de cada tres vertederos municipales del país cuenta con algún proyecto energético.
Un herbicida de uso común cambia de sexo a las ranas
La atrazina, uno de los herbicidas agrícolas más empleados en el mundo, hace estragos en la vida sexual de las ranas. Cuando los machos de los anfibios se exponen a pequeñas cantidades de esa sustancia, un 75% de ellos queda esterilizado químicamente y un 10%... se convierte directamente en hembra.
FUENTE El Mundo Digital
02/03/2010
Esa es la conclusión de un estudio de la Universidad de Berkeley (California) publicado en la revista 'Proceedings of the National Academy of Sciences' y que se ha llevado a cabo en condiciones de laboratorio con ejemplares de una especie africana ('Xenopus laevis'). Para el profesor Tyrone B. Hayes, director del estudio, el contacto con el pesticida condena a las ranas a la infertilidad. «Los machos de rana pierden testosterona y todo lo que esa hormona controla, incluido el esperma. Así que su fertilidad es tan baja que llega al 10% en algunos casos», afirma Hayes en referencia a los ejemplares que perdieron capacidad reproductiva. Pero es que hubo otros que, directamente, se transformaron en hembras. Según el estudio, este pesticida altera de tal modo el sistema hormonal de las ranas que una parte de los machos expuestos a él se feminizan y se transforman en hembras.En el medio natural, las ranas macho son hermafroditas en su etapa juvenil. En el estudio se comprobó que machos adultos pasaban a ser hembras al entrar en contacto con la atrazina. Ésta, al actuar sobre el sistema endocrino atenúa las hormonas que confieren los caracteres masculinos y, por tanto, permite la expresión reforzada de los valores femeninos. En el trabajo llevado a cabo en laboratorio, los machos auténticos copularon y procrearon con los machos feminizados.La investigación toca uno de los aspectos más controvertidos de la industria química, como es el efecto sobre los ecosistemas o la salud de los venenos de uso agrario. La atrazina, por ejemplo, está prohibida en Europa. En 2004, la UE decidió retirar su uso debido a que otros estudios señalaba que afectaba a la fertilidad de vertebrados como peces, reptiles y aves.La atrazina, sin embargo, sigue usándose en EE.UU., donde se emplea para eliminar malas hierbas en cultivos como el maíz. Su empleo evita roturar la tierra y reduce por tanto los costes agrarios."Aunque el experimento se ha llevado a cabo en laboratorio, otros estudios de campo muestran que la atrazina es un disruptor endocrino tan potente que está afectando a las ranas en el medio salvaje y puede posiblemente ser la causa de la disminución de anfibios en todo el mundo", ha afirmado Hayes al servicio de noticias Eurekalert. La atrazina no es el primer veneno agrario que afecta a la fertilidad. El pesticida DDT se prohibió porque dejaba estériles a las aves.
FUENTE El Mundo Digital
02/03/2010
Esa es la conclusión de un estudio de la Universidad de Berkeley (California) publicado en la revista 'Proceedings of the National Academy of Sciences' y que se ha llevado a cabo en condiciones de laboratorio con ejemplares de una especie africana ('Xenopus laevis'). Para el profesor Tyrone B. Hayes, director del estudio, el contacto con el pesticida condena a las ranas a la infertilidad. «Los machos de rana pierden testosterona y todo lo que esa hormona controla, incluido el esperma. Así que su fertilidad es tan baja que llega al 10% en algunos casos», afirma Hayes en referencia a los ejemplares que perdieron capacidad reproductiva. Pero es que hubo otros que, directamente, se transformaron en hembras. Según el estudio, este pesticida altera de tal modo el sistema hormonal de las ranas que una parte de los machos expuestos a él se feminizan y se transforman en hembras.En el medio natural, las ranas macho son hermafroditas en su etapa juvenil. En el estudio se comprobó que machos adultos pasaban a ser hembras al entrar en contacto con la atrazina. Ésta, al actuar sobre el sistema endocrino atenúa las hormonas que confieren los caracteres masculinos y, por tanto, permite la expresión reforzada de los valores femeninos. En el trabajo llevado a cabo en laboratorio, los machos auténticos copularon y procrearon con los machos feminizados.La investigación toca uno de los aspectos más controvertidos de la industria química, como es el efecto sobre los ecosistemas o la salud de los venenos de uso agrario. La atrazina, por ejemplo, está prohibida en Europa. En 2004, la UE decidió retirar su uso debido a que otros estudios señalaba que afectaba a la fertilidad de vertebrados como peces, reptiles y aves.La atrazina, sin embargo, sigue usándose en EE.UU., donde se emplea para eliminar malas hierbas en cultivos como el maíz. Su empleo evita roturar la tierra y reduce por tanto los costes agrarios."Aunque el experimento se ha llevado a cabo en laboratorio, otros estudios de campo muestran que la atrazina es un disruptor endocrino tan potente que está afectando a las ranas en el medio salvaje y puede posiblemente ser la causa de la disminución de anfibios en todo el mundo", ha afirmado Hayes al servicio de noticias Eurekalert. La atrazina no es el primer veneno agrario que afecta a la fertilidad. El pesticida DDT se prohibió porque dejaba estériles a las aves.
Suscribirse a:
Entradas (Atom)