La hipótesis de la complicidad del estroma ha sido largamente debatida en procesos de metástasis, pero es la primera vez que un artículo científico señala la función fundamental de las células sanas del entorno para la instauración de metástasis para un tipo de tumor específico.
Un equipo de 17 investigadores liderado por los científicos Eduard Batlle y Elena Sancho, del Laboratorio de Cáncer Colorrectal del Institut de Recerca Biomèdica (IRB Barcelona), ha descubierto que la capacidad de un cáncer de colon para hacer metástasis recae en las células sanas que envuelven el tumor, el denominado estroma.
Imagen microscópica de células de cáncer de colon en crecimiento rodeadas por células del estroma, principalmente fibroblastos (en verde). © E. Batlle lab, IRB Barcelona. Autor: Alexandre Calon |
A través del análisis de 345 casos de pacientes de cáncer de colon extraídos de bases de datos públicas y con muestras de pacientes facilitadas por tres hospitales de Barcelona, el equipo ha podido señalar a los actores principales en un proceso de metástasis de colon. Según éste, las células madre tumorales, cuando llegan al hígado, órgano habitual de las metástasis de colon, liberan al ambiente una molécula denominada TGF-beta. Las células del entorno, como los macrófagos, leucocitos, fibroblastos y células endoteliales, responden a la presencia del TGF-beta liberando otras moléculas. Los científicos han comprobado que la producción de Interleucina-11 (IL-11) por parte de las células del entorno tumoral inducen en las células madre tumorales una serie de cambios genéticos que le confieren la capacidad de sobrevivir en el nuevo órgano colonizado.
“Este artículo proporciona un cambio de concepto”, explica Batlle. “Hasta ahora para saber si un paciente de cáncer de colon haría metástasis investigábamos las células tumorales. A partir de este trabajo deberemos examinar la tierra más que la semilla”. Y lo describe con un paralelismo con la jardinería: “podemos predecir si una planta crecerá mirando si el terreno, el substrato está fertilizado. El TGF-beta sería el fertilizante que favorecería la modificación del suelo donde esta semilla tumoral podrá crecer”.
Los científicos también han visto, además, que las células del tumor ya tienen esta capacidad de modificar el entorno en el órgano de partida. “Podemos saber si se producirá o no una metástasis con una medida indirecta. Es decir, si observamos que el estroma ya está modificado en el tumor primario del colon, querrá decir que las células tumorales que se diseminen tendrán la habilidad para modificar el entorno del hígado”, explica el francés Alexandre Calon, primer autor del artículo e investigador post-doctoral en el laboratorio de Batlle.
Un test de diagnosis de recaída en cinco años
El cáncer de colon representa la segunda causa de muerte por cáncer en todo el mundo. El tratamiento habitual para combatir la enfermedad combina la cirugía con la quimioterapia. Después de estos tratamientos, los pacientes presentan períodos de remisión, que pueden ser de meses a incluso años, después de los cuales un 30-40% de ellos tendrán recaídas que en la mayoría de los casos se presentan en forma de metástasis a dos órganos específicos, principalmente a hígado y, en ocasiones, a pulmón. La doctora Elena Sancho explica que “en unos cinco años podríamos tener en el mercado un test de diagnóstico para identificar los pacientes que están en riesgo de metástasis y ajustar el tratamiento según esa predicción”.
Los científicos han observado que alrededor del 15% de los pacientes nunca desarrolla metástasis y se correlaciona con si el estroma ha sido modificado por el TGF-beta. Esto significa que con un test de diagnóstico basado en el análisis de la signatura genética del estroma (presencia de TGF-beta y de Interleucina-11, entre otras moléculas), los médicos podrán diferenciar a los pacientes con riesgo de padecer metástasis. Si los datos del estudio se confirman, entre un 10-15% de enfermos no requerirían quimioterapia, con un beneficio directo para su salud y un ahorro de recursos. Por otro lado, si el test pronostica un alto riesgo de metástasis, podría administrarse una terapia más agresiva y hacerles un seguimiento más constante.
Validación de los resultados científicos y posible futuro tratamiento para las metástasis
El equipo de investigadores también demuestra en el artículo de Cancer Cell que eliminando la señal de TGF-beta en el estroma bloquean la iniciación de la metástasis. Los investigadores usaron un inhibidor de TGF-beta que está en fase clínica para otras enfermedades, y administraron este fármaco a ratones portadores de tumores agresivos en el colon. Los ratones tratados con el compuesto eran resistentes a la formación de metástasis. “Este experimento con ratones nos ha servido para validar el diálogo necesario entre TGF-beta y el estroma del tumor para que se pueda producir una metástasis. Ahora bien, los resultados con ratones también indican que para aquellos pacientes con el TGF-beta activado podría ser beneficioso, si se encuentran en una fase inicial, tomar un inhibidor de TGF-beta”, explica Batlle.
Según han podido comprobar los investigadores, la dependencia por TGF-beta es para las fases iniciales de la metástasis. Es decir, una vez instaurada en el órgano distante, la administración del inhibidor no tiene efecto.
“Aún así, debemos advertir”, dice Batlle, “que el desarrollo de un fármaco para tratar las metástasis de cáncer de colon se presenta muy complicado”. Hoy en día, la gran mayoría de inhibidores se deben probar primero en pacientes con un pronóstico irreversible. “Los ensayos clínicos de nuevas moléculas están pensados para incidir en el crecimiento del tumor, mientras que la molécula que hemos administrado a los ratones no actúa en el crecimiento sino en la fase inicial. En todo caso, dejamos apuntada en el artículo esta evidencia y abrimos la posibilidad de que, en un futuro, pueda desarrollarse un inhibidor basado en el TGF-beta”, concluye el investigador.
Este estudio ha sido posible gracias a la colaboración de médicos del Hospital Clínic de Barcelona, el Hospital del Mar, el Hospital de Sant Pau y del equipo del Memorial Sloan Kettering Cancer Centerdirigido por Joan Massagué.
|
Un equipo de investigadores de Portugal y Reino Unido, junto a astrónomos italianos, japoneses y holandeses, han podido determinar en un estudio (el mayor en su área) que la tasa de formación de nuevas estrellas es una treintava parte (1/30) desde la formación del universo. El estudio revela que la tendencia continuará en el futuro.
El equipo dirigido por David Sobral, de la Universidad de Leiden (Países Bajos), publican sus resultados en la revista Monthly Notices de la Royal Astronomical Society.
El modelo aceptado por la ciencia de la evolución del universo predice que las estrellas comenzaron a formarse aproximadamente alrededor de trescientos millones de años después del Big Bang (hace 11 mil millones de años). Muchas de estas primeras estrellas, se creen que fueron gigantescas para los estándares actuales de las que conocemos, y probablemente cientos de veces más masivas que nuestro Sol. Estos monstruos envejecían muy rápidamente, agotando su combustible, y convirtiéndose en Supernovas. En contraste las estrellas de menor masa en tienen vidas mucho más largas y duran miles de millones de años más.
La mayor parte del polvo y el gas de las explosiones estelares es (y sigue siendo) reciclado para formar nuevas generaciones de estrellas. Nuestro Sol, por ejemplo, se piensa que es una estrella de tercera generación, y tiene una masa muy típica para los estándares actuales. Pero, independientemente de su masa y propiedades, las estrellas son los ingredientes principales de galaxias como nuestra Vía Láctea. Descubriendo la historia de la formación estelar a través del tiempo cósmico es fundamental para entender cómo las galaxias se forman y evolucionan.
Imagen de la formación de estrellas desde columnas de polvo cósmico, tomada por el Hubble. (Foto: NASA) |
En el estudio, los científicos utilizaron el Telescopio de Infrarrojos del Reino Unido (UKIRT), el Very Long Telescopie (VLT) de la Agencia espacial Europea (ESO) y el telescopio Subaru para llevar a cabo el estudio más completo que se haya hecho de galaxias con formación estelar a diferentes distancias, con alrededor de diez veces más datos de cualquier informe anterior. Con la gama de distancias, el tiempo que tarda la luz en llegar hasta nosotros significa que vemos idénticas galaxias seleccionadas en diferentes períodos de la historia del universo, por lo que realmente puede entender cómo las condiciones cambian con el tiempo.
"Se podría decir, utilizando un símil económico, que el universo ha estado sufriendo de una larga y grave crisis ": Su "PIB" es ahora de sólo el 3% de lo que solía ser en el pico máximo de creación de estrellas de estrellas" comentó Sobral.
Si el descenso obserado en el estudio continúa, las estrellas que se formarán hasta el fin del universo será de un 5% o incluso si no hay fin, no se formarán muchas más de ese valor. La investigación sugiere que vivimos en un universo dominado por estrellas viejas. La mitad de ellas nacieron en el 'boom' que tuvo lugar entre hace 11 9 mil millones de años, y que llevó más de cinco veces más tiempo para crear el resto.
Por otra parte, si bien estas mediciones proporcionan una imagen nítida de la disminución de la formación estelar en el Universo, también proporcionan muestras ideales para desvelar un misterio aún más fundamental, que aún no se ha resuelto: ¿por qué?
Investigadores españoles miden por primera vez la presión interna de un virus. El trabajo, en el que participan físicos y biólogos de la UAM, representa un importante paso para entender los mecanismos de infección de los virus bacteriófagos.
La constatación experimental de la presión interna en Phi29 es un paso crucial para entender los mecanismos de infección de los bacteriófagos
La presión interna de Phi29 –un virus bacteriófago que infecta a la bacteria Bacillus subtilis– es 45 veces mayor que la presión que ejerce la atmósfera terrestre al nivel del mar. Este cálculo fue realizado por investigadores españoles, en un trabajo que constata experimentalmente la existencia de presión interna en los virus.
Un equipo multidisciplinar ha logrado medir por primera vez la dureza de un virus individual y constatar la existencia de presión en su interior. El trabajo, realizado por físicos y biólogos de la Universidad Autónoma de Madrid, la Universidad de Barcelona y el Centro Nacional de Biotecnología, representa un importante paso para entender los mecanismos de infección de los virus bacteriófagos.
La medida obtenida –45 atmósferas– es considerable si se tiene en cuenta que los virus son contenedores de proteínas cuyo diámetro mide pocas decenas de nanómetros. Para establecerla, los investigadores utilizaron un microscopio de fuerzas atómicas (AFM) en medio acuoso en el que realizaron deformaciones mecánicas de virus individuales. La pieza clave de este instrumento es una micropalanca que, gracias a un láser que mide su flexión y a una punta afilada (20 nanómetros), puede emplearse como sensor de fuerzas a escala nanométrica.
Así, con un AFM y un procedimiento análogo a cuando se toca un neumático para comprobar su presión de inflado, los investigadores pudieron comparar la fuerza ejercida por virus llenos de ADN con la ejercida por virus vacíos, comprobando que los primeros son más duros que los segundos.
El trabajo, publicado en la revista Small, fue realizado por físicos y biólogos de la Universidad Autónoma de Madrid (UAM), la Universidad de Barcelona (UB) y el Centro Nacional de Biotecnología (CNB). Según los autores, la constatación experimental de la existencia de presión interna en phi29 es un paso crucial para entender los mecanismos de infección de los bacteriófagos.
Virus presurizados
Una interpretación adecuada de los resultados logrados, requirió por parte de los investigadores considerar que la molécula de ADN del interior del virus está cargada negativamente. Teniendo en cuenta esto, así como la ley de Coulomb (relacionada con la magnitud de las fuerzas eléctricas), los científicos pudieron identificar que, entre las hebras de ADN, se origina una fuerte repulsión electrostática que se transmite a las paredes del virus y lo presuriza.
En otras palabras, el empaquetamiento de ADN en un virus bacteriófago acumula energía elástica en su interior, de la misma forma que lo hace un resorte espiral dentro de un juguete de cuerda. Esa energía elástica presuriza el virus, y su liberación durante el proceso de infección arrastra parte del ADN vírico dentro de la bacteria –como ocurre con las bebidas con gas cuando abrimos su recipiente después de haberlo agitado–.
Así, con un AFM y un procedimiento análogo a cuando se toca un neumático para comprobar su presión de inflado, los investigadores pudieron comparar la fuerza ejercida por virus llenos de ADN con la ejercida por virus vacíos, comprobando que los primeros son más duros que los segundos.
El trabajo, publicado en la revista Small, fue realizado por físicos y biólogos de la Universidad Autónoma de Madrid (UAM), la Universidad de Barcelona (UB) y el Centro Nacional de Biotecnología (CNB). Según los autores, la constatación experimental de la existencia de presión interna en phi29 es un paso crucial para entender los mecanismos de infección de los bacteriófagos.
Virus presurizados
Una interpretación adecuada de los resultados logrados, requirió por parte de los investigadores considerar que la molécula de ADN del interior del virus está cargada negativamente. Teniendo en cuenta esto, así como la ley de Coulomb (relacionada con la magnitud de las fuerzas eléctricas), los científicos pudieron identificar que, entre las hebras de ADN, se origina una fuerte repulsión electrostática que se transmite a las paredes del virus y lo presuriza.
En otras palabras, el empaquetamiento de ADN en un virus bacteriófago acumula energía elástica en su interior, de la misma forma que lo hace un resorte espiral dentro de un juguete de cuerda. Esa energía elástica presuriza el virus, y su liberación durante el proceso de infección arrastra parte del ADN vírico dentro de la bacteria –como ocurre con las bebidas con gas cuando abrimos su recipiente después de haberlo agitado–.
Los investigadores consiguieron reducir dicha repulsión electroestática de forma reversible, disminuyendo también la dureza del virus lleno a la misma que la del virus vacío.
En virología se diferencia entre virus eucariotas –que infectan células con núcleo– y virus bacteriófagos –que infectan bacterias–. Mientras los primeros son fagocitados por el huésped, los segundos introducen su ADN desde el exterior a través de la cola después de haberse unido a la pared bacteriana.
Phi29 es un bacteriófago que sólo infecta a la bacteria Bacillus subtilis. Y tiene un valor considerable en el campo de la virología ya que es un excelente modelo de estudio de otros tipos de virus.
El sondeo CALIFA (Calar Alto Legacy Integral Field Area, por sus siglas en inglés) anunció ayer su primera emisión pública de datos, que ofrece con un detalle sin precedentes una visión sobre cien galaxias del universo local. El objetivo final de este proyecto internacional, en el que participa el Instituto de Astrofísica de Canarias (IAC), es caracterizar 600 galaxias del universo más cercano. El sondeo analizará propiedades de estas galaxias como la velocidad, la edad estelar, su composición química, etc.
Además de los datos del sondeo, se ponen a disposición del público dos publicaciones técnicas firmadas por miembros de la colaboración CALIFA en las que se describen los datos y se muestran algunas de sus aplicaciones científicas.
El investigador principal de CALIFA, Sebastián Sánchez, afirma: “Estoy muy contento de ver un sueño hecho realidad. Cuando pensamos en CALIFA por primera vez, hace cinco años, la perspectiva de hacer públicos unos datos tan maravillosos parecía muy lejana, ¡pero está ocurriendo justo ahora! Esperamos y confiamos en que la comunidad científica hará uso de esta oportunidad”.
Las galaxias son los productos finales de la evolución cósmica a lo largo de intervalos cosmológicos de tiempo, y su historia secreta se halla oculta en las propiedades de sus distintos componentes. CALIFA es un proyecto que se encuentra en plena ejecución en el Observatorio de Calar Alto, centrado en caracterizar las galaxias del universo local para tratar de descubrir estos ‘tesoros arqueológicos’.
CALIFA aplica para este fin la técnica llamada espectroscopia de campo integral (IFS, por sus siglas en inglés) a 600 galaxias del universo local. Los estudios observacionales tradicionales en astronomía extragaláctica recurrían a una de las dos técnicas clásicas: o bien la toma de imágenes, lo que brinda información detallada acerca de la estructura espacial de las galaxias, o bien la espectroscopia, que ofrece información sobre varias propiedades de las galaxias, pero poca -o ninguna- sobre la distribución espacial de estos rasgos. La reciente tecnología IFS permite tomar multitud de espectros de manera simultánea sobre muchos puntos de cada galaxia, gracias a una eficaz combinación de fibras ópticas y técnicas clásicas. CALIFA es el primer estudio IFS diseñado de manera explícita como un proyecto de tipo 'legado', que permite el uso inmediato por parte de la comunidad científica de los datos obtenidos. Cuando culmine, será el mayor estudio de esta clase que jamás se haya completado.
El espectrógrafo de campo integral empleado para el sondeo CALIFA en el Observatorio de Calar Alto, PMAS (en una configuración especial denominada PPAK), usa más de 350 fibras ópticas para cubrir un campo de visión de un minuto de arco (equivalente al tamaño aparente de una moneda de un euro situada a una distancia aproximada de 80 metros). De este modo se puede cartografiar por completo y en detalle todo un objeto extenso, como una galaxia.
Los datos publicados ahora permiten generar mapas con distintas propiedades de las galaxias, como la velocidad, las edades estelares o la composición química, por mencionar solo unas pocas. Esta información permitirá ahondar en varias cuestiones cruciales relacionadas con la estructura y la historia de las galaxias que conforman el cosmos. Se espera obtener resultados, por ejemplo, acerca de qué procesos impulsaron la evolución de las galaxias a lo largo del tiempo, cómo se producen dentro de las galaxias (o en distintas regiones dentro de cada galaxia individual) los elementos químicos necesarios para la vida, cuáles son los fenómenos involucrados en las colisiones entre galaxias, etc. Esta información permite desvelar la historia no solo de una galaxia entera, sino también de sus partes constituyentes.
El Observatorio de Calar Alto es operado por el Instituto de Astrofísica de Andalucía (IAA-CSIC, Granada, España) y el Instituto Max Planck de Astronomía (MPIA-MPG, Heidelberg Alemania). El observatorio garantiza 250 noches de observación (distribuidas en tres años) para el sondeo CALIFA con el telescopio reflector Zeiss de 3.5 m y, además, brinda apoyo para los procesos de toma, reducción y almacenamiento de los datos.
“La cantidad de ciencia que se puede hacer es simplemente increíble”, señala Jakob Walcher, responsable científico del proyecto CALIFA. “Podemos estudiar los procesos locales que impulsan la evolución de las galaxias y que tienen lugar en distintos sitios dentro de las galaxias, como la formación estelar, los efectos dinámicos, etc. Pero también podemos caracterizar globalmente las propiedades de las galaxias del universo local de un modo imposible hasta ahora. Por ejemplo, cartografiamos la distribución bidimensional de la masa estelar y de los elementos químicos que conforman las galaxias. Por último, el gran tamaño de nuestra muestra permitirá establecer comparaciones entre distintos tipos de galaxias”, detalla Walcher.
Para cubrir este esfuerzo enorme se requiere la participación de un gran consorcio de profesionales de la astronomía, cuya composición refleja la herencia hispano-alemana del observatorio. Pero también se incluyen participantes de todo el mundo hasta sumar un total de ochenta personas de trece países distribuidas en 25 centros de investigación con sedes en lugares tan alejados como Australia, Canadá o Estados Unidos.
Con diez investigadores involucrados en el proyecto CALIFA, bajo la coordinación de Jesús Falcón Barroso, el Instituto de Astrofísica de Canarias (IAC) es uno de los grupos más activos de la colaboración. El IAC lidera el estudio del movimiento de las estrellas y del gas ionizado. Dichos estudios permitirán caracterizar el momento angular estelar, las peculiaridades en la rotación del gas ionizado o el patrón de velocidades de barras en galaxias espirales. El conjunto de estos resultados en la amplia muestra del proyecto CALIFA permitirá establecer de forma inequívoca los procesos dominantes en la evolución y el destino de las galaxias.
Expertos del Fondo de Información y Documentación para la Industria (INFOTEC) en México, desarrollaron un modelo tecnológico gratuito apto para que diversas instituciones públicas y privadas gestionen su información bajo los estándares de la web 3.0 (denominada web semántica)
El ingeniero Javier Solís González, explicó que SWB Portal es una tecnología informática de Código Abierto (Open Source) destinada a construir portales web con mayor interoperabilidad. Este “portalizador” permite a las empresas, organizaciones e instituciones actuar en conjunto en la construcción informativa de cualquier portal de internet.
Los sitios web diseñados a partir de SWB Portal posibilitan que, en la industria, todas las áreas laborales con acceso a esta herramienta, puedan construir en conjunto todo el contenido de las páginas que conforman su portal. De manera que áreas como las administrativas, operativas, de logística o las relacionadas con mercadotecnia, pueden gestionar su información sin la dependencia de un área que centralice esa labor.
Incluso, agregó Solís González, debido a sus cualidades semánticas, SWB Portal posibilita el diseño de portales configurables de acuerdo a las necesidades de quien ingresa a consumir la información (los visitantes).
“Por ejemplo, un portal puede auto-configurarse de acuerdo a la necesidad de la persona que ingrese, ya sea cliente, proveedor, visitante de determinada edad, sexo, escolaridad, entre diversas posibilidades”, detalló el experto.
(C) SWB |
Desde 2007 tal herramienta ha sido liberada bajo un esquema “Open Source” y puede ser descargada en la direcciónwww.semanticwebbuilder.org.mx (Agencia ID)
El apogeo de los espacios virtuales --como las redes sociales, los blogs y los portales-- ha generado grandes cantidades de información que no se encuentran contextualizadas o clasificadas. Por este motivo, a pesar de existir billones de datos como fotografías, textos, música o videos, es difícil conseguir información adaptada a nuestras necesidades específicas sin invertir cantidades considerables de tiempo en realizar discriminaciones manualmente.
La tercera versión de Internet, conocida como web semántica o web 3.0 resulta una solución potencial ante la descontextualización de los datos. Especialistas del Fondo de Información y Documentación para la Industria (INFOTEC), Centro Público de Investigación en México, desarrollan soluciones que permiten la generación de conocimiento dentro de la red, permitiendo así un enlace sólido entre la información existente y las características deseadas en una búsqueda.
Las soluciones semánticas no sólo permiten que la información de internet adquiera sentido para que pueda utilizarse a conveniencia del usuario, sino que pueden ser aprovechadas para optimizar los procesos de información en las empresas e industria. Al respecto, el ingeniero Javier Solís González, Gerente de Nuevos Productos y Servicios de INFOTEC, destacó que en los últimos años se han desarrollado diversas soluciones con características semánticas para apoyar el desarrollo de las PyME mexicanas.
Linked Data: La estructura de la web semántica.
Las reglas para construir la web semántica a través de Linked Data se refieren a cuatro acciones principales:
Primera: a toda información alojada en la web se le debe añadir una cadena corta de caracteres que describan de que se trata. Esta especie de etiqueta se conoce como URI (Uniform Resource Identifier o Identificador Uniforme de Recursos en español).
Segunda: las “URIs” deben constituirse dentro de un lenguaje de programación estándar para internet.
Tercera: si algún tipo de archivo es extraído de su contexto original, quien haga uso de éste debe aportar nueva información útil acerca del recurso.
Cuarta: las URIs deben tener enlaces a otras URIs, de manera que al consultar determinada información, cualquier usuario pueda ser enlazado a datos con similitud.
Una de las premisas de la denominada Era de la Información se refiere a que, de no administrarse de manera adecuada, ésta pierde funcionalidad, afectando así la fluidez y efectividad en los procesos administrativos y operativos de las instituciones. Ello debido a que la información se ha convertido en uno de los principales activos de las organizaciones.
(C) SWB Process - INVDES, MEX |
Con el objetivo de dotar de sentido a la información existente, la web semántica hace uso de lazos de interconectividad para la interpretación de archivos, elementos, símbolos, palabras, expresiones o frases completas. El ingeniero Ebenezer Hasdai Sánchez Pacheco, especialista de la Dirección Adjunta de Competitividad de INFOTEC, señaló que SWB Process categoriza la información de manera que cada parte de un proceso (desde un documento, hasta el contenido del mismo) genere un código ontológico, “como una especie de etiqueta”, la cual señala el significado del contenido del archivo para determinado contexto.
Al hacer uso se SWB Process, refirió el experto, se han observado los primeros beneficios en algunas instancias en México; por ejemplo, independencia sobre herramientas de gestión de procesos privadas (como el software administrativo cuyas licencias representan elevados costos), unificación de distintas formas de trabajo para reducir tiempos de operación, y una mayor accesibilidad y amabilidad al momento de gestionar los procesos de las TIC en las dependencias.
“La información se vuelve clara y entendible para todas las áreas operativas y administrativas [...]”, puntualizó Gutiérrez Rodríguez, al referirse a los beneficios del uso de SWB Process.Artículo completo
Con barreras de bacterias muertas, generan estructuras tan altas como rascacielos a escala celular. El proyecto permite avanzar contra la resistencia bactericida de los antibióticos.
Jordi García Ojalvo y Pau Rué, investigadores del Departamento de Física e Ingeniería Nuclear de la Universidad Politécnica de Cataluña · BarcelonaTech (UPC), han descubierto cómo las bacterias de la especie Bacillus subtilis se organizan en estructuras tridimensionales, denominadas biocapas o biofilms. Estas biocapas tienen una rugosidad muy pronunciada que hace que sean impermeables a líquidos y gases y, por tanto, impermeables también a los antibióticos y otros bactericidas. Las rugosidades que construyen en su superficie, a partir de cúmulos de células muertas, les confiere mucha más antiadherencia que, por ejemplo, el Teflon.
García Ojalvo, que actualmente trabaja también con la Universidad Pompeu Fabra (UPF), afirma que "hemos podido comprobar que las bacterias crean rugosidades por acumulación de células muertas y no vivas, como creíamos hasta ahora. Estas arrugas son extraordinariamente altas si las comparamos con las dimensiones de una solo bacteria. A escala humana serían como un gran rascacielos. Son como grandes estructuras defensivas construidas con la acumulación de células que mueren defendiendo a la comunidad".
Vencer la resistencia a los bactericidas
Las consecuencias de este descubrimiento son muy importantes porque las bacterias infectan el cuerpo humano mediante biocapas, y la impermeabilidad de éstas las hace muy resistentes a los antibióticos. Son tan resistentes que pueden sobrevivir a tratamientos con bactericidas, yodo e incluso a lavados de horas con lejía. García Ojalvo afirma que "llegar a entender que las biocapas de bacterias logran organizarse en tres dimensiones gracias a la muerte celular permite avanzar para vencer su resistencia a los agentes bactericidas".
Detalle de biocapas en la especie Bacillus subtilis. (C) UPC |
Las biocapas de bacterias se encuentran también en las canalizaciones de agua, los implantes médicos, los pozos de petróleo, los sistemas de aire acondicionado, etc.
Jordi García Ojalvo, Pablo Rué y sus colegas estadounidenses han utilizado para su descubrimiento técnicas de microscopía de fluorescencia, microscopía de fuerza atómica y modelos matemáticos.
Jordi García Ojalvo, Pablo Rué y sus colegas estadounidenses han utilizado para su descubrimiento técnicas de microscopía de fluorescencia, microscopía de fuerza atómica y modelos matemáticos.
El investigador Jordi Garcia Ojalvo en su laboratorio |
Un avance útil para la ingeniería de tejidos biológicos
Además, el descubrimiento ha permitido a los investigadores desarrollar un método para generar arrugas artificiales dentro de las biocapas del bacterias, induciendo muerte celular en determinados puntos de la estructura. Esto podría llegar a ser muy útil en ingeniería de tejidos biológicos.
En el estudio han participado investigadores de las universidades estadounidenses de California y de Texas. El descubrimiento se ha publicado en la revista estadounidense Proceedings of the National Academy of Sciences (PNAS). La revista Science se ha hecho también eco de este descubrimiento con una noticia en su edición on line.
Un estudio realizado por los investigadores Iñaki Permanyer, Albert Esteve y Joan Garcia-Roman ha analizado qué ocurre con las parejas cuando hay más mujeres con estudios universitarios que hombres, a partir de datos provenientes de 138 censos de 56 países recogidos entre 1968 y 2009. La investigación ha sido publicada en Population Development Review, una de las revistas más prestigiosas del mundo en estudios de población.
El estudio concluye que el aumento de la educación de las mujeres está teniendo un efecto directo sobre las pautas de emparejamiento, de tal manera que en aquellos países donde hay más mujeres que hombres con estudios universitarios, las parejas en que las mujeres se emparejan “abajo” (con un hombre con menos estudios) superan ya a las parejas “arriba” (con hombres con más estudios).
Tradicionalmente los patrones de emparejamiento entre hombres y mujeres han estado dominados por la hipergamia, donde la mujer se empareja con un hombre de mayor estatus y se producen diferencias de género importantes. Pero en los últimos años el acceso de la mujer a la educación está alterando este modelo.
“Dada esta inercia histórica, se podría pensar que el aumento de la educación de las mujeres dificultaría las uniones y se incrementaría el número de mujeres solteras, pero lo que vemos es que la composición de las parejas se adapta bastante bien a los cambios estructurales y que si los cambios se producen, tarde o temprano tienen un impacto sobre el mercado de las uniones”, manifiesta Albert Esteve.
Los datos censales del estudio, individuales y anonimizados, están disponibles en el IPUMS (Integrated Public Uso Microdata Series), un proyecto de la Universidad de Minnesota, que está creando una gigantesca base de microdatos censales internacional. Los investigadores han hecho el análisis entre parejas casadas y cohabitantes, creando un indicador para medir la diferencia educativa entre hombres y mujeres y otro para medir la prevalencia de las parejas hipérgamas sobre las hipógamas en el ámbito de la educación.
Con contadas excepciones, se está produciendo una reducción constante del nivel de hipergamia en el ámbito de la educación en los países avanzados y en desarrollo, a pesar de que todavía hay diferencias significativas entre ellos. A principios de los años 70, las parejas “arriba” superaban las parejas “abajo” en los 18 países de los cuales hay datos censales entre 1970 y 1975. A principios del 2000, 26 de 51 países registraban valores negativos de hipergamia educacional. Entre estos países hay sociedades tan diversas como Francia, Jordania, Mongolia, Eslovenia y Sudáfrica. En el caso de España, en 2001 por cada 100 parejas hipógamas había sólo 67 hipérgamas.
Hay países que el estudio no incluye por falta de datos, como Japón, Corea del Sur o China, que en términos de emparejamiento son sociedades muy tradicionales, con niveles muy elevados de soltería entre las mujeres con más educación. No obstante, los investigadores consideran que el aumento de mujeres universitarias acabará modificando las reglas del juego, principalmente en China, un país donde las mujeres escasean y en que se prevé que por cada 100 universitarios haya 140 universitarias en 2050.
Aún así, dicen los investigadores, el estudio pone de manifiesto la universalidad de un fenómeno sin precedentes que ya se había observado en algunos países, como Estados Unidos o Brasil, y amplifica los resultados, mostrando que este cambio se está produciendo por todas partes y que puede afectar otras dimensiones de la vida social.
Si las tendencias en educación continúan, la prevalencia de la hipergamia educacional seguirá reduciéndose, manifiestan los investigadores. Este escenario sugiere que el incremento del nivel educativo de las mujeres puede tener importantes implicaciones para la erosión de los modelos tradicionales de emparejamiento y representar un paso adelante hacia la simetría en la formación de parejas.
“Será interesante observar si este cambio se traduce en una mayor igualdad entre hombres y mujeres en otros aspectos de la vida en pareja, como la toma de decisiones, la distribución del tiempo en tareas del hogar, el divorcio, la fecundidad, etcétera”, comenta Albert Esteve.
El estudio hace una llamada a investigar, desde una perspectiva más amplia, las consecuencias de estos cambios en la distribución de los roles de hombres y mujeres. ¿Comportarán relaciones más iguales entre ellos? ¿Cómo afectarán las expectativas de unos y otros en relación a la pareja? ¿Cuál será el papel de la educación como determinante de la elección de pareja en el mercado de las uniones? son algunas de las cuestiones que plantea la investigación para seguir estudiando en un futuro.
Herramientas contra los ciberdelitos para lograr un futuro más seguro
Se calcula que por Internet circulan continuamente unos 150 000 virus y otros tipos de código malicioso que infectan a más de 1 millón de ordenadores al día. La empresa de software antivirus McAfee describe hasta 75 millones de fragmentos únicos de código malicioso (malware) en sus bases de datos y calcula que un tercio de los correos electrónicos enviados diariamente se generan mediante botnets en forma de de correo no deseado.
Un particular puede incluso verse en la necesidad de pagar cerca de cien euros a un profesional para que limpie su ordenador de este tipo de código o recupere datos perdidos a causa de un virus, mientras que en el cómputo mundial las repercusiones económicas son inmensas si se tiene en cuenta el conjunto de los ciudadanos, las empresas y las administraciones. McAfee, en una estimación al alza, calcula el coste mundial de los ciberdelitos en hasta un billón de dólares estadounidenses anuales en concepto de tiempo gastado, oportunidades comerciales perdidas y dinero invertido en reparaciones.
La sociedad depende cada vez más de Internet para comunicarse y trabajar y su escala global hace patente que los ciberdelitos no son en absoluto un problema al que pueda enfrentarse una empresa o país en solitario. Distintas organizaciones europeas, como la Comisión Europea, las administraciones nacionales, las universidades y las pequeñas empresas, han aunado recursos y entablado relaciones con otras del resto del planeta para dar con estrategias, políticas y tecnologías capaces de combatir esta epidemia.
Un particular puede incluso verse en la necesidad de pagar cerca de cien euros a un profesional para que limpie su ordenador de este tipo de código o recupere datos perdidos a causa de un virus, mientras que en el cómputo mundial las repercusiones económicas son inmensas si se tiene en cuenta el conjunto de los ciudadanos, las empresas y las administraciones. McAfee, en una estimación al alza, calcula el coste mundial de los ciberdelitos en hasta un billón de dólares estadounidenses anuales en concepto de tiempo gastado, oportunidades comerciales perdidas y dinero invertido en reparaciones.
La sociedad depende cada vez más de Internet para comunicarse y trabajar y su escala global hace patente que los ciberdelitos no son en absoluto un problema al que pueda enfrentarse una empresa o país en solitario. Distintas organizaciones europeas, como la Comisión Europea, las administraciones nacionales, las universidades y las pequeñas empresas, han aunado recursos y entablado relaciones con otras del resto del planeta para dar con estrategias, políticas y tecnologías capaces de combatir esta epidemia.
(C) Shuttestock
|
Desde hace dos años la Comisión Europea aporta 2,5 millones de euros para la creación de Syssec (1), una red de excelencia (NoE) europea cuyos principios se resumen en el tradicional refrán que afirma que es mejor prevenir que curar. Esta NoE está dedicada a crear soluciones que permitan anticipar amenazas y vulnerabilidades antes de que se produzcan y, por tanto, logrará que las posibles víctimas de un ciberataque activen un sistema de defensa preventivo. El equipo del proyecto ha creado un Centro Virtual de Excelencia que agrupa a la comunidad científica europea dedicada a la seguridad de sistemas y fomenta la investigación colaborativa. Entre sus funciones está la de redactar un plan de acción científico y la de elaborar una serie de iniciativas de formación sobre ciberseguridad.
«La red de excelencia de Syssec adopta un método revolucionario en cuanto a ciberseguridad: en lugar de perseguir a los agresores tras un ataque, Syssec estudia vulnerabilidades y peligros incipientes antes de que se materialicen. Los objetivos principales de la red pasan por crear un plan de trabajo sobre amenazas y construir una infraestructura que impulse la formación en cuanto a seguridad de sistemas para generar el conocimiento necesario que las combata en una etapa inicial», indican en un artículo sobre el proyecto su coordinador, Evangelos Markatos, y Herbert Bos, investigador asociado al mismo.
Seguridad por diseño
Mientras que el enfoque de Syssec en cuanto a la predicción de amenazas es de índole global, otra NoE financiada con fondos europeos denominada Nessos (2) se ocupa en concreto de fomentar el diseño y el desarrollo de programas y sistemas seguros para la «Internet del futuro». Su propósito es garantizar que ingenieros y programadores aborden la seguridad desde las primeras fases de análisis y diseño de sistemas, para lo cual han seleccionado seis áreas básicas: definir requisitos de seguridad para los servicios de la Internet del futuro, generar arquitecturas de servicio y diseño de servicios seguros, apoyo a entornos de programación que den lugar a servicios seguros y «componibles», crear un marco para la garantía de la seguridad, establecer un ciclo de desarrollo de software consciente de los riesgos y los costes, y realizar estudios prácticos destinados a aplicaciones hipotéticas de la Internet del futuro.
El método de seguridad por diseño tiene un ejemplo claro en otro proyecto europeo. Los investigadores de SecureChange (3), procedentes de nueve países europeos, desarrollaron la metodología, las técnicas y las herramientas que permiten aumentar la eficiencia, la seguridad y la flexibilidad del ciclo de vida del software al completo -desde la ingeniería de requisitos hasta la implementación y las actualizaciones pasando por el diseño, el desarrollo, las pruebas y la verificación- e incluso reducir su coste en términos tanto económicos como del tiempo necesario para implementar todos los pasos.
Fabio Massacci, coordinador de SecureChange, explicó el problema en los términos siguientes: «Se parte de un software seguro, por ejemplo. Tras su entrega al cliente es necesario actualizarlo para añadir características que aporten una ventaja sobre la competencia. Si se empieza el proceso de verificación del código desde cero y al completo, aunque sólo haya cambiado una pequeña porción del mismo, el coste en tiempo y dinero resulta considerable.»
Por ejemplo, un análisis del navegador de código abierto Firefox realizado por el equipo de SecureChange que abarca seis actualizaciones sustanciales durante un periodo de cinco años sacó a relucir que sólo un tercio del código del programa se modificó de una versión a la siguiente. Además, cada nueva versión heredó de la precedente distintas vulnerabilidades importantes, un fenómeno común también en otros navegadores como Chrome o Internet Explorer. La necesidad de proporcionar actualizaciones rápidas implica una reducción del tiempo que se dedica a las labores de comprobación y verificación. Gracias al método de SecureChange, es posible comprobar sólo el código nuevo y mantener la seguridad e integridad del sistema completo.
Mientras que el enfoque de Syssec en cuanto a la predicción de amenazas es de índole global, otra NoE financiada con fondos europeos denominada Nessos (2) se ocupa en concreto de fomentar el diseño y el desarrollo de programas y sistemas seguros para la «Internet del futuro». Su propósito es garantizar que ingenieros y programadores aborden la seguridad desde las primeras fases de análisis y diseño de sistemas, para lo cual han seleccionado seis áreas básicas: definir requisitos de seguridad para los servicios de la Internet del futuro, generar arquitecturas de servicio y diseño de servicios seguros, apoyo a entornos de programación que den lugar a servicios seguros y «componibles», crear un marco para la garantía de la seguridad, establecer un ciclo de desarrollo de software consciente de los riesgos y los costes, y realizar estudios prácticos destinados a aplicaciones hipotéticas de la Internet del futuro.
El método de seguridad por diseño tiene un ejemplo claro en otro proyecto europeo. Los investigadores de SecureChange (3), procedentes de nueve países europeos, desarrollaron la metodología, las técnicas y las herramientas que permiten aumentar la eficiencia, la seguridad y la flexibilidad del ciclo de vida del software al completo -desde la ingeniería de requisitos hasta la implementación y las actualizaciones pasando por el diseño, el desarrollo, las pruebas y la verificación- e incluso reducir su coste en términos tanto económicos como del tiempo necesario para implementar todos los pasos.
Fabio Massacci, coordinador de SecureChange, explicó el problema en los términos siguientes: «Se parte de un software seguro, por ejemplo. Tras su entrega al cliente es necesario actualizarlo para añadir características que aporten una ventaja sobre la competencia. Si se empieza el proceso de verificación del código desde cero y al completo, aunque sólo haya cambiado una pequeña porción del mismo, el coste en tiempo y dinero resulta considerable.»
Por ejemplo, un análisis del navegador de código abierto Firefox realizado por el equipo de SecureChange que abarca seis actualizaciones sustanciales durante un periodo de cinco años sacó a relucir que sólo un tercio del código del programa se modificó de una versión a la siguiente. Además, cada nueva versión heredó de la precedente distintas vulnerabilidades importantes, un fenómeno común también en otros navegadores como Chrome o Internet Explorer. La necesidad de proporcionar actualizaciones rápidas implica una reducción del tiempo que se dedica a las labores de comprobación y verificación. Gracias al método de SecureChange, es posible comprobar sólo el código nuevo y mantener la seguridad e integridad del sistema completo.
«Existen tres grandes retos para los criptógrafos -afirmó Bart Preneel, coordinador del proyecto-: «el coste, la velocidad y la seguridad a largo plazo».
El proyecto Aniketos (4) se ocupa de generar seguridad y confianza en un entorno homogéneo como será probablemente la Internet del futuro, donde los usuarios realizarán una transición desde los servicios estáticos actuales hacia una conjugación e interrelación de componentes y servicios cuya forma final dependerá de factores como la disponibilidad, la calidad y el precio de éstos. En un entorno de estas características es probable que las aplicaciones se compongan de diversos servicios aportados por proveedores muy distintos y que los usuarios tengan pocas garantías de que un servicio concreto o un proveedor de servicios ofrezca la seguridad anunciada. El equipo de Aniketos, en el que participan institutos científicos y agentes industriales de primera fila, trabaja en el desarrollo de nueva tecnología, herramientas y servicios de seguridad en apoyo de la creación durante la fase de diseño y el comportamiento dinámico durante la fase de ejecución de los servicios compuestos. Además aporta métodos de análisis, resolución y publicación de información sobre la forma de acotar amenazas y vulnerabilidades nuevas.
Los galardonados con el Premio Príncipe de Asturias de Investigación Científica y Técnica, Richard A. Lerner y Gregory Winter, participaron en la mañana de hoy en un Desayuno de trabajo celebrado en el Centro Cultural LAUDEO de la Universidad de Oviedo en colaboración con la Fundación Príncipe de Asturias, con expertos españoles en inmunología.
Por espacio de hora y media, Lerner y Winter intercambiaron impresiones con investigadores españoles sobre asuntos de máxima actualidad en su campo como el futuro de la tecnología aplicada al desarrollo de anticuerpos o la posibilidad de que éstos sean eficaces en patologías intracelulares.
Ambos investigadores mostraron interés a la hora de recabar información sobre los avances que pueden hacerse para lograr que los anticuerpos sean el recurso utilizado para garantizar la tolerancia a los injertos. Asimismo, presagiaron que en un futuro el modelo de la bibliotecas de anticuerpos probablemente se siga para configurar bibliotecas de virus.
Lerner y Winter, con el Rector Viente Gotor y la vicerrectora Paz Suárez (c) Universidad de Oviedo |
Richard A. Lerner y Gregory Winter animaron a los investigadores españoles a seguir trabajando para sacar adelante nuevas ideas en el campo de la inmunología a pesar de las dificultades que existen para que los descubrimientos tomen forma de proyectos concretos.
Para los galardonados, épocas de recortes como la actual son un buen momento para invertir en investigación, que acaba generando riqueza en un mundo dominado por la industria del conocimiento, "¿o alguien se imagina California sin Google o Facebook que han surgido de la investigación?", se ha preguntado Lerner.
Según Winter, Caballero del Imperio Británico, en el sector público no hay dinero suficiente para lograr "que las medicinas sean gratis" lo que hace necesario que en el proceso investigador, bien sea en una fase inicial o más avanzada, siempre sea necesario buscar que los fármacos que se desarrollan tengan un uso comercial.
posibilidad de padecer diabetes de tipo 2 (la más común de las diabetes)
Los adultos que toman café - normal o descafeinado – tienen por norma general un menor riesgo de muerte que aquellos que no consumen café, según un estudio realizado por investigadores del Instituto Nacional del Cáncer en EE.UU. Pero éste estudio no es el único que hay en relación al café y la salud. Estudios realizados en 2008, 2010, y 2011 además de éste, avalan y refuerzan la teoría de que el café no es tan perjudicial para la salud como se cree, sino todo lo contrario.
Las personas habitualmente consumidoras de café tienen menos probabilidades de morir por enfermedades cardiacas, respiratorias, derrames cerebrales, infecciones y diabetes, pero el estudio no ha podido relacionarlo con las muertes de cáncer. Los resultados son fruto de un estudio realizado a gran escala en personas adultas. Dichos resultados fueron obtenidos después de considerar otros factores de riesgo sobre mortalidad, tales como el consumo de alcohol y tabaco.
Los investigadores advierten, sin embargo, que no pueden asegurar al 100% que esta asociación entre café y mortandad, signifique que el consumo de café en realidad haga que las personas vivan más tiempo. Los resultados del estudio fueron publicados el 17 de mayo 2012 en la New England Journal of Medicine.
Los investigadores examinaron la asociación entre consumo de café y riesgo de muerte en 400.000 hombres y mujeres estadounidenses de entre 50 y 71 años.
La información sobre el consumo de café se recogió mediante un cuestionario, al inicio del estudio en el período en que comenzo el mismo, entre los años 1995 y 1996. Se hizo el seguimiento de todos los participantes en el estudio el cual finalizaría el 31 de diciembre de 2008 o hasta que murieran
Los investigadores encontraron que la asociación entre el café y la reducción del riesgo de muerte aumenta con la cantidad que se consume. En la relación entre hombres y mujeres que no bebían café. Los que consumían tres o más tazas al día tenían un riesgo de aproximadamente el 10 por ciento menos de morir. Beber café no se ha asociado con la mortalidad por cáncer entre las mujeres, pero hubo una asociación leve y sólo de forma marginal (estadísticamente hablando), de la ingesta del café más cargado, con un mayor riesgo de muerte por cáncer entre los hombres.
"El café es una de las bebidas más consumidas en los Estados Unidos, pero la asociación entre consumo de café y riesgo de muerte ha sido clara. Hemos demostrado que el consumo de café se asocia con un menor riesgo de muerte en general, y también de diferentes causas ", dijo Freedman. "A pesar de que no se puede inferir una relación causal entre el consumo de café y un menor riesgo de muerte, creemos que estos resultados proporcionan cierta seguridad de que el consumo de café no afecta negativamente a la salud".
Los investigadores advierten que en el estudio, el consumo de café se evaluó mediante un informe elaborado una sola vez (al principio del estudio) por los propios participantes en el mismo, y por lo tanto podría no reflejar patrones a largo plazo en la ingesta de café. Asimismo, el informe no revela la manera en que fue preparado (expreso, con agua caliente hervida, filtrado, etc).
Los científicos consideran muy probable que los métodos de preparar el café pueda afectar a los componentes del mismo y a sus niveles de protección.
"El mecanismo por el cual el café protege contra el riesgo de muerte - si es que el resultado refleja una relación causal - no está claro, porque el café contiene más de 1.000 compuestos que potencialmente pueden afectar la salud", dijo Freedman. "El compuesto más estudiado es la cafeína, aunque nuestros resultados fueron similares en los que tomaron café normal o descafeinado”
En este sentido, en 2008 fue presentado un estudio sobre el consumo de café y la muerte por enfermedades del corazón, publicado en Annals of Internal Medicine, dirigiendo el estudio Esther López García.
Así mismo en 2010, un estudio llevado a cabo por investigadores de la Universidad de Umea en Suecia, indicaban que el consumo de café, preparado con agua hirviendo (sin filtrarlo) reducía el riesgo de cáncer de mama.
Incluso en un estudio publicado en Enero de éste año, en la Journal of Agricultural & Food Chemistry se llegó a la conclusión de que el consumo de unas cuatro tazas de café al día, reducía aproximadamente al 50% la posibilidad de padecer diabetes de tipo 2 (la más común de las diabetes)