Entrevista a Fernando Calahorro

Etiquetas

,


Sin título

Tras licenciarme en Biología en la Universidad de Córdoba, realicé un Máster en Biotecnología Molecular, Celular y Genética que me permitió seguir con mi investigación, comenzada ya desde estudiante, en el departamento de Genética. Finalmente tuve la suerte de poder continuar con dicha línea de investigación hasta doctorarme en Biología por la Universidad de Córdoba, aunque me gusta definirme como Genético Molecular. Actualmente, aunque sigo desarrollando mi labor investigadora en dicho departamento, pertenezco al Instituto Maimónides de Investigación Biomédica de Córdoba (IMIBIC). En un futuro cercano, me trasladaré al Grupo de Neurociencias de la Universidad de Southampton (Inglaterra) donde voy a tener la suerte de poder seguir con mi línea de investigación en un grupo con gran proyección dentro del campo de las neurociencias.

 

–          Para entrar en calor con la entrevista, ¿el científico nace o se hace? ¿Podrías contarnos algo acerca de tu vocación?

Es muy difícil formar a un científico sin vocación alguna. Aunque creo que se trata más de un estilo y filosofía de vida la que te hace querer hacer ciencia. El científico debe de tener el pensamiento de querer contribuir hacia una vida mejor a través de la ciencia, y creer que con su trabajo eso es posible. Existen momentos muy duros y el camino se vuelve muy árido. Son en estos momentos, donde el científico debe creer, más que nunca y más que nadie en lo que está haciendo y no desvanecer en el intento. Todo esto obviamente sin vocación sería imposible.

Yo desde pequeño he soñado con una bata de laboratorio y probetas, tenía una vocación bastante temprana. Cierto es que no sabía muy bien que tenía que hacer para trabajar en eso, pero no me preocupaba demasiado, era feliz soñando que quizás algún día me vería en un laboratorio. Con los años, me fascinó la combinación de “cacharrear” en un laboratorio con la búsqueda de conocimiento. Y es esto, lo que realmente me enganchó de la ciencia. La búsqueda de conocimiento, enfocado a un fin específico, es algo realmente reconfortarle para el experimentador. Recuerdo con mucha emoción, recientemente, cuando tras muchos experimentos fallidos, el abandono total del experimento en el horizonte y mucha frustración, conseguí aislar una isoforma del transcrito de un gen que hasta la fecha nadie había descrito. Y sinceramente, recuerdo ese momento a solas en el laboratorio con una gran vibración que me recorría todo el cuerpo. Estos momentos cortos pero intensos, son los que te hacen pensar: “merece la pena seguir andando el camino de la ciencia”

–          El campo de la genética molecular está en expansión; ¿cuál es la quimera de esta rama? ¿Qué meta es la más cercana?

Bueno, muchas son las quimeras que ya han sido alcanzadas con creces en este campo que se expande a la velocidad de la luz. Desde la descripción de la estructura de la molécula de ADN, el hito que sin duda revolucionó la Genética y la ciencia en general, todo ha surgido a mucha velocidad y creo que los retos de la Genética Molecular no tienen límites. Sin duda, lo más destacable, a partir de todos estos hechos son el desarrollo de las técnicas –omicas (genómica, transcriptomica, proteómica, …) que verdaderamente han ofrecido la herramienta más útil y potente para los estudios moleculares actuales.

Hablando de metas cercanas, creo que sinceramente esta disciplina no tiene metas, todas se cumplen sobremanera. Quizás el reto más cercano que ya se está empezando a desarrollar es la de una terapia personalizada basándose en la información de nuestro genoma, lo que algunos denominan farmacogenómica. Aún está en pañales y quedan muchos aspectos a desarrollar para que se aplique, pero, sin duda, sería una gran revolución de la Genética Molecular con un gran potencial en la práctica clínica diaria.

–          A nivel profesional, ¿puedes hablarnos de tu trabajo? ¿Cuál es tu objeto de estudio?

Actualmente mi trabajo se centra en el estudio de unas proteínas de adhesión celular localizadas en la sinapsis neuronal, llamadas neurexina y neuroliguina. Ambas proteínas, junto a otras, son claves para el correcto establecimiento de la conexión sináptica y para que se produzca de manera eficiente la transmisión sináptica entre neuronas. Mutaciones en los genes que codifican para ambas proteínas se han descrito en casos de autismo monogénico (y otros trastornos neurológicos), y esto se traduce en un mal funcionamiento de las redes neuronales.

Comencé el estudio empleando técnicas de genotipado con pacientes diagnosticados con autismo. Con ello intentamos asociar polimorfismos genéticos en genes relacionados con el metabolismo de ciertos neurotransmisores con autismo. Debido a la gran problemática de poder trabajar con niños, decidimos continuar el estudio usando Caenorhabditis elegans como organismo modelo. Se trata de un pequeño nematodo microscópico, de tan solo 1mm de longitud con el que intentamos abordar el aspecto genético-molecular del funcionamiento de neuroliguina y neurexina en la sinapsis.

C. elegans ha sido ampliamente usado en distintos ámbitos de la biología, pero sin duda es en neurobiología donde es más destacable su uso. Con tan solo 302 neuronas, perfectamente cartografiadas y conociéndose cada una de las sinapsis producidas por una neurona, ofrece un escenario ideal para afrontar complejos estudios neurológicos en humanos. Además, presenta una homología del proteoma del 80% con el ser humano.

C. elegans ha sido objeto de tres premios Nóbel por hallazgos tremendamente relevantes para la Biología Molecular como son: el proceso apoptótico en las células (2002; Sydney Brenner, John Sulston y Bob Horvitz), el mecanismo de RNA interferente (2006; Craig C. Mello y Andrew Fire) o el descubrimiento de la proteína verde fluorescente- GFP (2008; Martin Chalfie, Osamu Shimomura y Roger Y. Tsien ).

Valiéndome de todas estas ventajas, uso este organismo para diseccionar y estudiar el efecto funcional en la sinapsis de mutaciones en los genes de neurexina y neuroligina de C. elegans, ortólogos a los humanos, e intentar extrapolar los resultados obtenidos a lo que realmente esta ocurriendo en humanos cuando pacientes con autismo son portadores de estas mutaciones.

–          Como científico, ¿cuál es tu sueño? ¿algún aspecto interesante con el que sueñas investigar? ¿alguna institución, país …?

Dirigir un grupo de investigación e inculcar a mis estudiantes valores de la ciencia aplicables a conseguir una sociedad mejor, sería unos de mis sueños. Pienso que la carrera investigadora, por supuesto, tiene que tener asociado un aprendizaje, un método a seguir, enseñar a hacer ciencia de calidad, la profesionalidad, la rigurosidad y aprender a ser muy crítico con tus experimentos y resultados… Pero más allá de eso, creo que el adquirir una integridad y forma libre de pensar es tremendamente enriquecedor para el investigador, y esto es lo que realmente se debería de enseñar a lo largo de una carrera investigadora.

Profesionalmente, un sueño … sería el poder poner mi granito de arena en el campo de la neurobiología, y que éste sirviese de punto de apoyo para futuras investigaciones y esclarecer cuestiones aún desconocida en algunos trastornos neurológicos.

Me gustaría desarrollar mi labor investigadora en mi país, por supuesto. Poder hacer investigación en el campo de las enfermedades neurológicas aquí en España sería uno de mis grandes sueños. Hasta ahora esto ha podido realizarse ya que es lo que he estado haciendo en mi etapa doctoral y en la postdoctoral dentro de la Universidad de Córdoba. Lamentablemente la situación en España para continuar mi sueño es imposible, por lo que en breve me trasladaré a Inglaterra a seguir luchando por él.

–          ¿Cómo ves la ciencia en España en un futuro próximo y en comparación a otros países?

España es un país donde se hacen y se forman muy buenos científicos, y además se hace una ciencia de muy buena calidad. De hecho, se está produciendo un fenómeno que hace años no se daba, que es el de la importación de científicos de otras nacionalidades a nuestros centros de investigación. Los jóvenes investigadores de todo el mundo quieren venir a España a hacer ciencia. Y un claro ejemplo de esto, entre otros,  es el CRG (Centro de Regulación Genómica) de Barcelona, donde hay un número considerable de jóvenes científicos de otros países que han elegido el nuestro para seguir y formarse en su carrera investigadora. Esto es un valor añadido a la ciencia de nuestro país que mucha gente desconoce.

Cierto es que nuestro país va muy a la cola en inversión en I+D+i que el resto de países y creo que esto debería ser el verdadero reto de la ciencia aquí en España. El resto de países del mundo nos han enseñado que la inversión en ciencia, aunque a largo plazo, es una inversión segura que se revaloriza con creces en importantes avances para la sociedad. Estoy convencido que este es el único modelo que hace avanzar y crecer a un país y a la sociedad en general. Por ello, sinceramente pienso que el tema de la financiación de la ciencia en España tiene que cambiar con los años, pero, sin ser derrotista, creo que debido a nuestro sistema económico-financiero esto se conseguirá a medio-largo plazo.

–          ¿Puedes resumirnos que tesis desarrollaste durante tus años de Doctorando?

Mi  tesis doctoral la realicé dentro del campo de la neurobiología. En concreto, en el estudio de las denominadas sinaptopatías. Es decir, el estudio de disfunciones producidas a nivel de la sinapsis neuronal. Esto tiene una relevancia importante ya que muchos trastornos neurobiológicos, tales como esquizofrenia, retraso mental o autismo tienen este punto en común. Concretamente mi tesis doctoral se desarrolló en el estudio de estas sinaptopatías producidas en algunos casos de autismo, estudiando el aspecto genético molecular de este trastorno y centrándome en los mecanismos moleculares que ocurren en el espacio sináptico.

–          Para acabar la entrevista, ¿alguna anécdota de laboratorio?

Creo que todo lo que pasa en el laboratorio es anecdótico, jajajaja … Hasta los grandes descubrimiento y hallazgos son anecdóticos …

 

Quisiera terminar la entrevista agradeciendo el apoyo que he recibido siempre, desde mi infancia hasta hoy en día, a las mujeres que han marcado mis principios e integridad como persona, y que sin duda han repercutido de manera sobresaliente en mi carrera científica. Desde que di los primeros pasos en la vida y en la ciencia, gracias por acompañarme y apoyarme con vuestro cariño este camino. Ellas saben perfectamente quienes son.

—–

Desde aquí querría aclarar dos temas pendientes que tenemos Fernando Calahorro y el autor de este blog. El primero, aunque probablemente el entrevistado no vaya a reconocerlo, tengo que expresar mi más sentido agradecimiento a una excelente persona que a trancas y barrancas ha podido contestar el sinfín de preguntas y favores que le pedía para hoy. Es de agradecer que durante la revisión de dos artículos científicos para revistas de renombre y el acuerdo de un contrato en Inglaterra nuestro entrevistado haya puesto todo de su parte para que en una fecha señalada como la de hoy no tuviéramos ningún contratiempo. Segundo, y no menos importante, desearle lo mejor a Fernando durante su estancia en el extranjero y espero poder verle de vuelta (más pronto que tarde) por aquí, se le echará de menos.

CientíficamenteCorrecto os desea una Feliz Navidad y Próspero 2013 a todos los lectores.

De la realidad visual al átomo.


El átomo es una figura fundamental en la química y la física moderna. No obstante, algo tan básico y conocido a día de hoy ha sufrido una serie de modelizaciones teóricas a lo largo de la historia que han desembocado en nuestra concepción actual. El modelo atómico ha estado lleno de teorías controvertidas entre ellas, con huecos experimentales y muchas veces aguantándose con pinzas. Lo importante del modelo hasta hace tiempo no era si podía dibujarnos un átomo sino explicar la materia desde su base más sólida junto a sus interacciones.

Si no existiera habría que inventarlo. Parafraseando a un gran pensador, esta frase resume el nacimiento del átomo como concepto en la humanidad. De la Filosofía Griega, que se preguntaba sobre los temas básicos de la realidad visual, el entorno y que constituía las macroestructuras nació el término átomo. Aunque algunos pensadores de la época, como Demócrito o su discípulo Leucipo teorizaron sobre tal, ninguna base sólida parte de un experimento, por lo tanto no aportan ninguna prueba corroborada ni científicamente probado de que sus escritos sean de notable consistencia.

Un salto de 15 siglos después mueve a diferentes científicos a crear un modelo, siendo el primero de ellos el modelo de Dalton.

Este modelo se postula durante la primera década del siglo XIX. Dalton suponía que el átomo era una esfera diminuta. Omite la existencia de cuerpos con carga, como protones y electrones. La caracterización de Dalton sobre los átomos no da tanta importancia a su estructura sino a sus interacciones. Caracterizaba con las mismas propiedadess cuantitativas a los átomos que formaban un mismo compuesto químico. Como curiosidad cabe destacar que para Dalton, el átomo era indivisible y en ninguna reacción química para formar compuestos éste sufría alguna división. Dejó entrever que los átomos se relacionan, es decir, tienen diferentes formas de crear compuestos que hoy conocemos como moléculas.

Como podemos ver, algunos aspectos nos pueden parecer precarios en cuanto a su estructura actual y otros un tanto desorbitados para los físicos teóricos como la indivisibilidad atómica. Sin embargo, se aproxima peligrosamente a la realidad cuando presupone relaciones atómicas de diferente tipo. El modelo de Dalton se basa en conceptos simples que supondrán el germen de la evolución de teorías del átomo y del modelo actual.

 

Casi un siglo después, a finales del XIX, Thomson llega a una conclusión experimental que resulta fundamental. Hay dos partes claramente diferenciadas en el átomo, una negativa y otra positiva. Las cargas negativas se incrustaban en una gran masa positiva de manera que entre ambas cargas neutralizaban su efecto quedando en estado neutro. A estas conclusiones llegó a raíz del uso de rayos catódicos. Aunque este material no le permitió darle una base teórica lo bastante sólida como para definir una estructura correcta consiguió establecer el sistema de cargas pero sí para definir los conceptos de iones a base de la ganancia y pérdida de electrones. No pudo explicar otras radiaciones pero sirvió de inspiración para el modelo de Rutherford. Como curiosidad, Jean Perrin, un premio Nobel de 1926 modificó el modelo de Thomson para situar los electrones algo más externos a la carga positiva.

En 1911, el experimento Rutherford consolidó la fisionomía del átomo para los siguientes 50 años, al menos a nivel estructural. Rutherford dispone de una fuente de rayos alfa que proyecta sobre una lámina de oro. En el supuesto caso del átomo de Thomson, los rayos alfa atravesarían el núcleo positivo sin desviar ni un ápice su trayectoria. Esto fue un resultado generalizado para su experimento puesto que en muchas réplicas la trayectoria del rayo fue desviada. Esto es debido a que la presencia de electrones se halla en una situación externa, no involucrada en el núcleo. Con experimentos posteriores demostró la existencia del neutrón hacia 1920. Para su detrimento, no explicó las leyes de Maxwell y sus ecuaciones para el electromagnetismo que dictaban que la energía que desprendía el electrón en movimiento terminaría por hacer a éste caer sobre el núcleo que orbitaba. Tampoco pudo explicar la interacción magnética con la materia.

El modelo que lo precedió fue el modelo de Bohr. Se considera el primer modelo moderno ya que la esctructura comprendida estaba comprobada y solo debía los enigmas a efectos cuánticos. Los electrones se sitúan a ciertas órbitas y pueden moverse entre ellas emitiendo o absorbiendo energía bajo el lema E = hf. Aunque la idea de órbitas era razonable Bohr nunca la pudo demostrar.

 

Edwin Schrödinger también toma asiento en el debate atómico. Parte de las ecuaciones de De Broglie sobre la naturaleza ondulatoria de la materia para aplicarlas sobre el electrón. Describe orbital, la zona de máxima probabilidad para encontrar un electrón en un tiempo t determinado y describe la ecuación de Schrödinger. A partir de aquí derivarán los tres números atómicos conocidos para orbitales. Sobre este modelo se cimentarían el Principio de incerteza de Heisenberg que dictamina como imposible conocer el espín y velocidad de un electrón. El espín, no derivará de la ecuación del modelo, es una propiedad intrínseca del electrón que corrigió Pauli.

File:HAtomOrbitals.png

En cuanto a la actualidad, el modelo atómico ha evolucionado hacia la definición de partículas subatómicas y diferentes tipos de interacciones entre ellas, pero este tema merece una entrada a parte.

La historia de los modelos atómicos ha sido controvertida y hoy en día se sigue escribiendo, sin un modelo no nace otro al igual que sin una pregunta no nace una respuesta. Desde Demócrito hasta al CERN, todos son culpables de que poco a poco tiremos más del hilo deshaciendo la maraña de la estructura de la materia.

CC se va de vacaciones


CC se va de vacaciones y el blog cerrará durante el mes de Agosto, pero espero daros alguna sorpresilla antes de Septiembre con alguna de mis entradas. Soy consciente de que el mes de parón será brutal y puede afectar considerablemente al flujo de visitas del foro pero confío en que la recuperación será más fuerte y duradera.

Por un lado dejo Cuentos Cuánticos durante todo el mes, pero volveré con colaboraciones bien hechas para el foro del gato de Schrödinger y con más ideas para su foro. De momento mis compañeros seguirán actualizando durante este mes y seguro que no os dejan con mal sabor de boca.

Más allá de las nuevas ideas con las que pueda volver, sería bueno publicar el calendario oficial de publicaciones de las próximas temporadas o estaciones para que las publicaciones no se vayan de semana en semana y el lector vaya cual pelota de ping pong entre los fines de semana.  

Finalmente os desvelaré mi colaboración en una nueva página web donde también ando trabajando para más y más divulgación.

Nada más, os deseo lo mejor para vuestras vacaciones y el mes de Agosto, nos vemos en breves y disfrutad de la ciencia veraniega.

Las dos caras de la aspirina


La aspirina es un fármaco habitual en nuestras vidas. Para bien o para mal todos hemos oído hablar de ella y pocos (por no decir ninguno) se ha librado de su(s) efecto(s). Si dando un paseo en bici nos caemos y nos damos un golpe en la rodilla lo primero que hacemos al llegar a casa es tomar una aspirina para que baje la inflamación. Si por lo que sea nos duele la cabeza, el  estómago, tenemos algunas décimas de fiebre recurrimos una y otra vez al uso o abuso de este fármaco. Incluso las personas que tienen riesgo de padecer infarto lo utilizan. Lo que a priori nos puede resultar un fármaco genérico más que conocido y estudiado puede darnos alguna que otra sorpresa que no esperaríamos y que pretendemos destapar en este artículo, además de aseguraros que el remedio universal a todos los males menores no radica en esta pastilla que lo cura todo sino en una supuesta versión mejorada.

 

A nivel molecular

Aunque pueda parecer absurdo, el estudio de cualquier fármaco a nivel molecular puede destaparnos algún que otro detalle a posteriori de manera que vamos a hacer un retrato o sinopsis más bien sencilla y escueta del esqueleto de nuestra aspirina o acido acetil salicílico:

La fórmula contraída del compuesto es C9H8O4. En cuanto a grupos funcionales la cosa está bastante clara. Un anillo aromático une por el C1 un grupo carboxil y por el C2 un acetiloxi. Una base estable energéticamente que divide dos picos de electronegatividad en direcciones perpendiculares.

 

 

A nivel fisiológico

Ahora viene la pregunta del millón, la que nadie se hace pero es necesario responder, ¿Cómo actúa en el cuerpo?

Antes de nada indicar que la aspirina no cura, no reestablece ningún parámetro alterado ni devuelve el orden normal a la fisiología local. La única misión de  esta molécula es omitir el dolor, conseguir que no se produzca y por tanto eliminar los síntomas de un mal menor que puede ser devuelto al orden preestablecido por el propio organismo sin dificultar alguna.

Volviendo a la aspirina, vamos a comprender como actúa antes de determinar los posibles peligros que puede suponer para el organismo. El dolor que inhibe la aspirina se mide según la molécula de prostaglandina que se sintetiza a partir de un precursor y una enzima que cataliza la reacción. El precursor es un viejo conocido de la química, el ácido araquidónico, y la enzima es la COX o ciclooxigenasa.

La farmacodinámica de la aspirina consiste en acetilar un residuo del aminoácido Serina que se halla en el centro activo de la enzima, ésta cambia parcialmente su conformación tridimensional para este espacio de tal manera que el ácido araquidónico no puede ser catalizado y el marcador químico del dolor no se expresa. Hasta aquí todo bien, pero, ¿dónde yace el riesgo de consumir este medicamento¿

La COX es una enzima que se divide en dos formas o isoformas que son la COX1 y COX2, aunque estén relacionadas no  cumplen exactamente la misma función aunque a ojos de la aspirina sean iguales. Las dos isoformas de la COX se originan a partir de la misma secuencia génica que sufre variaciones y el proceso es conocido como splicing alternativo. Aunque hay diferentes tipos de splicing, se puede resumir que a partir de un mRNA primario se modifica la secuencia transcrita para obtener diferentes traducciones. Sería algo similar a obtener diferentes versiones de una misma proteína con el mismo núcleo genético pero que pueden diferenciar en X aminoácidos.

Tanto COX1 como COX2 son idénticas, únicamente difieren en un único aminoácido que no se halla en el centro activo y la aspirina las reconoce por igual. La primera isoforma es la encargada de sintetizar prostaglandinas con el objetivo de marcador de dolor además de mediador en agregación plaquetaria y protección intestinal. La COX2 actúa a modo de marcador inflamatorio y se puede encontrar en el tejido epitelial de algunos órganos.

Cuando la aspirina bloquea la COX1 además de la COX2 y mientras tanto se da algún proceso digestivo no sucede nada debido a la cinética de reacciones el problema se da cuando la aspirina bloquea la COX2 instantes antes de que se dé la digestión donde el HCl (ácido clorhídrico) puede crear úlceras en el estómago.

Por el contrario, cuando bloquea la COX2 como efecto poco frecuente puede darse la irritación de la piel y espasmos bronquiales al inhibir algunos procesos de defensa en el tejido epitelial que recubre los bronquios y exterior pulmonar.

 

Pero no todo iban a ser contraindicaciones, para nada letales ni siquiera importantes si se tratan con tiempo y los recursos necesarios, también existe esperanza en la vanguardia de investigación. Desde hace años se está trabajando en el proyecto coxib, son inhibidores específicos o selectivos de determinados tipos de COX que por lo tanto ofrecen menos efectos secundarios que el ácido acetil salicílico. No se ha documentado todavía el mecanismo de inhibición con exactitud pero podemos conocer los efectos de su inhibición.

Así pues el bloqueo de la isoforma 1 implica evitar los efectos secundarios sobre el tracto gastrointestinal y renal mientras que el de la segunda isoforma evita la respuesta inflamatoria y de fiebre.

Ningún medicamento es una solución o quimera a una enfermedad completamente gratuita, hay que pagar  un precio y un riesgo de efectos secundarios que difícilmente sea posible paliar en un futuro cercano y pretendo con este artículo demostrar que la aspirina no es un cúralo todo eficaz ni de lejos.

 

Metabolismo (parte I): de glucógeno a piruvato.


Mi intención es crear en una serie de artículos cortos como el que publico a continuación las rutas metabólicas básicas reacción a reacción de una forma simplificada. Es común abrir un libro y que te invadan a la vista un cuadro desordenado de rutas que se cruzan y donde no sabes que pasa ni porque, mi objetivo es clarificar un poco la bioquímica de cada compuesto simplificando las explicaciones comunes. Mi objetivo es explicar las rutas básicas una a una y aquí os presento la primera:

Un tema que se relaciona típicamente con la bioquímica es el metabolismo. Explicar desde un punto de vista químico las reacciones y el uso de la energía por y para sistemas biológicos es algo más que una ruta.

A continuación mostramos un mapa de las rutas metabólicas básicas que se dan en los mamíferos:

Este artículo pretende ser la primera entrega de una serie que defina el metabolismo de la bioenergía etapa por etapa repasando y estudiando cada uno de los compuestos principales.

La primera parte empieza por un compuesto energético típico, el glucógeno. En el presente artículo desglosamos toda las reacciones que se producen para modificar el glucógeno y acabar en piruvato.

Esquema

Nos introducimos directamente en el compuesto inicial del que parte nuestra ruta. El glucógeno es un glúcido, concretamente un polisacárido que está formado por múltiples repeticiones de una unidad menor, el monosacárido de glucosa. La función de este polímero es puramente energética motivo por el cual no se disuelve completamente en agua sino que forma u organiza dispersiones coloidales. A nivel fisiológico se almacena en órganos como el hígado y gran número de músculos donde su aporte energético es el principal.

A nivel estructural, el polisacárido puede contener más de 100.000 unidades del monómero de glucosa en haces o cadenas ampliamente ramificadas. Las cadenas incluyen las repeticiones de glucosa en forma de enlace glicosídico alfa 1-4 y distribuye sus ramificaciones con el enlace alfa 1,6. El hecho de mantener un compuesto altamente energético en forma de rama permite muchas ventajas para la fisiología de la bionoergética, además de aumentarla insolubilidad, ofrece múltiples puntos de extremos de glucosa no reductores. La importancia de estos extremos viene dada por la afinidad a enzimas que permiten la degradación inmediata en monómeros para ser utilizados inmediatamente. Para elaborar un símil bastante útil, podríamos decir que es más rápido arrancar numerosas moléculas desde tiempo t a t’ que hacerlo una a una mediante una molécula lineal de glucógeno.

 

Glucogenólisis:

La glucogénolisis es la primera etapa del metabolismo del glucógeno que permite desensamblar el polímero en diferentes moléculas de glucosa utilizadas para ese momento.

Aunque el proceso pueda parecer senzillo la realidad va algo más lejos de aquí.

Nos encontramos que el glucógeno a nivel celular se halla almacenado en las vacuolas. Mientras el glucógeno muscular se utiliza únicamente para la contracción, en el hígado se utiliza para mantener los niveles de glucosa en sangre a través de la regulación de diferentes hormonas como son la archifamosa adrenalina y el no tan conocido glucagón. El papel hormonal juega cierta importancia que detallaremos a continuación.

Por ahora toca dedicarse plenamente al paso de glucógeno a glucosa. A pesar de que tan solo intervienen dos enzimas es muy importante fijarse en la reacción global.

El primer enzima que participa es la glucógeno fosforilasa, una enzima encargada de deshacer el glucógeno en glucosa por fosforolisis, es decir, rotura gracias a un compuesto fosforilado. La escisión viene dada en la dirección desde el extremo no reductor al reductor. La enzima fosforilasa actúa en los enlaces glicosídicos 1,4 que forman cada rama lineal del glucógeno.

Así la reacción:

(glucosa) n + Pi3 ←→ (glucosa) n-1 + glucosa-1-P

Puede explicarse como la interacción de la cadena de glucosas (glucosa,n) con la enzima fosforiladora (Pi3) que origina un monómero de glucosa fosforilado (glucosa1P) y el resto de la cadena de glucógeno.

Esta reacción es muy favorable a nivel celular pero tan solo puede romper los enlaces lineales. La segunda enzima de la que hablaremos será aquella que permita romper los enlaces alfa 1-4, esta enzima desramificadora que se basa en la hidrólisis tiene dos funciones o actividades catalíticas diferentes. Mientras por una parte, transfiere glucosas al extremo no reductor, porla otra deshace los enlaces en alfa 1,6.

Como comentábamos antes, la glucogenólisis está regulada por diferentes hormonas según ciertos niveles fisiológicos del cuerpo.  Cuando se necesitan glúcidos o energía inmediata, glucagón y adrenalina fosforilan la enzima fosforiladora que degrada el glucógeno hasta llegar a glucosa. Cuando se necesita, la insulina crea cúmulos de glucosa a nivel celular. Este último paso se conoce como gluconeogénesis.

Hasta aquí hemos llegado a glucosa. Una vez tenemos la glucosa, debemos seguir degradándola para obtener más energía ya que el proceso anterior no ha dado ninguna forma de energía útil, solo preparaba las piezas o monómeros que más tarde la darán. El proceso por el cual la glucosa deriva en piruvato cumple una serie de pasos pero a partir de su llegada a piruvato puede seguir otras vías alternativas como son las fermentaciones, de las que ya hablaremos en el siguiente capítulo.

Foto glucosa:

La forma de glucólisis más importante es la de Emden-Meyerhof.

El primer paso consiste en el aporte energético de 2 moléculas de ATP para romper la glucosa en otros intermedios. Este paso consta de siete reacciones:

1)    Fosforilación de la glucosa: Para darle energía a la glucosa y que luego pueda romperse, una hexoquinasa transfiere un grupo P de un ATP a la glucosa. A  nivel químico, el ATP se une covalente al MG2+ para que el OH del último C de la glucosa pueda hacer un ataque nucleofílico y llevarse el P. DG negativa, se libera calor.

2)    Isomerización: Nos hallamos ante una reacción con una DG positiva y que necesita una enzima (glucosa6fosfato isomerasa). El cambio de glucosa 6P a fructosa 6P es importante en los pasos posteriores.

3)    Segunda fosforilación: Un nuevo ATP da lugar a la fructosa 1,6bifosfato. Este compuesto es el punto de control de la glucólisis ya que es un compuesto donde la reacción se vuelve irreversible y quedan descartados los compuestos y residuos que hasta ahora habían participado.

4)    Rotura: Se forman dos compuestos. Uno es el gliceraldehido y el otro es dihidroxiacetona.

5)    Isomerización: Solo el gliceraldehido puede seguir la glucólisis de manera que la otra molécula es isomerizada para que se de la reacción con más rendimiento del que cabría esperar.

El segundo paso consta de las siguientes reacciones y se basa en la obtención de energía: Estas reacciones se dan dos veces debido a la reacción cinco de isomerización.

-Oxidación:Se utiliza NAD+ para oxidar el gliceraldehido, ahora tenemos 1,3bifosfoglicerato.

– Formación ATP: El 1,3 bifosfoglicerato pasa a 3 fosfoglicerato pasando un ADP a ATP.

– El 3fosfoglicerato pasa a 2fosfoglicerato por la acción de fosfogliceratomutasa.

– El compuesto anterior pasa a fosfoenolpiruvato por la enolasa.

– Finalmente hallamos el piruvato y se forma ATP.

  • En el próximo capítulo hablaremos de las diferentes formas de fermentar y otros tipos de glucólisis asociadas.

La frontera entre célula y vida.

Etiquetas

, , , , ,


«La célula es la unidad mínima de vida». Ésta es la frase a la que nos tienen acostumbrados, tal vez demasiado, para delimitar los componentes o estructuras con vida de propia de las piezas que lo ensamblan. Otro dogma central de la biología que cada día se convierte en algo más discutible.

Para saber donde encajar este grupo de compuestos moleculares (por llamarlo de alguna manera momentáneamente) vamos a introducirnos en su piscina de (bio)diversidad.  Los virus son unos componentes que contienen básicamente tres tipos diferentes de biomoléculas pero que pueden o habitualmente contienen las 4 en su totalidad. La parte básica, que no el motor, sinó el mapa de funcionamiento del virus está escrito en su material genético. Éste puede ser DNA o RNA y no contienen un gran número de genes (alrededor de 50 kb

como número medio). El conjunto o polímero de ácido nucleico se encuentra envuelto de una cápsida o envoltura proteica formada por las proteínas que ha podido transcribir por sí mismo. La cápsida puede contener algún glúcido que se utiliza a nigel de señalizador d

 

e celular para el contacto célula-virus durante la infección. Hasta aquí tenemos las biomoléculas típicas de un virus. Fundamentalmente los lípidos,  y algún glúcido, que el virus incluya en su cápsida con función estructural son los que el virus arrastra durante su expulsión de la célula que ha infectado.

 

Los virus se encargan de infectar células, ya sean eucariotas o procariotas, para poder «vivir» a su costa. Un virus se acerca a una célula y en sus proximidades membranales funde la cápsida con la bicapa celular (en caso de fagos hay inyección de DNA/RNA) y el material genético es liberado al citoplasma. Existen muchos tipos de infección, contando como esquemas principales los ciclos lítico y lisogénico. El material genético que entra en la célula tiene diferentes «modus operandi», puede replicarse y transcribir desde el citoplasma, hacerlo incrustado en el genoma si es DNA y también puede retrotranscribirse si es RNA. El común denominador es la utilización de la maquinaria celular para mover el metabolismo vírico, es decir, crear viriones que saldrán de la célula codificando dentro de ella su cápsida. Como nos adelantábamos antes, esta célula puede romperse al expulsar los viriones (lisis) o bien permanecer metabolicamente activa para su continua reproducción (lisogenia).

Una vez aquí allegados determinamos que el caso que tenemos delante de nosotros es una vía biológica alternativa a la celular, ¿pero sigue unos patrones biológicos comunes a la vida o no?

A continuación enunciamos las características que sostienen el concepto de vida (concepto nominalista y humanista): Organización, reproducción, crecimiento, evolución, homeóstasis y movimiento. Si desglosamos cada uno de los términos anteriores llegamos a la conclusión de que en cada uno de ellos existe una acepción apta para ellos de manera que si queremos determinar un término de vida mucho más conciso deberíamos acotarlo con más precisión.

La organización se define según el nivel celular. Reitero que es un término bastante ambiguo, toda la naturaleza tiene un orden, desde un universo, pasando por ecosistema, organismo, célula, molécula… Hasta llegar a partículas elementas que contienen un orden, aunque el símil se ve más claramente en átomos. A nivel celular, la interactómica define la interacción entre compuestos moleculares y diferentes jerarquías orgánicas. En virus se puede considerar que sucede el mismo proceso a menor escala, con un número menor de componentes pero existe una organización, que indudablemente conduce a una fisiología vírica.

El término que la sucede en la escala vital es la reproducción, no creo que haga falta añadir nada más, los virus tienen capacidad reproductiva (no  propia) pero sí que tiene capacidad de reproducirse, independientemente del medio que utilice. Aquí entramos en guerra de medios y formas, una piedra nunca puede reproducirse dando a un semejante (sí que puede fraccionarse) pero una célula si que puede dar a su semejante quedando intacta, y un virus a partir de una célula también. Los priones pueden dar a un semejante pero partiendo de una cadena aminoacídica, es decir, no crea su semejante desde su propia estructura o a partir de replicación propia como si lo hacen los virus. Aunque éstos necesiten de fisiología celular.

El crecimiento sigue siendo un concepto clave, al igual que el anterior, ya que es una evidencia que los virus pueden crecer, formarse y dar actividad, el problema es que solo se da en su estado celular, fuera de la célula es un ente interte. Aún así esta acepción no es un impedimento, muchas bacterias Gram positivas crean endosporas que pueden durar hasta siglos. Estas endosporas se pueden eliminar por el mismo proceso (si bien no, similar) al que se utiliza para deshacernos de virus en laboratorio. El estado de endospora es perfectamente comparable al de virus y por tanto como el primero se incluye dentro del selecto club de «los 5 reinos» no veo por el cual los virus deban excluirse de esta asignación.

La evolución vírica es un hecho probado, de la misma forma que una teoría de origen viral le dedica a la evolución un papel esencial en la formación de estas formas, los virus siguen evolucionando y adquiriendo resistencias varias. No hay mucho que discutir.

Siguiendo con la lista de cabecera, nos centramos en la homeostasis. La homeostasis, o equilibrio químico-orgánico y fisiológico en virus es prácticamente insignificante. Desde que hay dos niveles diferenciados donde se implican diferentes órdenes estructurales, no  es el mismo estado la fase latente que la extracelular, de manera que la homeostasis tal y como la conocemos no existe a nivel univiral, pero si existe una homeostasis controlada por parte de los virus. Los virus son un agente activo homeostatico, es decir actuan de controladores, en grandes poblaciones de bacterias y otros microorganismos. Si los virus (X) participan creando un equilibrio determinado en bacterias (Y) es porque X como población global lleva un proceso homeostatico que le permite el equilibrio. El equilibrio en bacterias no se crea desde el caos en virus, porque en un tiempo t que tienda a infinito se daría o bien una superpoblación de virus que acabaran con todas las bacterias o al revés, cosa que no se da.

Finalmente el movimiento, tal y como lo entendemos ese da perfectamente en virus y el movimiento browniano extracelular que éstos tienen se da en múltiples procariotas.

Quisiera concluir con mi opinión que he intenado justificar, los virus son vida, forman parte de la vida. Encajan dentro de unos patrones globales y básicos donde se encuentran las células pero también se salen de otros que pueden encajar perfectamente. La vida es un tema muy abierto, nacido de la casualidad y por motivos que no podemos conocer. Sería un grave error, acotar un término tan grande a una entidad tan pequeña y cerrada como la estructura de célula.

Cometas: Una de física y otra de química


Nota: Este artículo fue publicado en Cuentos Cuánticos como una colaboración mía hace una semana.

Tendemos a interpretar la astronomía con una base física especial, como si pudiéramos entender la inmensidad del Universo a partir de una única disciplina. Poco a poco hemos ido avanzando en esta concepción, si antes el cine era mudo ahora le añadimos sonido. ¿Qué os parece juntar Química y Física para salir a buscar fuera de nuestro planeta? El resultado puede ser un espectáculo para todos los sentidos y lo vamos a comprobar a continuación.

Uno de los fenómenos más curiosos de explicar y observar son los cometas. Lejos del estudio de su trayectoria u órbita, impacto y período, los cometas son un sistema termodinámico digno de contar.

En una forma estática y alejada del Sol (u otro cuerpo que orbiten) consideramos el cometa como un objeto rocoso formado de hielo sin ninguna morfología especial. A medida que el cuerpo se acerca a la fuente luminosa que orbita la morfología cambia, es decir, hay una polaridad celeste. El cometa se puede diseccionar en núcleo, coma y colas.

Como se aprecia en la imagen anterior, el aspecto de cualquier cometa varía considerablemente según su posición en el espacio. El núcleo es el cuerpo principal del cometa, aquella parte que se mantiene invariable morfológicamente a lo largo de su trayectoria pero varía en masa. La zona principal donde se hallan todos los componentes va sublimándose poco a poco mientras dura su recorrido periorbital al Sol. El conjunto de elementos y compuestos sublimados forma la coma. Es una especie de cola central, el producto de la sublimación dibuja la trayectoria del cuerpo. Por último las colas, que pueden ser de iones y polvo, proviene de la expulsión de materia más interna del núcleo.

El movimiento:

Siguiendo con la premisa de la introducción, el movimiento de un cometa puede ser estudiado físicamente pero el reto actual que se presenta es analizar químicamente la sopa de compuestos que varían y las reacciones que se dan en él durante sus etapas cercanas al Sol.

El movimiento del cometa al aproximar-se al Sol produce la sublimación de parte de éste y sus elementos se diferencian en la trayectoria según el tipo, es decir, tenemos diferentes colas. Cabe añadir que la consecuencia directa de que poco a poco vaya perdiendo masa es que el cuerpo adopta diferentes órbitas, generalmente elípticas, alrededor del cuerpo de mayor masa.

Una vez el cuerpo rocoso se acerca a la fuente de luz comienzan a formarse dos colas. La primera es la cola de polvo, que proviene de todo aquel material que se desprende de la superficie o de la parte interna del núcleo a la que se halla fuertemente unida y como hemos dicho anteriormente, recorre la trayectoria. La segunda cola en cambio sigue la dirección y sentido opuestos al Sol y está formada por gases. Éstos no proviene de una sublimación directa de materia sólida sino que se constituye en base a partículas cargadas positiva o negativamente que rompe su unión con las moléculas adyacentes y pasan a reaccionar en una cola secundaria que poco a poco se desvanece según el cometa va alejándose del Sol (interacciones débiles entre ellas).

Algunos de los cometas más famosos son el cometa Halley debido a su período de 75 años aproximadamente y por sus famosas visitas cerca de nuestro planeta (es el ejemplar más documentado a lo largo de la Historia). También los Tuttle por ser precursores de lluvias de meteoros ejemplares y visibles desde la Tierra. Por último tenemos el Shoemaker-Levy 9, que es el que tomamos a continuación como ejemplo a analizar.

Cometa Shoemaker-Levy 9:

El cometa descubierto por el matrimonio de los Shoemaker y su amigo Levy se hallaba de vuelta en su trayectoria alrededor del Sol cuando se  aproximó demasiado a Júpiter. Inesperadamente, rompió en más de 22 pedazos de 2km de diámetro. Éstos impactaron con el planeta entre el 16 i 22 de julio de 1994. A continuación adjuntamos una simulación con el programa “Universe Sandbox”.

Pero ahora nos preguntamos, ¿cómo se produjo la rotura aparente de tal cometa? Para explicarlo solo debemos recurrir a un par de conceptos termodinámicos, un diagrama de fases y un par de fórmulas como mucho.

En el diagrama anterior tenemos la división de los tres estados elementales del H2O según las coordenadas de presión y temperatura. El área comprendida por el estado sólido (hielo) se divide en diferentes tipos según unas coordenadas determinadas.  Ésto es lo que llamamos formas alotrópicas o alótropos. Podemos variar presión generalmente o temperatura y cambiamos de forma siempre manteniéndonos en estado sólido. La única diferencia principal  es la ordenación de los cristales y su forma. Teniendo en cuenta que el hielo común es el hielo tipo I, vemos que diferentes estados de cristalización podemos encontrar.

Lo que sucedió en el cometa Shoemaker-Levy 9 para romperse fue lo siguiente. Sabemos que estaba formado por un núcleo rocoso de hielo (tipo I), al acercarse al límite de Roche experimentó las fuerzas de marea. A resumidas cuentas, indicamos que la presión producida a efectos gravitatorios sobre el cuerpo del Shoemaker provocó un cambio de Hielo I a Hielo VI (aumentó hasta un GPa) de forma que la ordenación de los cristales disgregó el núcleo en hasta 22 fragmentos diferentes que finalmente impactaron en la superficie de Júpiter.

Como puede apreciarse en la simulación, provocaron brechas visibles desde telescopio mucho más significativas  a la vista que la Gran Mancha Roja. Durante el impacto, las capas más bajas de la atmosfera del planeta fueron proyectadas hacia la superficie de manera que permitió un estudio más exhaustivo desde grandes telescopios como el Hubble. Analizando los elementos según el espectro de absorción se determinó que la composición de las capas más profundas contenía desde H2S hasta S2, pasando por CS2 y NH3. Fue sorpresa la ausencia de cualquier compuesto oxigenado. Las nuevas nubes que se formaron también fueron analizadas pero al contener trazas del cometa se consideran espectros contaminados de manera que no se puede detallar con exactitud que serie de elementos pertenecen a Júpiter o al cometa.

Como siempre, podemos hacernos muchas preguntas al respecto. ¿Puede suceder tal fenómeno en otro cuerpo? ¿Era el caso Shoemaker predictible o fue una excepción? ¿Con qué frecuencia ocurren estos cambios alotrópicos? ¿Actúa Júpiter como un imán gravitacional sobre otros cuerpos menores?

Además, explicado grosso modo, no solo el agua en estado sólido tiene formas alotrópicas, sino muchos más elementos y metales. Pero eso es otra historia y deberá ser contada en otro momento …

Entrevista a Raúl de la Puente (@doctorGENoma)


Raúl de la Puente también conocido en el mundo 2.0 como doctorGENoma.

Imagen

 Ya acababa el mes de Junio y no podíamos hacerlo sin empezar el verano con una gran entrevista. Tenemos con nosotros a un genetista recién salido del Doctorado, con mucha energía y entusiasmo que nos resume su dedicación. Espero que os guste tanto como a mi, leer estas líneas.


  1)      Eres Dr. en el campo de la genética ¿alrededor de que objeto de estudio giraron tus   años de doctorando?

  Para el desarrollo de mi tesis doctoral, los estudios se basaron en el  desarrollo de técnicas para la búsqueda de variaciones genéticas mediante la utilización de diversos marcadores moleculares basados en ADN en poblaciones del género Lens, que corresponde a lo que comúnmente se conoce como lenteja. Además y a partir de esos estudios preliminares basados en técnicas de PCR y endonucleasas de restricción (que ya eran bastante tediosos), he podido desarrollar 6 mapas genéticos mediante procedimientos matemáticos utilizando programas informáticos y otro mapa genético mediante una tecnología de análisis de ligamiento denominada colormapping o mapeo por color. Por si no fuera poco, para redondear el estudio, he analizado exhaustivamente 18 secuencias nucleotídicas (obtenidas por clonación) con sus correspondientes estudios en las bases de datos tanto de ADN como de proteínas. Incluso pude identificar, caracterizar y desarrollar un marcador molecular tipo microsatélite por el análisis de dos secuencias pertenecientes a un gen que no se había estudiado previamente en este género vegetal. Todo esto y por mi traslado a un centro de investigación fuera del resto de mi grupo de investigación por las facilidades técnicas que me ofrecía, me he convertido en un técnico de laboratorio para poder desarrollar eficientemente todos los estudios.

Pero como buen grupo de investigación, mi formación como Doctor no sólo se ha restringido a la tesis. He colaborado en diversos estudios a nivel vegetal, siempre desde el campo de la biología molecular, y en otros estudios como análisis de diversidad bacteriana en comunidades procedentes de fermentaciones anaerobia y estudios mediante  el uso de marcadores moleculares en animales (donde incluyo a los seres humanos ;D). Vamos, que no me he aburrido para nada. El campo de la Genética es apasionante y aplicable a todo tipo de organismos.

2)      En cuanto a laboratorio, ¿a qué te dedicas actualmente?

El laboratorio ha dejado paso a suites de ofimática y demás aplicaciones informáticas para desarrollar en publicaciones mis estudios como doctorando. Sigo apoyando a mi ya antiguo grupo de investigación del área de Genética de la Universidad de León en todo lo que me necesiten, ya que mis estudios creo pueden ser de gran ayuda en proyectos futuros. Actualmente me encuentro en la situación de paro que tantos investigadores odiamos. Pero tan sólo hace un mes que pude defender la tesis y debo elegir las ofertas con tiento. No quiero tomar una mala decisión.

3)      Todo científico tiene un sueño, por imposible que sea (o no), ¿puedes hablarnos de tu quimera científica?

Quimera científica. Eso me recuerda más a mis inquietudes de pequeñajo cuando veía películas o leía avances científicos sin estar inmerso en ellos. Como genetista, mi sueño sería poder llegar a dominar la ingeniería genética de la misma forma que se pueden hacer dibujos con papel y lápiz. Siempre en pro del avance y manteniendo un equilibrio biológico.

4)      Hace once años se publicó el primer borrador del Proyecto Genoma Humano, pero aún nos queda mucho por conocer acerca de nuestros propios genes ¿Qué se encarga de buscar y que pretende la comunidad científica de vanguardia que trabaja en genética?

En estos últimos años la secuenciación del Genoma Humano ha permitido desarrollar un mapa que hay que ir leyendo e interpretando poco a poco. Aunque esté muy en boca de los medios dar las noticias de que se ha logrado secuenciar el genoma de tal organismo o de este otro, es sólo el inicio de lo que pretendemos todos los genetistas que es desgranar ese código genético obtenido. En el campo de los seres humanos, es obvia la preocupación por las enfermedades ya que su control es clave para nuestra supervivencia. Sí. Vamos a verlo así. Aunque existan otros factores empresariales. Los equipos científicos de vanguardia que trabajan en el campo de la genética deben ser multidisciplinares ya que el código genético es un libro muy especial: es la base de un conocimiento del que pueden sacar partido genetistas, farmacólogos, bioquímicos, microbiólogos, la Industria…etc.

De todas formas, para mí la comunidad de vanguardia no es sólo aquella que sale en los medios de comunicación. Existen muchos laboratorios que no se llevan el renombre que sí se llevan otros y que realizan estudios espectaculares.

Además de estudios de genética humana, existen otros muchos que también nos afectan y que promueven una industria biotecnológica. Cada vez existen más parques biotecnológicos y que, aunque en la actualidad están más preocupados en la producción actual, están interesados en el conocimiento de la Genética para seguir en la vanguardia.

En resumen se puede decir que, a parte del conocimiento que se obtiene de estudios genéticos, la comunidad científica de vanguardia busca tanto un interés de supervivencia como empresarial.

5)      Craig Venter (uno de los participantes del PGH) desarrolló una célula artificial en Mayo del 2010. Obviando la repercusión mediática del trabajo, ¿en qué ha influido para un trabajo posterior en la investigación?

El señor Venter y su grupo de investigación son unos privilegiados. Es un grupo que genera una información abrumadora gracias a su trabajo y medios de los que disponen. Recuerdo que cuando salió la noticia hace dos años, en seguida se quiso relacionar la síntesis del ADN de la bacteria con su aplicación en la lucha ante el cambio climático y en la generación de energía sostenible.

La verdad es que la influencia que ha desarrollado en la mente de los científicos es que la ingeniería genética puede tener límites insospechados, y casi utópicos, a los que llegar. Últimamente se han desarrollado estudios sobre la creación de una versión del material hereditario denominado XNA generando hasta 6 diferentes ADN artificiales. ¿Qué te parece?. Yo sigo asombrado.

La influencia de estos estudios irá encaminada a un desarrollo industrial. La aplicación de los avances científicos es lo que realmente importa.

6)      La genética invierte gran parte de su presupuesto y esfuerzo en desarrollar técnicas que se puedan aplicar a personas in vivo para pruebas de paternidad, forenses o las famosas secuenciaciones mileuristas de Watson. En tu blog has abordado este tema con sutileza, ¿Qué conclusiones desgranas de su posible aplicación futura? ¿Está preparada la sociedad para aceptar su función?

Siempre que me comentan este tipo de técnicas me viene a la cabeza el mundo de la película Gattaca. Nunca estaremos lo suficientemente preparados para aceptar completamente estos tests. En el blog tengo una encuesta abierta aún sobre los Test Genéticos Directos al Consumidor y, aunque los resultados dicen que si que se someterían a dichas pruebas, los lectores generan un sesgo si se compara con la totalidad de la población. Existe un miedo por la marginación que pueda desencadenar tanto conocimiento a nivel genético y las posibles consecuencias ya no sólo a nivel médico sino también moral. Si dichos tests y la confidencialidad de los resultados fuesen controlados correctamente, no vería problemas más allá de la aceptación individual de cada paciente. Pero creo que pido mucho, ¿verdad?.

Desgraciadamente puede llegar esa sociedad de Gattaca por lo asequible que son las secuenciaciones actualmente y lo fácil de su utilización por ejemplo en procesos de selección. Da escalofríos. Espero que exista una fuerte regulación al respecto.

7)      Escribes en tu blog habitual: http://blogdelaboratorio.com. ¿De dónde nace tu instinto divulgador y que esperas desarrollar a partir de ahora en tu blog?

Creo que mi instinto nació en la cuna. Siempre me ha gustado enseñar a la gente los conocimientos que tengo. Y no sólo en el campo científico. Sin embargo, la mala información que ronda el mundo científico hizo que creara el “blog de laboratorio”.  No sólo por la actitud principalmente sensacionalista de los medios de comunicación, que la respeto. Ellos se ganan el pan generando noticias. Si no también por acercar a la gente fuera del entorno científico la visión de un investigador. No sólo tengo artículos de ciencia, también existen secciones de  tecnología, deporte y ocio en general. Además, las redes sociales 2.0 me han permitido tomar contacto con gente admirable. Una consecuencia de ello es mi colaboración en la revista de divulgación científica gratuita “Journal of Feelsynapsis” (JoF para los amigos) y otros proyectos que están por llegar. Poco a poco he podido generar una comunidad inquieta por la ciencia y  a la que espero seguir ayudando en la medida de lo posible. Me abruman en ocasiones los comentarios y correos electrónicos que me llegan preguntando temas genéticos o de salud. Y me ayudan a completar y afianzar mis conocimientos científicos. Eso sí, si alguna vez observan mis lectores y seguidores que estoy algo ausente, sepan que la vida 1.0 está por encima. Porque, a este paso, voy a tener que generar un clon de mi persona.

Me lo he pasado genial siendo entrevistado. Quiero dar las gracias a todos los insensatos que  leen el “blog de laboratorio” y que me siguen por las redes sociales. No se pueden hacer la idea de lo importante que es recibir un apoyo como el que están mostrando. Un apoyo que mi familia y amigos también me regalan a diario. Y qué decir de mis compañeros de divulgación científica. Con lo mal que está la situación investigadora, generar contenidos de la calidad plasmada en cada uno de sus blogs y luego en revistas como JoF no tiene precio. Hay que recordar que el avance lo genera la Ciencia. Y no es bueno quedarse estancado, ¿verdad?.

Raúl nos quiere demostrar que con entusiasmo y trabajo se puede sacar adelante todo trabajo por ambicioso que sea. Desde CCorrecto tiene todo nuestro apoyo y esperamos volver a hablar pronto de él en este blog y sobre su ilustrísima investigación. Toda la suerte y un saludo desde este blog. Es un placer entrevistar a personajes tan interesantes de la ciencia cuya colaboración hace posible que todos podamos aprender un poquito más.

Una verdad algo incómoda y que se nos pasó por alto.


Hace unos años, cuando el euro y el rescate no acaparaban las portadas ni la tv, éramos bombardeados constantemente con mensajes sobre ecologismo. Casi en balde, cada día nos recomendaban, vía cualquier medio, formas de no malgastar y de ahorrar para no contaminar ni degradar nuestro medio ambiente. De estas tiernas recomendaciones pasamos a la cruda realidad, datos alarmantes, pronósticos aterradores, deshielo polar , etc. Luego llegaría la burbuja inmobiliaria, la bajada de la productividad, el paro y creo que hasta hoy día estos tres últimos factores se repiten.

No todas las advertencias fueron iguales, por supuesto. Si cabe a destacar tan solo una, cualquiera de vosotros podría responderme que «Una verdad incómoda» de Al-Gore es la piedra angular del movimiento ecologista. Tal creación le valió al ex presidente americano la friolera en su palmarés de un Premio Nobel de la Paz y Premio Príncipe de Asturias además de un Óscar.

Eran épocas de bonanza económica, desarrollo, crecimiento y queríamos hacerlo bien. La información sobre ecologismo corría por medios audiovisuales como la tinta. De forma gradual, las ideas de respeto al medioambiente se intercalaron con prácticas habituales en nuestra rutina comercial. Era común ver productos con aerosoles no dañinos al medioambiente, baterías de pilas reutilizables y filtros de CO2. Son restos de un legado que han petrificado un mercado publicitario a modo de aditivos positivistas. Y no han venido más allá que un producto de pasado oxidado. ¿Dónde están las referencias ecologistas de antaño que necesitan advertirnos hoy más que nunca los pronósticos más desfavorables?

Será que nos invade la prima de riesgo, el peligro del euro y los bono basura. Algunas organizaciones pro-ecologismo están tan fuera de juego en la sociedad grupal como hace una década. Han deshecho el camino que les llevaba a una presencia importante entre los grupos más influyentes y demás hubs. Es una verdadera lástima que trascienda lo elemental y básico, parece que hasta sus representantes ideológicos han dejado de lado un proyecto ambicioso y necesario.

Gaia se resiente y cada vez más. A pesar de que no es de lo que más se habla tenemos motivos para preocuparnos. Entre ellos, destacamos los más representativos a continuación,

El primero y más importante es el deshielo. Se prevé que el polo Norte deshiele dejando la parte terrestre de Groenlandia al desnudo total. El nivel del agua aumentaria entre 3 y 4m. A pesar de los desastres geolocales que pueda provocar. La cantidad de gas natural que deja al descubierto en sus aguas es un recurso lo suficientemente atractivo como para que el mapa se lo distribuyan entre las potencias rusas  y americanas que ya elaboran rutas marítimas sobre un trazado ficticio que muy pronto podría ser real. Cabe decir que la pérdido biológica, evolutiva, ecológica y de ecosistema es mucho mayor que cualquier reflujo económico (de índole positivo o negativo) que pueda repercutir sobre nuestra labor.

Seguido por la desertización y el desorden biogeográfico. El augmento global de la temperatura, o cambio climático, es una evidencia. El terreno árido gana la partida en los cinco continentes. El aumento de su área es preocupante pero no alcanza un grado tan elevado como para ser evaluado desde un punto de vista altamente catastrofista.

Los géneros climáticos descritos anteriormente tal vez tengan remedio, pero desde luego no estamos avanzando en la dirección correcta para poder frenarlos. A partir de aquí, si la situación se vierte irreversible será evidente que estamos llegando a una nueva forma de plantear nuestra sociedad, un modelo productivo que afectará sobretodo a los sectores primarios.

** Esta entrada participa en el biocarnval de Junio 12′ por BioTay.

http://biotay.blogspot.com.es/2012/06/xiv-carnaval-de-biologia.html