Gerard Martínez: "La bioinformática me surgió como alternativa a la ciencia de bata y pipeta "

Gerard Martínez: "La bioinformática me surgió como alternativa a la ciencia de bata y pipeta "
1 comentario Facebook Twitter Flipboard E-mail

Recién graduado en Ciéncias Biomédicas por la Universidad de Barcelona, Gerard Martínez está estudiando actualmente un Máster en Bioinformática después de descubrir que, pese a que la Ciencia es su pasión, la experimentación en laboratorios no es lo suyo.

Habiendo investigado durante un trimestre en Manchester sobre neurobiología (ritmos circadianos), decidió colgar la bata de laboratorio y explorar una de las ramas menos conocidas de la biología, la bioinformática.

Hola Gerard. Actualmente estás estudiando un máster en Bioinformática, ¿podrías explicarnos un poco de qué va este campo?

La bioinformática nació en la década de los 80 debido a la necesidad de gestionar y extraer información de lo que, de forma general en biología, llamamos las -ómicas, que son el conjunto de genomas (genómica), proteínas (proteoma) o metabolitos (metaboloma).

No ha sido hasta recientemente que se le ha dado enfoques novedosos a la materia, como sería el diseño de fármacos por ordenador o el modelaje matemático de procesos biológicos.

¿Qué son estas diferentes -ómicas?

Constituyen el conocimiento actual sobre la composición y funcionamiento celular del ser humano y otras especies. Se llaman así de forma plural pero, para que nos entendamos, son bases de datos y anotaciones asociadas que describen qué proteínas, secuencias de ADN, etc. nos caracterizan como especie, en nuestro caso.

Entonces, estas bases de datos, solucionan el problema de clasificación de tan ingentes cantidades de información, pero ¿qué otras funciones tienen? ¿cualquier persona puede acceder a ellas? ¿quién se encarga de elaborarlas y gestionarlas?

El boom de las -ómicas empezó con el proyecto de secuenciación del genoma humano. En ese proyecto, convivieron una parte de inversión privada, encabezada por Craig Venter y la empresa que éste fundó, y una parte de capital público (especialmente proporcionado por el gobierno de estados unidos). La filosofía de Craig Venter pasó por intentar privatizar la información que se derivaría de la secuenciación mientras que la lógica general claramente dictamina que ésta sea de dominio público. Afortunadamente, en la actualidad, estas bases de datos son fruto de proyectos colectivos sin ánimo de lucro y por tanto de libre acceso. Solo en algunos (pocos) casos son de pago ciertos programas o herramientas que permiten extraer información de ellas (cabe decir que siempre seremos capaces de encontrar programas parecidos surgidos de proyectos colectivos como en el caso de la Wikipedia).

En cualquier caso, estas bases de datos nos proporcionan una información esencial a los científicos. Por ejemplo, dada una proteína de estudio que acabamos de descubrir, las bases de datos nos permitirán saber si ya ha sido descrita y en el caso de que no, mediante extrapolaciones de otras secuencias podremos intentar predecir su forma tridimensional, funcionamiento, procedencia, incluso linaje envolutivo.

¿Podrías intentar explicar a nuestros lectores la trascendencia, sobretodo de esto último, sobre cómo estas bases de datos, podrían ayudarnos a predecir el funcionamiento de nuevas proteínas recién descubiertas?

La ciencia, en este sentido, es como la historia. Si nos podemos servir de conocimientos pasados y proyectarlos en nuevos problemas biológicos, como seria el caso de una proteína nueva, no solo nos harán ahorrar tiempo y problemas si no que nos ayudará a entender el contexto y aprender de él.

Entonces, volviendo un poco atrás, a la definición de bioinformática. Ésta rama de la biología usa solo bases de datos para predecir modelos, pero ¿nos puedes aclarar, si como muchos lectores se imaginan, dentro de la bioinformática, no existe un espacio para intentar crear inteligencia artificial o, proyectos un poco más ligados a la robótica?

Un programa bioinformático lo que pretende es resolver un problema de carácter biológico; es decir, recibe un input de datos y a partir de ellos elabora una respuesta. Por lo tanto, los datos son la biblia del bioinformático y aprender a interpretar lo que éstos nos quieren decir es su mayor ímpetu. Sin embargo, como bien dices, hay distintos tipos de datos y a medida que nos alejamos de los datos estrictamente biológicos como las ómicas, la informática nos pueden ayudar a embarcar proyectos tan vistosos como el mapaje del cerebro humano o la generación de inteligencia artificial.

Cuéntanos más sobre estas cosas un poco alejadas de lo típico, ¿sabe si existen algunos científicos trabajando en estos proyectos en la actualidad?

Existen al menos dos tendencias con las que se enfoca la IA actualmente. Una es la visión clásica, la del informático que realiza un programa (o robot) capaz de responder a una multitud de estímulos e incluso aprender de ellos (existe el caso de un curioso robot que era capaz de aprender habilidades y enseñarlas a otros robots). Por otra parte, existe una visión mucho más arriesgada y pretenciosa que consiste en intentar modelar matemáticamente los procesos biológicos de tal manera que en un caso idílico uno seria capaz de simular el funcionamiento de un cerebro humano, por ejemplo. En este caso concreto existe un proyecto llamado Blue Brain que está intentando exactamente esto. A mi parecer, distamos mucho de tener el conocimiento exacto y preciso que requerimos para "crear vida artificial" aunque estoy seguro de que tendremos algunos humildes avances en las próximas décadas.

Antes hablabas de la financiación para este tipo de proyectos. ¿En qué países se realizan la mayoría de estos? ¿Cómo se decide qué información es pública y cuál es privada?

En el caso concreto del Blue Brain Project creo que hace menos de un año una fundación española se unió a financiar este proyecto, pero en la mayoría de casos, como es bien conocido, la financiación publica española es muy limitada.

La información de las -ómicas es publica, es decir uno puede consultar la secuencia de una proteína en concreto e incluso uno puede descubrir con qué otras proteínas esta descrito que interactúe; pero la información de utilidad, asi como las predicciones y en algunos casos información relativa a proteínas descubiertas recientemente, son guardadas de forma privada ya que aunque el sistema este planteado para ser de libre acceso, se necesita un mínimo de información privada para poder publicar en los llamados papers (publicación científica) y son los que al final determinan que un grupo reciba más o menos financiación.

Una persona como tu, que ha estado investigando en un laboratorio de Manchester, ¿cómo se da cuenta de que el trabajo experimental no es lo suyo y se decide por la bioinformática?

La experiencia en Manchester me mostró que la ciencia de laboratorio requiere de una infinita paciencia, tanto por la lentitud de los resultados como por la monotonía de las técnicas. Además, me sorprendió que el desconocimiento informático está muy generalizado incluso entre científicos de élite. En este sentido, la bioinformática me surgió como alternativa a la ciencia de bata y pipeta, de la mano de uno de los pecados capitales llamado pereza y que probablemente sea la madre universal de la informática.

Ya para acabar, como viene siendo habitual, pregunta de rigor, ¿qué recomendarías a los que tengan aspiraciones de ser científicos en el futuro?

No dejéis que os enseñen nada que podáis aprender por vosotros mismos.

Comentarios cerrados
Inicio