Comparte esta noticia

El objetivo del Big Data en Sanidad es hacer confluir los aspectos clínicos con los ómicos

Federico Martiñón durante la presentación de Light on Vax

DIARIOFARMA  |    30.05.2019 - 22:54

La segunda edición de la jornada Light on Vax 2, organizada por Sanofi Pasteur y centrada en el debate sobre el futuro de la vacunación, ha dado a conocer el papel que cada vez más tienen los bioinformáticos en el ámbito sanitario por la necesidad de convertir las enormes cantidades de datos en información útil, en la que confluya la información clínica con la ómica.

Esta jornada, conducida por el pediatra e investigador clínico del Hospital Clínico Universitario de Santiago de Compostela, Federico Martiñón, contó con la colaboración de la Spanish Pediatric Clinical Trials Network (RECLIP), la Red de investigación Translacional en Infectología Pediátrica, el Instituto para el Desarrollo e Integración de la Sanidad (IDIS) y la Asociación Española de Vacunología (AEV), cuyo presidente, Amos García, apoyó a Martiñón en la moderación del acto.

La primera parte del encuentro se centró en sacar a la luz todas las novedades de la vacunación actual y tuvo como ponentes al vicepresidente y jefe de investigación global en Sanofi Pasteur, Nicholas Jackson, a la profesora de Pediatría de la facultad de Medicina de la universidad de Yale (Estados Unidos) y directora pediátrica de salud mundial, Marietta Vazquez, y al director de la unidad de Bioinformática del Centro de Investigación Biomédica Navarrabiomed, David Gómez Cabrero, quien dio a conocer las aportaciones del Big Data en la sanidad del presente y del futuro.

Tal y como introdujo Federico Martiñón, “cada vez más, los investigadores trabajamos con ingentes cantidades de datos de pacientes. Ahora tengo tres bioinfomáticos en mi equipo, que están blindados porque son muy difíciles de encontrar y empiezan a ser muy demandados incluso en hospitales, por la gran necesidad de procesar la información que tenemos y convertirla en útil”. David Gómez Cabrero señaló que “estamos en un entorno en el que en la mayoría de la clínica se están generando datos día a día y, si antes un experimento tardaba años y lo queríamos analizar en un periodo corto de tiempo, ahora la situación es a la inversa, pues generar datos es relativamente rápido, pero analizarlos puede llevar incluso años”.

“Antes de definir el término Big Data, quiero recordar que llevamos muchos años trabajando con estadísticos a través de tests, posteriormente surgió la network medicine a través de análisis en red y desde hace algunos años comienza a escucharse el término Big Data. Cada uno de estos términos tiene sus propias metodologías específicas”, aclaró Gómez Cabrero, quien explicó que “esta evolución se corresponde a la cantidad de datos que se van generando, así como a su tipología”.

Datos de 13 millones de individuos

En esta línea, el experto mostró proyectos en los que, junto con su equipo, ha trabajado tanto en el Instituto Karolinska, como actualmente en Navarrabiomed. Puso como ejemplo un trabajo centrado en Enfermedad Pulmonar Obstructiva Crónica (EPOC), “cuyo objetivo fue combinar datos clínicos y ómicos, pues la ómica debe terminar llevando a la clínica de una forma útil. Empezamos a trabajar con datos de 13 millones de individuos durante tres años extraídos de Medicare en la parte clínica. Este estudio se replicó posteriormente en Barcelona con 1,4 millones de habitantes y vimos la relación entre EPOC y enfermedades cardiovasculares, digestivas, etc., así como los incrementos de riesgo según la edad del sujeto y las variaciones en el tiempo. Es decir, con estos estudios se quiere ir más allá, de tal forma que el contexto temporal no se pierda, como ocurría en los antiguos estudios”.

Gómez Cabrero explicó que “poco a poco, gracias al contexto temporal, podemos relacionar unas enfermedades con otras en un individuo, ya que empezamos a tener unos estudios donde comenzamos a ver trayectorias de enfermedades. Se trata de datos que no responden a causalidad, sino que son observaciones en el tiempo”. Con respecto a la parte ómica o estudio del conjunto de genes, organismos, proteínas, o las relaciones entre ellos, el bioinformático comentó que “debería avanzar hacia la identificación de módulos o mecanismos candidatos que expliquen las enfermedades. Para ello hay que entrar en el análisis de redes, lo que nos permite identificar eventos que pueden estar coordinados”.

“El objetivo final de estas investigaciones es incluirlo todo y, en este sentido, si tienes concurrencia entre dos enfermedades es posible que mecanísticamente compartas parte de la patogénesis de las enfermedades. Si podemos combinar distancias de enfermedades basadas en concurrencia, pero también en mecanismos, tenemos algo mucho más robusto que nos permite identificar candidatos de enfermedades que concurren y mecanísticamente están cercanos”, explicó.

Navarrabiomed

Con respecto a los retos actuales en investigación sanitaria, el director de Bioinfomática de Navarrabiomed señaló como los más importantes, “la integración de la ómica con la clínica identificando en un individuo sano que variabilidad existe de esa ómica en el tiempo”. En esta línea, puso como ejemplo un estudio piloto en el que están obteniendo datos biométricos, del genoma, de la localización, etc. de un atleta sueco durante un año y medio, con el fin de categorizar cómo es un individuo sano.

En cuanto al Big Data, el bioinfomático explicó que “es algo que cambia con el tiempo, pues tiene un concepto específico en cada contexto, no solo con respecto al tipo de datos, sino también a la metodología a emplear en cada situación específica. Es decir, cada uno de los datos (medidas, patrones, marcadores, etc.) requiere una metodología de análisis diferente y existen distintos modelos de análisis que realizamos”. En esta línea, “desde hace diez años, el Deep Learning o conjunto de algoritmos de aprendizaje automático que intenta modelar abstracciones de grandes porcentajes de datos usando arquitecturas compuestas de transformaciones no lineales múltiples, ha marcado la diferencia”.

Para explicar el funcionamiento del Deep Learning, Gómez Cabrero lo comparó con “una red neuronal que intenta aprender facetas y cada capa empieza a identificar un tipo específico de patrones, lo que es muy poderoso porque permite un nivel de abstracción muy grande”. Para ilustrarlo puso el ejemplo de Deep Mind, adquirida por Google y, “más  concretamente, en lo se refiere a llevar la ómica a la clínica, el proyecto Nagen del Servicio navarro de Salud para la detección de melanomas, en el que confluyen bioinformáticos, médicos, Administración, etc. y ante el que tenemos el reto de convencer que este tipo de estudios son el futuro”.

“Aunque yo no trabajo en vacunas – aclaró el experto - , ya existen estudios desde 2008 sobre grandes datos y vacunación, con un objetivo final de llegar a trabajar en calendarios vacunales personalizados a través de la vacunación de precisión”. Otro aspecto señalado durante el debate fue el problema de acceso a la información y las leyes de protección de datos. “Se necesitan unas buenas leyes que estén dentro del contexto ético”, aclaró.

Como conclusiones en materia de Big Data en Salud, Gómez Cabrero resalto “que este sistema necesita estar dentro de un contexto para su definición, la importancia de comenzar a evaluar la salud desde la perspectiva ómica, aplicaciones iniciales y la necesidad de usar los datos en un contexto ético”.

lineagris-494

Comentarios

Aún no hay comentarios, sé el primero en comentar!

avatar
wpDiscuz