El ‘big data’ revoluciona el estudio de patologías hemorrágicas de difícil diagnóstico

El uso del ‘big data’ en Trombosis y Hemostasia se analizó en un simposio en la última jornada del XXXIV Congreso Nacional de la Sociedad Española de Trombosis y Hemostasia (SETH) y LX Congreso Nacional de la Sociedad Española de Hematología y Hemoterapia (SEHH)

142
Jordi Fontcuberta
Jordi Fontcuberta

Las nuevas técnicas de secuenciación masiva de genes (NSG) arrojan una cantidad ingente de datos, a los que se añaden la información sobre los pacientes recopilada por los sistemas de salud y que tiene un gran valor clínico y epidemiológico, Pero la interpretación de esos datos es sumamente compleja, tanto que hasta hace poco tiempo se perdía. Ahora existe tecnología y hay bioinformáticos capaces de realizar esa tarea, lo que abre un futuro esperanzador en ámbitos biomédicos aún poco conocidos.

En el campo de la hematología, el ‘big data’ puede aportar infinidad de ventajas, ya que “con las nuevas tecnologías de NGS, que tímidamente se están aplicando en nuestra área de conocimiento, la cantidad de datos generados va a ser cada vez mayor y su explotación puede aportar importantes conocimientos”, afirmó Jordi Fontcuberta, del Hospital de la Santa Creu i Sant Pau, en Barcelona.

Sin embargo, la realidad es que el ‘big data’ está lejos de formar parte de la práctica clínica de la hematología general, y de la trombosis y hemostasia en particular, aunque “algunos grupos estamos aplicando NGS en el estudio de enfermedades hemorrágicas cuyo diagnóstico es muy complicado o imposible de realizar debido a que son enfermedades raras”. En éstas, “el ‘big data’ es una herramienta excepcional para conseguir resultados y comparar datos que nos permitan extraer conclusiones más firmes”.

Las expectativas son más pobres en trombosis porque “se trata de una enfermedad poligénica, compleja y con una fuerte relación gen-gen y gen-ambiente”, advirtió Fontcuberta.

En opinión de Francisco Vidal, del Hospital Vall d’Hebron, de Barcelona, llevar el ‘big data’ a la clínica “supone un esfuerzo de modernización y coordinación sin precedentes a la hora de recoger, almacenar y tratar la información clínica, analítica y genética de los pacientes”. Y con el propósito de acercar esta herramienta a los profesionales, ha tenido lugar el simposio ‘Big data’ en Hemostasia y Trombosis durante la última jornada del Congreso Nacional de Hematología.

Durante su intervención en el simposio, Vidal reconoció que “en los últimos 5 años se ha producido una importante implementación de plataformas NGS, no sólo en centros de investigación, sino también en hospitales, como herramienta de diagnóstico molecular”, aunque, a su juicio, el mayor problema es que “se echa de menos una planificación, tanto territorial como temática, en la ejecución de este despliegue”.

El especialista recalcó la dificultad para recopilar la información clínica y diagnóstica, sobre la que “existe una enorme heterogeneidad entre los sistemas de información hospitalaria y otros sistemas de explotación de datos utilizados en los diferentes hospitales españoles”. A pesar de los esfuerzos que se están realizando para desarrollar estrategia capaces de extraer la información de forma eficiente, “es necesario planificar, aunar voluntades y homogeneizar” y para ello “tendremos que contar con un soporte informático muy potente que permita extraer conclusiones personalizadas sobre el diagnóstico, pronóstico y opciones terapéuticas a partir de la integración de todos los datos con los que contamos del paciente”, y corresponde al Sistema Nacional de Salud responder a estas exigencias.

Fontcuberta, que coordinó la sesión junto con Javier Rodríguez, del Hospital Virgen del Rocío, de Sevilla, subrayó la necesidad de extremar la precaución en el manejo de los datos y apuntó que “en la mayoría de casos, el almacenamiento y tratamiento computacional de los datos está en manos de la industria privada. Dada la altísima sensibilidad de esa información, se deberían adoptar iniciativas de ámbito gubernamental para que los datos del ‘big data’ en la sanidad puedan centralizarse, regirse y protegerse legalmente de una forma adecuada”.
Además, “el principal problema del ‘big data’ no es la gran cantidad de datos que se generan sino su correcto manejo y su interpretación”, concluyó Jordi Fontcuberta.