Combinar HPC y Big Data generaría avances para la medicina

Versión para impresiónEnviar por emailPDF version
Las secuenciaciones genéticas podrían hacerse de manera masiva con ambos ecosistemas tecnológicos

Obtener de manera más rápida la secuenciación genética de diferentes pacientes para diagnósticos médicos más oportunos y eficaces, podría lograrse con la combinación de Big Data y High Performance Computing (HPC), que hoy en día se realiza pero con limitantes, afirmó el doctor José Luis González Sánchez, director de la Fundación Computación y Tecnologías Avanzadas de Extremadura (Computaex) y profesor asociado del Departamento de Sistemas de Cómputo e Ingeniería Telemática de la Universidad de Extremadura, España.
 
González Sánchez impartió la conferencia “Cómputo de alto rendimiento. Trío de facto perfecto o convergencia de mantras tecnológicos”, en el Congreso Internacional de Supercómputo en México (ISUM) 2017, que organiza la Universidad de Guadalajara.
 
Explicó que las empresas dedicadas a la secuenciación genética demoran entre tres y cuatro meses en dar resultados a un paciente. Lo que se busca es obtener éstos de manera inmediata, de ahí la necesidad de lograr dicha combinación, gracias a la cual podrían también hacerse secuenciaciones genéticas de manera masiva en poco tiempo.
 
El especialista dijo que con los procedimientos actuales no hay manera de hacer miles de secuenciaciones genéticas al mismo o en poco tiempo. Para ello las empresas tendrían que contar con igual número de máquinas con la potencia suficiente.
 
Explicó que la HPC es la computación de alto rendimiento que facilita la posibilidad de enfrentar problemas complejos con instrumentos de cómputo avanzados y potentes para encontrar soluciones adecuadas.
 
Big Data, por su parte, se refiere a información de procedencia diversa procesada de la mejor manera posible para obtener un resultado o sacar una conclusión.
 
El problema que hay para ligar HPC y Big Data es que están pensadas para objetivos diferentes. El primer ecosistema tecnológico se centra en problemas y necesidades científicas, ya sea del campo de las matemáticas, ingeniería o medicina. En cambio, el segundo es para información que no es de corte científico.
 
Los diseños de herramientas para procesar Big Data no están pensados para ser ejecutados en supercomputadoras HPC, hay problemas para emparejar los dos ecosistemas; además no es común encontrar expertos programadores en ambas. Eso es un reto a vencer para que esta combinación pueda ser una realidad.
 
Ligar ambos ecosistemas “nos va a llevar más tiempo del que podría ser razonable”, y agregó que los dos “terminarán confluyendo, sin lugar a dudas”.
 
Aclaró que ya hay combinación entre Big Data y HPC, pero de manera deficiente y lenta y hay complicaciones al procesar la información. Es necesario “que haya herramientas que resuelvan la internación de lo uno con lo otro, y no es sencillo”.
 
Uno de los proyectos en los que está involucrado el investigador español es tratar de ligar los datos generados en diferentes hospitales sobre las causas de fallecimiento de las personas, de manera que los médicos puedan consultar la historia clínica familiar de los futuros pacientes y ligarla a la secuencia genética de éstos para prevenir el desarrollo de enfermedades, como podrían ser algunos tipos de cáncer.
 
“En este último caso, Big Data será la tecnología que utilizaremos para recopilar toda la información, pero será inmanejable con las herramientas actuales. En ese punto es en el que HPC o los supercomputadores desempeñan un papel muy importante, ya que se requiere capacidad para procesar todo ese volumen de información con ayuda de un supercomputador”, concluyó.
 
 
 
A T E N T A M E N T E
"Piensa y Trabaja"
Guadalajara, Jal., 1 de marzo 2017

 
 
Texto: Martha Eva Loera
Fotografía: Adriana González

 

Etiquetas: