La transformación digital impulsada por los macrodatos está cambiando todo tipo de sectores. Y el sector de las ciencias de la vida no es una excepción.
En el pasado, se necesitaban varios años y miles de millones de dólares para secuenciar un genoma humano. Actualmente, la misma tarea puede realizarse en menos de 24 horas y por menos de 1000 $.
Las tecnologías de laboratorio esenciales para trabajar en estos campos también han evolucionado a gran velocidad. Por ejemplo, las herramientas más nuevas para la investigación en el ámbito de las ciencias de la vida han permitido que los científicos creen complejas visualizaciones tridimensionales de las moléculas de proteínas. Los científicos utilizan estas visualizaciones como ayuda para descubrir fármacos y para lograr avances pioneros en la medicina personalizada.
El motor principal de estos avances revolucionarios son los macrodatos. El volumen y la complejidad de los datos sigue creciendo a un ritmo vertiginoso, sobre todo en el campo de la genómica, la bioinformática, la biología predictiva y la química.
Los instrumentos de laboratorio también producen cantidades importantes de datos —a veces, hasta un terabyte de datos por hora—.
Por supuesto, cuanto más crece el volumen de datos, mayores son las necesidades de almacenamiento. La infraestructura informática que sustenta las bases de datos utilizadas en las ciencias de la vida tiene que evolucionar al mismo tiempo que crece la escala y la dimensionalidad de los datos.
Los científicos manejan unas cantidades ingentes de información, por ello, también necesitan unas herramientas de software modernas con las que visualizar rápidamente los macrodatos y poder interactuar con ellos. De lo contrario, las organizaciones dedicadas a las ciencias de la vida tendrán un montón de datos, pero muy poca información.
Beneficios más generales de los macrodatos para el sector de las ciencias de la vida
Si las organizaciones dedicadas a las ciencias de la vida siguen mejorando sus infraestructuras informáticas, para integrar mejor los macrodatos en sus procesos centrales, su trabajo seguirá dando unos frutos increíbles, por ejemplo:
- La mejora de la evaluación del riesgo: con la ayuda de los macrodatos los científicos pueden reunir información que revele posibles riesgos para la salud, evaluar el grado de peligro asociado a estos riesgos y sacar conclusiones con las que resolver el problema.
- La medicina personalizada: a medida que los científicos y los médicos puedan procesar de manera más efectiva y entender mejor la información electrónica relativa a la salud de las personas, podrán decidir con más exactitud qué tipo de tratamiento médico necesita cada paciente.
- Las valoraciones más efectivas de los ensayos clínicos: en la actualidad, con casi todos los medicamentos se utiliza el modelo del “tratamiento estándar”, que consiste en proporcionar un tratamiento basado en las respuestas de grupo generales y los ensayos clínicos. Sin embargo, con un uso más efectivo de los macrodatos, se puede evaluar de manera más precisa cómo afectan los tratamientos médicos a cada tipo específico de pacientes, lo que incluye también la detección de los efectos secundarios que de otro modo pasarían desapercibidos. Esto contribuye, entre otras cosas, a progresar de manera continuada en el descubrimiento de medicamentos.
Los cuellos de botella de la infraestructura de TI tradicional impiden los posibles avances
Los beneficios que los macrodatos pueden aportar a las ciencias de la vida parecen muy prometedores, pero las organizaciones necesitarán una infraestructura de TI y unas capacidades de almacenamiento de datos que les permitan afrontar el aumento cada vez mayor de las demandas de estos.
Según un estudio de 2019 de Deloitte/MIT, solo el 20% de las organizaciones dedicadas a la biofarmacia y las ciencias de la vida está madurando digitalmente con la suficiente rapidez. Lamentablemente, los sistemas de almacenamiento tradicionales generan cuellos de botella en el rendimiento e impiden que las aplicaciones reciban los datos que los científicos necesitan para lograr más avances revolucionarios.
Por suerte, están apareciendo nuevos instrumentos y tecnologías en el campo de las ciencias de la vida. Y estos pueden crear nuevas oportunidades de investigación con las que se obtendrá más información. Sin embargo, las organizaciones tienen que enfrentarse primero a varios retos tecnológicos para poder aprovechar plenamente estas innovaciones.
Reto n.º 1: los silos de datos
Muchas organizaciones se esfuerzan por acabar con los silos de datos. Los silos hacen que los investigadores pierdan mucho tiempo y tengan dificultades para acceder a los datos de los que depende su trabajo. Los silos se desarrollan, en parte, porque los datos se almacenan en diversas herramientas y soluciones de software, en lugar de hacerlo en una base de datos de ciencias de la vida centralizada.
Para eliminar las barreras creadas por la segregación de los datos, las organizaciones tienen que encontrar la manera de cambiar sin disrupciones sus sistemas de datos por una herramienta de software fácil de usar.
Reto n.º 2: la escalabilidad
Tal como hemos dicho anteriormente, las tecnologías científicas más nuevas producen una cantidad considerable de datos. Por lo tanto, las organizaciones dedicadas a las ciencias de la vida tienen que aumentar su capacidad de almacenamiento para dar cabida a este flujo cada vez mayor de información.
Si no se logra la escala adecuada a tiempo, los flujos de trabajo que se basan en los datos captados por esos instrumentos sufren perturbaciones e interrupciones.
Reto n.º 3: el análisis de los macrodatos
El valor de los macrodatos equivale al de la información que se puede extraer de ellos. Tanto si ejecuta un pipeline de análisis de macrodatos para impulsar la medicina personalizada como si utiliza la IA como ayuda para descubrir nuevos fármacos, la computación de alto rendimiento (HPC) necesita un almacenamiento de datos de alto rendimiento. Por ello, en la actualidad, el cambio de las unidades de disco duro rotatorio a las cabinas de almacenamiento totalmente flash, con una baja latencia y unas E/S por segundo altas, ha pasado a ser una necesidad.