El Correo Gallego

Noticia 1 de 1 Galicia | galicia@elcorreogallego.es  |   RSS - Galicia RSS

FORO GRUPO CORREO GALLEGO

La importancia de conocer el valor de los datos almacenados y procesados

Moderó la primera mesa redonda, integrada por representantes de empresas tecnológicas, el profesor del Máster de Big Data de la USC, Eduardo Sánchez Vila

Por la izquierda, Iago Lozano, Granada Giménez, Eduardo Sánchez Vila, Guillermo López Taboada, Roberto López Gago y Sebastián Pantoja - FOTO: Antonio Hernández
Por la izquierda, Iago Lozano, Granada Giménez, Eduardo Sánchez Vila, Guillermo López Taboada, Roberto López Gago y Sebastián Pantoja - FOTO: Antonio Hernández

VICTORIA ROJAS. SANTIAGO   | 05.06.2018 
A- A+

"El problema de recopilar información relevante de forma eficaz ya se remonta a la época de Ptolomeo II, quien funda la biblioteca de Alejandría allá por el ­siglo III a. C.". Así de claro nos sitúa el blog /www.gmv.com ante la incógnita del Big Data, difícil de descifrar para el lector que no se dedica profesionalmente a la ­tecnología.

"Ptolomeo II tenía como objetivo recopilar todo el conocimiento de la época para construir la mayor y mejor biblioteca del mundo, pero llegó un momento que se vio desbordado por la enorme cantidad de rollos de papiro que tenía la biblioteca. Entonces contactó con Zenodoto que, después de visitar la biblioteca, comprendió que ordenar todo aquello era clave, pues la biblioteca no valía nada por el mero hecho de acumular centenares de rollos si nadie era capaz de encontrar uno cuando necesitara ­consultarlo".

Cuando hablamos de Big Data, nos referimos a "conjuntos de datos o combinaciones de conjuntos de datos cuyo volumen, variabilidad y velocidad dificultan su captura, gestión, procesamiento o análisis mediante tecnologías y herramientas convencionales, tales como bases de datos relacionales y estadísticas convencionales o paquetes de visualización, dentro del tiempo necesario para que sean útiles", explica www.powerdata.es

Por otro lado, ayer Repsol y ­Google Cloud pusieron en marcha un proyecto para optimizar la gestión de una refinería en el complejo industrial de Tarragona utilizando Big Data e inteligencia artificial, que puede suponer para la instalación petrolera unos 20 millones de dólares anuales (17 millones de euros) en mejora de márgenes. Para ello, Google Cloud pondrá a disposición de Repsol su potencia de computación, la experiencia de su equipo de proyecto y su herramienta de machine learning Cloud ML Engine, que utilizará el algoritmo de inteligencia artificial TensorFlow. Se trata de un reto inédito en todo el mundo en una refinería.

Tras las intervenciones de Mar Pereira y Andrés García-Rodeja, en el foro organizado por el Grupo Correo Gallego, tuvo lugar el coloquio moderado por Eduardo Sánchez Vila, ­profesor del Máster Big Data de la Universidade de Santiago, que se centró en ­empresas tecnológicas con Big Data.

Los ponentes que participaron, todos ellos de primer nivel, fueron Guillermo López Taboada, director general y cofundador de Torusware; Roberto López Gago, business director en PUE; Iago Lozano Núñez, jefe de proyectos de Bahía Software; Granada Giménez Vacas, manager directora Data Technologies de Plexus, y Sebastián ­Pantoja, director de I+D+i de ­Televés.

 

LA PREGUNTA

¿Qué pasará dentro de cinco años?

•••Para Granada Giménez "estaremos hablando de análisis prescriptivo, inteligencia artificial (IA), ética, realidad virtual. Habrá una fusión de Big Data con IA y las empresas lo tendrán totalmente asimilado". Roberto López afirmó que "nos daremos cuenta de que el paradigma es que nuestra realidad es cambiante y habrá nuevas tecnologías. Para Sebastián Pantoja es "difícil hacer predicción incluso a un año. Seguir mejorando los temas éticos y legales". Y para Guillermo López "los robots harán tareas por nosotros (incluso contestar wasaps). Demanda una interacción hombre-máquina más amigable".