From data to Insights with Google Cloud Platform

 

Ponente: Miguel Romero Remírez (Executive manager, SDG Group,  www.sdggroup.com)

Lugar: Seminario Mirian Andrés (Edificio CCT)

Hora: jueves 14 de junio, 11:30

Resumen: Las corporaciones están decidiendo extender sus plataformas analíticas a la Cloud mediante una estrategia de plataforma híbrida; en este caso se va a presentar un flujo completo de integración de una corporación con la plataforma de Cloud de Google explicando detalladamente el proceso de entrada de datos a la nube, transformación de datos mediante la herramienta de Data Preparation, Google Data Prep, consolidación en un sistema analítico OLAP como Google Big Query para permitir el análisis mediante una interfaz SQL y finalmente la creación de un sistema predictivo desarrollado con la tecnología de redes neuronales TensorFlow.

El Big Data siempre presente en el mercado de divisas

 

Ponente: Pablo Zárate Álvarez de Eulate (Asociación Innovatechbi.es)

Lugar: Seminario Mirian Andrés (Edificio CCT)

Hora: miércoles 31 de enero, 11:00

Resumen: El mercado de divisas, también conocido como FOREX, es puramente un mercado electrónico, donde la Ingeniería y Matemáticas hacen de combustible para el mercado. 5,3 billones de dólares diarios de negociación hacen que millones de operaciones sean computarizadas diariamente, y que por este motivo la divisa fluctúe.

El mercado tiene unas características de apalancamiento, volatilidad, Swap y Rollover que lo hacen diferente y son sus señas de identidad.

Para el estudio de series no estacionarias en el caso de los siete mayor de divisas (Dólar americano,Euro, Libra Esterlina, Dólar Canadiense, Dólar australiano, Franco Suizo, Yen Japonés) es necesario aplicar Big Data con nuevos métodos y algoritmos.

Los broker de Forex necesitan de Big Data para tener controlado las coberturas del mercado. Estos análisis son de alta complejidad y en tiempo real, con un mínimo timing de acceso a los mercados.

Concretamente Metatrader 4 y MQl4 son dos ejemplos de plataforma y lenguaje de programación, y estadísticamente los más extendidos en el mundo del trading. El seminario pretende dar una breve introducción a la informatización y automatización de este mercado. Además, se expondrá un caso de cointegración como novedad en el análisis de volatilidad, en el análisis de series no estacionarias.

Experiencias de un Data Scientist en el mundo empresarial

 

Ponente: Víctor Nalda Castellet (Data Scientist, Departamento de Investigación e Innovación en Modelos de Riesgo, Banco Santander)

Lugar: Seminario Mirian Andrés (Edificio CCT)

Hora: martes 2 de mayo, 12:00

Resumen: En esta ocasión vuelvo a mi universidad para mostraros cuáles son los retos a los que se enfrenta un matemático en el mundo empresarial, haciendo un repaso por el mundo del Big Data, desde Business Intelligence hasta Machine Learning. Todo ello lo ilustraremos con casos prácticos que pasan por sectores profesionales tan diferentes como las energías renovables, el fraude, las telecomunicaciones, la seguridad, la alimentación o la banca.

El arte de la ciencia de datos. Casos prácticos y tendencias

 

Ponente: Felipe Ortega (Universidad Rey Juan Carlos de Madrid)

Lugar: Aula 303, Edificio Vives

Hora: martes 1 de julio, 11:30

Abstract: La ciencia de datos se ha convertido en un pilar fundamental sobre el que se desarrollan los avances científicos en numerosas disciplinas. En la actualidad, hablar de ciencia de datos y big data suele ser sinónimo de conceptos como MapReduce y NoSQL, así como de proyectos como Apache Hadoop o Apache Spark. Sin embargo, el procesamiento eficiente de big data no es terreno exclusivo de los sistemas distribuidos o las bases de datos no relacionales.

En esta charla se introducirán los patrones más habituales que podemos usar para implementar proyectos que involucran big data, incluyendo soluciones alternativas a los sistemas distribuidos que ofrecen buen rendimiento a la par que reducen coste y complejidad.

Puedes encontrar las transparencias de la charla en el siguiente enlace.

 

DPAC, el consorcio de reducción de datos de la misión Gaia

 

Ponente: Xavier Luri (Universidad de Barcelona)

Lugar: Seminario Chicho (Aula 314, Edificio Vives)

Hora: martes 12 de noviembre, 10:00

Abstract: La misión Gaia tiene como objetivo crear un catálogo astrométrico con más de mil millones de estrellas y otros objetos celestes. Este catálogo se creará a partir de los más de 150TB de datos (comprimidos) que el satélite mandará a la Tierra, y la conversión de estos datos en bruto en datos científicos es un reto de primera magnitud. Para ello se creó en 2006 el Gaia Data Processing and Analysis Consortium (DPAC), a cargo de esta tarea. En esta charla presentaremos el consorcio, su estructura, recursos y los retos tecnológicos y organizacionales que supone.

Sobre el ponente: El Dr. Xavier Luri es profesor titular del departamento de astronomía y meteorología de la Universidad de Barcelona. Fue uno de los firmantes de la propuesta de la misión Gaia que fue aceptada por la Agencia Europea del Espacio en el año 2000, y que está actualmente lista para su lanzamiento desde la base espacial de la Guyana Francesa (fecha prevista: 20 de diciembre). Actualmente es miembro del comité ejecutivo del consorcio de reducción de datos de Gaia (DPAC), formado por más de 400 científicos e ingenieros europeos, y coordina el grupo a cargo del diseño e implementación del archivo de datos de la misión.