El Máster forma científicos de datos capaces de cubrir todo el ciclo del dato en entornos empresariales, desde la extracción y limpieza hasta el despliegue de modelos de machine learning e IA en producción. Combina los pilares clásicos —Python, SQL, estadística, machine learning y deep learning— con las nuevas demandas del mercado: arquitecturas de Big Data, modelos generativos, integración de LLMs y MLOps.
La formación se imparte 100 % online en directo, con clases prácticas y proyectos. El profesorado en activo asegura contenidos actualizados.
Perfiles que quieren convertirse en profesionales de los datos en uno de los mercados con mayor crecimiento y demanda de talento de la economía actual.
Módulo 0. Módulo de nivelación (acceso previo al inicio)
Introducción a la programación: lógica computacional y algoritmos básicos.
Fundamentos de Python: sintaxis, tipos de datos, estructuras de control, funciones.
Introducción al control de versiones con Git y GitHub.
Conceptos básicos de matemáticas para Data Science: álgebra lineal, cálculo y probabilidad aplicados.
Bloque 1. Programación en Python para Data Science
Python avanzado: programación orientada a objetos, gestión de errores, módulos y entornos virtuales.
NumPy: arrays multidimensionales, operaciones vectorizadas, álgebra lineal computacional.
Pandas: DataFrames, manipulación, limpieza y transformación de datos.
Buenas prácticas de desarrollo: código limpio, reutilizable, documentación y testing.
Control de versiones con Git aplicado a proyectos de datos.
Bloque 2. Bases de datos y SQL
Modelos de datos: bases relacionales y no relacionales (NoSQL).
SQL: consultas básicas y avanzadas, joins, subconsultas, funciones de ventana.
Bases de datos NoSQL: MongoDB, Redis, casos de uso.
Diseño y modelado de bases de datos para proyectos de analítica.
Integración de datos desde APIs, ficheros y procesos ETL.
Bloque 3. Estadística y matemáticas aplicadas
Estadística descriptiva: medidas de tendencia central, dispersión, distribuciones.
Estadística inferencial: estimación, intervalos de confianza, pruebas de hipótesis.
Probabilidad y distribuciones (normal, binomial, Poisson) aplicadas al análisis de datos.
Test A/B y experimentación en entornos de negocio.
Álgebra lineal y cálculo aplicados a algoritmos de machine learning.
Bloque 4. Visualización de datos y storytelling
Visualización con Matplotlib, Seaborn y Plotly.
Construcción de dashboards con Power BI y Tableau.
Principios de diseño visual: claridad, jerarquía, color, accesibilidad.
Storytelling con datos: cómo traducir análisis técnicos en narrativas de negocio.
Casos prácticos sobre datasets reales.
Bloque 5. Machine Learning
Fundamentos del machine learning: aprendizaje supervisado y no supervisado.
Algoritmos de regresión: lineal, polinómica, regularización (Ridge, Lasso).
Algoritmos de clasificación: regresión logística, árboles de decisión, Random Forest, XGBoost, SVM.
Aprendizaje no supervisado: K-Means, clustering jerárquico, DBSCAN.
Reducción de dimensionalidad: PCA, t-SNE, UMAP.
Sistemas de recomendación: filtrado colaborativo y basado en contenido.
Evaluación de modelos: métricas, validación cruzada, control de overfitting.
Feature engineering: selección y creación de variables predictivas.
Bloque 6. Deep Learning y redes neuronales
Fundamentos de redes neuronales: perceptrón, backpropagation, funciones de activación.
Frameworks de deep learning: TensorFlow, Keras y PyTorch.
Redes neuronales convolucionales (CNN) aplicadas a visión por computador.
Redes recurrentes (RNN, LSTM, GRU) y arquitecturas Transformer.
Procesamiento del lenguaje natural (NLP): tokenización, embeddings, análisis de sentimiento, clasificación de texto.
Series temporales: análisis y predicción.
Bloque 7. Big Data y procesamiento distribuido
Fundamentos de Big Data: 5 V’s, casos de uso y arquitecturas modernas.
Ecosistema Hadoop: HDFS, MapReduce, YARN.
Apache Spark: RDDs, DataFrames, Spark SQL y MLlib.
PySpark: procesamiento distribuido con Python.
Streaming de datos: Kafka y procesamiento en tiempo real.
Data lakes, data warehouses y arquitecturas Lakehouse.
Bloque 8. Inteligencia Artificial Generativa y LLMs aplicados
Fundamentos de IA generativa: arquitecturas Transformer y modelos de lenguaje.
Uso de LLMs comerciales (ChatGPT, Claude, Gemini) y modelos open source (Llama, Mistral).
Prompt engineering avanzado para tareas de análisis y procesamiento de datos.
Retrieval-Augmented Generation (RAG): conexión de LLMs a bases de conocimiento propias.
Frameworks de desarrollo: LangChain y LlamaIndex.
Fine-tuning de modelos para casos de uso específicos.
Desarrollo de agentes inteligentes con acceso a herramientas y APIs.
Bloque 9. Cloud Computing y MLOps
Fundamentos de cloud computing: AWS, Azure y Google Cloud Platform.
Servicios cloud para Data Science: almacenamiento, cómputo, bases de datos gestionadas.
MLOps: ciclo de vida del modelo, versionado, CI/CD aplicado a machine learning.
Despliegue de modelos en producción: APIs REST, contenedores Docker.
Monitorización y mantenimiento de modelos: drift, retraining, observabilidad.
Automatización de pipelines de datos y modelos.
Bloque 10. Ética, gobernanza y normativa de datos
RGPD y LOPDGDD aplicados al trabajo con datos personales.
AI Act europeo y su impacto en proyectos de inteligencia artificial.
Sesgos algorítmicos: detección, mitigación y modelos explicables (XAI).
Gobierno del dato y calidad: data lineage, data catalog, governance frameworks.
Privacidad y seguridad en proyectos de datos.
Bloque 11. Trabajo Fin de Máster + Empleabilidad
Desarrollo de un proyecto integrador end-to-end: desde la captura del dato hasta el despliegue del modelo y la presentación ejecutiva.
Defensa del proyecto ante tribunal con feedback profesional.
Acompañamiento del Career Advisor: revisión de CV y LinkedIn, preparación de entrevistas técnicas, simulacros de pruebas técnicas y casos de negocio.
Acceso a la bolsa de empresas partner y a procesos reales de selección.
Certificado propio de Evolve, preparación para certificaciones oficiales de Microsoft, AWS y Google, y acceso a la red de empresas partner para procesos de selección reales.
No exige titulación universitaria previa ni experiencia profesional en el sector tecnológico.