Menú

Máster en Data Science, Big Data y Desarrollo de Inteligencia Artificial del centro EVOLVE

Programa de Máster en Data Science, Big Data y Desarrollo de Inteligencia Artificial

Modalidad: Online
Duración 8 meses

Descripción

Domina el ciclo completo del dato y lidera la transformación digital.

El Máster forma científicos de datos capaces de cubrir todo el ciclo del dato en entornos empresariales, desde la extracción y limpieza hasta el despliegue de modelos de machine learning e IA en producción. Combina los pilares clásicos —Python, SQL, estadística, machine learning y deep learning— con las nuevas demandas del mercado: arquitecturas de Big Data, modelos generativos, integración de LLMs y MLOps. 

La formación se imparte 100 % online en directo, con clases prácticas y proyectos. El profesorado en activo asegura contenidos actualizados.

A quién va dirigido

Perfiles que quieren convertirse en profesionales de los datos en uno de los mercados con mayor crecimiento y demanda de talento de la economía actual. 

Objetivos

  • Serás capaz de programar en Python con las librerías clave de ciencia de datos
  • Aplicar estadística avanzada para interpretar resultados con rigor. 
  • Dominarás el ciclo completo de proyectos de Data Science, desde la extracción y limpieza.
  • Manejar arquitecturas de Big Data con Spark y ecosistemas cloud
  • Integrar inteligencia artificial generativa en flujos de trabajo profesionales.

Temario

Módulo 0. Módulo de nivelación (acceso previo al inicio)

Introducción a la programación: lógica computacional y algoritmos básicos.

Fundamentos de Python: sintaxis, tipos de datos, estructuras de control, funciones.

Introducción al control de versiones con Git y GitHub.

Conceptos básicos de matemáticas para Data Science: álgebra lineal, cálculo y probabilidad aplicados.

Bloque 1. Programación en Python para Data Science

Python avanzado: programación orientada a objetos, gestión de errores, módulos y entornos virtuales.

NumPy: arrays multidimensionales, operaciones vectorizadas, álgebra lineal computacional.

Pandas: DataFrames, manipulación, limpieza y transformación de datos.

Buenas prácticas de desarrollo: código limpio, reutilizable, documentación y testing.

Control de versiones con Git aplicado a proyectos de datos.

Bloque 2. Bases de datos y SQL

Modelos de datos: bases relacionales y no relacionales (NoSQL).

SQL: consultas básicas y avanzadas, joins, subconsultas, funciones de ventana.

Bases de datos NoSQL: MongoDB, Redis, casos de uso.

Diseño y modelado de bases de datos para proyectos de analítica.

Integración de datos desde APIs, ficheros y procesos ETL.

Bloque 3. Estadística y matemáticas aplicadas

Estadística descriptiva: medidas de tendencia central, dispersión, distribuciones.

Estadística inferencial: estimación, intervalos de confianza, pruebas de hipótesis.

Probabilidad y distribuciones (normal, binomial, Poisson) aplicadas al análisis de datos.

Test A/B y experimentación en entornos de negocio.

Álgebra lineal y cálculo aplicados a algoritmos de machine learning.

Bloque 4. Visualización de datos y storytelling

Visualización con Matplotlib, Seaborn y Plotly.

Construcción de dashboards con Power BI y Tableau.

Principios de diseño visual: claridad, jerarquía, color, accesibilidad.

Storytelling con datos: cómo traducir análisis técnicos en narrativas de negocio.

Casos prácticos sobre datasets reales.

Bloque 5. Machine Learning

Fundamentos del machine learning: aprendizaje supervisado y no supervisado.

Algoritmos de regresión: lineal, polinómica, regularización (Ridge, Lasso).

Algoritmos de clasificación: regresión logística, árboles de decisión, Random Forest, XGBoost, SVM.

Aprendizaje no supervisado: K-Means, clustering jerárquico, DBSCAN.

Reducción de dimensionalidad: PCA, t-SNE, UMAP.

Sistemas de recomendación: filtrado colaborativo y basado en contenido.

Evaluación de modelos: métricas, validación cruzada, control de overfitting.

Feature engineering: selección y creación de variables predictivas.

Bloque 6. Deep Learning y redes neuronales

Fundamentos de redes neuronales: perceptrón, backpropagation, funciones de activación.

Frameworks de deep learning: TensorFlow, Keras y PyTorch.

Redes neuronales convolucionales (CNN) aplicadas a visión por computador.

Redes recurrentes (RNN, LSTM, GRU) y arquitecturas Transformer.

Procesamiento del lenguaje natural (NLP): tokenización, embeddings, análisis de sentimiento, clasificación de texto.

Series temporales: análisis y predicción.

Bloque 7. Big Data y procesamiento distribuido

Fundamentos de Big Data: 5 V’s, casos de uso y arquitecturas modernas.

Ecosistema Hadoop: HDFS, MapReduce, YARN.

Apache Spark: RDDs, DataFrames, Spark SQL y MLlib.

PySpark: procesamiento distribuido con Python.

Streaming de datos: Kafka y procesamiento en tiempo real.

Data lakes, data warehouses y arquitecturas Lakehouse.

Bloque 8. Inteligencia Artificial Generativa y LLMs aplicados

Fundamentos de IA generativa: arquitecturas Transformer y modelos de lenguaje.

Uso de LLMs comerciales (ChatGPT, Claude, Gemini) y modelos open source (Llama, Mistral).

Prompt engineering avanzado para tareas de análisis y procesamiento de datos.

Retrieval-Augmented Generation (RAG): conexión de LLMs a bases de conocimiento propias.

Frameworks de desarrollo: LangChain y LlamaIndex.

Fine-tuning de modelos para casos de uso específicos.

Desarrollo de agentes inteligentes con acceso a herramientas y APIs.

Bloque 9. Cloud Computing y MLOps

Fundamentos de cloud computing: AWS, Azure y Google Cloud Platform.

Servicios cloud para Data Science: almacenamiento, cómputo, bases de datos gestionadas.

MLOps: ciclo de vida del modelo, versionado, CI/CD aplicado a machine learning.

Despliegue de modelos en producción: APIs REST, contenedores Docker.

Monitorización y mantenimiento de modelos: drift, retraining, observabilidad.

Automatización de pipelines de datos y modelos.

Bloque 10. Ética, gobernanza y normativa de datos

RGPD y LOPDGDD aplicados al trabajo con datos personales.

AI Act europeo y su impacto en proyectos de inteligencia artificial.

Sesgos algorítmicos: detección, mitigación y modelos explicables (XAI).

Gobierno del dato y calidad: data lineage, data catalog, governance frameworks.

Privacidad y seguridad en proyectos de datos.

Bloque 11. Trabajo Fin de Máster + Empleabilidad

Desarrollo de un proyecto integrador end-to-end: desde la captura del dato hasta el despliegue del modelo y la presentación ejecutiva.

Defensa del proyecto ante tribunal con feedback profesional.

Acompañamiento del Career Advisor: revisión de CV y LinkedIn, preparación de entrevistas técnicas, simulacros de pruebas técnicas y casos de negocio.

Acceso a la bolsa de empresas partner y a procesos reales de selección.

Titulación obtenida

Certificado propio de Evolve, preparación para certificaciones oficiales de Microsoft, AWS y Google, y acceso a la red de empresas partner para procesos de selección reales.

Requisitos

No exige titulación universitaria previa ni experiencia profesional en el sector tecnológico.

Contacta ahora con el centro

Junglebox S.L. (Responsable) tratará tus datos personales con la finalidad de gestionar el envío de solicitudes de información requeridas y el envío de comunicaciones promocionales sobre formación, derivadas de tu consentimiento. Podrás ejercer tus derechos de acceso, supresión rectificación, limitación, portabilidad y otros derechos, según lo indicado en nuestra P. de Privacidad​