Aprende haciendo: 80% práctica, 20% teoría en cada clase (Laboratorios+).
Ganadores del concurso Startup Perú 12G, programa de ProInnóvate del Ministerio de la Producción
Logo del Ministerio de la Producción Logo de ProInnóvate Logo de Startup Perú

Acerca del programa

Especialízate en la construcción de plataformas de datos en Microsoft Azure y recorre el ciclo completo: ingesta, almacenamiento, procesamiento batch/streaming, modelado analítico, seguridad y MLOps. El programa está alineado y te prepara para la certificación Microsoft Azure Data Engineer Associate (DP-203) e impulsa el aprendizaje haciendo, con laboratorios y un proyecto integrador.

Aprenderás a crear pipelines ETL/ELT con Azure Data Factory, procesar a escala en Databricks (Spark/Delta), modelar con Synapse Analytics, trabajar datos en tiempo real con Event Hubs/Stream Analytics y aplicar gobernanza con Purview y seguridad con AAD/Key Vault. Todo en sesiones en vivo, con acceso a grabaciones y materiales de apoyo.

Temas/recursos clave (muestra)

  • Data Lake Storage Gen2, Synapse SQL/Serverless.

  • Orquestación con ADF, parametrización y monitoreo.

  • Streaming con Event Hubs y Stream Analytics.

  • Databricks, Apache Spark y Delta Lake.

  • Seguridad (AAD/Key Vault) y gobernanza (Purview).

  • Azure ML y servicios cognitivos en pipelines.

¿Por qué especializarte en este programa?

  • Metodología 80/20: práctica intensiva con mini-proyectos por sesión.

  • Alineado a DP-203: dominios y habilidades que evalúa el examen.

  • Portafolio aplicable: laboratorios, proyecto final y Demo Day.

  • Acompañamiento y comunidad: soporte activo y networking en WhatsApp.

  • Grabaciones 1 año: refuerza a tu ritmo con materiales y datasets guía.

  • Enfoque productivo: rendimiento, costos y buenas prácticas en Azure.

¿Qué ganarías al terminar el programa?

  • Diseñar data lakes/warehouses modernos en Azure con arquitecturas escalables.

  • Orquestar pipelines ETL/ELT robustos con Azure Data Factory y monitoreo.

  • Procesar grandes volúmenes con Databricks (Spark/Delta) y streaming en tiempo real.

  • Aplicar seguridad, gobernanza y cumplimiento con AAD, Key Vault y Purview.

  • Integrar IA/ML en pipelines con Azure ML y servicios cognitivos (MLOps básico).

Además, quedarás preparado/a para rendir el examen DP-203 (Microsoft Azure Data Engineer Associate).

Metodología 80/20

  • Enfoque 20% teoría / 80% práctica: sesiones dinámicas orientadas a construir soluciones paso a paso, con micro-aprendizajes y actividades aplicadas desde la primera clase. Cada clase dura 150 minutos: máx. 30 min de teoría y 120 min de práctica con ejercicios guiados, datasets y plantillas (ej.: Byte y herramientas afines).

Pre-requisitos

  • Programación básica en Python o SQL (fundamentos de sintaxis, estructuras de datos, funciones).
  • Conocimientos de bases de datos relacionales (tablas, consultas SELECT, JOIN, WHERE).
  • Conceptos básicos de datos (ETL, data warehousing, diferencia entre datos estructurados y no estructurados).

Dirigido a

Ingenieros/as de Datos que buscan especializarse en Azure y prepararse para DP-203.
Desarrolladores/as de Software que migran a roles de ingeniería de datos.
Analistas de Datos/BI que requieren pipelines y modelos analíticos en cloud.
Arquitectos/as de Soluciones que diseñan plataformas de datos en Azure.
Data Scientists que integran features y MLOps en pipelines productivos.

Beneficios

Programa en vivo por Zoom

Clases por Zoom en tiempo real con interacción y demos para aprender aplicando.

Acceso a clases grabada post sesión por 1 año

Acceso 24/7 a grabaciones y materiales para repasar a tu ritmo.

Certificación 50 horas académicas

Certificación oficial de Pragmma por 50 horas

Comunidad y soporte

Red activa en Whatsapp con docentes y alumnos, networking y oportunidades.

Proyectos reales y portafolio (Laboratorios+)

Labs y proyecto final con Demo Day para evidenciar tu trabajo en GitHub/Power BI.

Temario

Módulo 1
Fundamentos de Azure para Ingeniería de Datos
  • Introducción a la Ingeniería de Datos en Azure – Arquitectura de soluciones de datos en la nube, rol del Azure Data Engineer, servicios principales de Azure (Storage, Synapse, Data Factory, Databricks).
  • Azure Storage Accounts – Tipos de almacenamiento, configuración de cuentas, redundancia y replicación de datos.
  • Azure Data Lake Storage Gen2 – Estructura jerárquica de archivos, namespaces, contenedores y organización del data lake.
  • Seguridad en Azure Storage – Control de acceso basado en roles (RBAC), ACLs, autenticación y autorización.
  • Laboratorio: Creación y configuración de Data Lake Storage Gen2, organización de carpetas, implementación de políticas de acceso y exploración de datos con Azure Storage Explorer.
Módulo 2
Azure Synapse Analytics y Modelado de Datos
  • Arquitectura de Azure Synapse Analytics – Workspace, SQL Pools (Dedicated y Serverless), Apache Spark Pools, integración con servicios Azure.
  • Modelado Dimensional – Diseño de esquemas Star y Snowflake, tablas de hechos y dimensiones, slowly changing dimensions (SCD).
  • Optimización de Data Warehouse – Estrategias de distribución (Hash, Round-robin, Replicated), particionamiento, índices columnstore.
  • Synapse Serverless SQL Pool – Consultas sobre Data Lake sin infraestructura, formatos soportados (Parquet, CSV, JSON), vistas externas.
  • Laboratorio: Creación de un Data Warehouse en Synapse con esquema estrella, implementación de tablas distribuidas y particionadas, ejecución de consultas optimizadas con Serverless SQL Pool.
Módulo 3
Orquestación de Datos con Azure Data Factory
  • Componentes de Azure Data Factory – Pipelines, Activities, Datasets, Linked Services, Integration Runtime (tipos y configuración).
  • Control Flow y Data Flow – Actividades de control (ForEach, If Condition, Until), Mapping Data Flows para transformaciones visuales.
  • Parametrización y Expresiones Dinámicas – Variables, parámetros de pipeline, expresiones y funciones en ADF.
  • Triggers y Monitoreo – Tipos de triggers (Schedule, Tumbling Window, Event-based), debugging, monitoreo y alertas.
  • Laboratorio: Construcción de un pipeline ETL completo: ingesta desde múltiples fuentes, transformaciones con Data Flow, carga incremental a Synapse, parametrización y configuración de triggers automáticos.
Módulo 4
Procesamiento de Datos en Tiempo Real
  • Azure Event Hubs – Arquitectura de ingesta de eventos, particiones, grupos de consumidores, integración con Apache Kafka.
  • Azure Stream Analytics – Configuración de inputs/outputs, sintaxis de queries, funciones de ventana temporal (Tumbling, Hopping, Sliding, Session).
  • Comparación de Servicios de Mensajería – Event Hubs vs Service Bus vs Event Grid, casos de uso y patrones de arquitectura.
  • Arquitecturas de Streaming – Lambda architecture, Kappa architecture, patrones de procesamiento en tiempo real.
  • Laboratorio: Implementación de pipeline de streaming end-to-end: ingesta de eventos con Event Hubs, procesamiento con Stream Analytics, visualización en Power BI en tiempo real.
Módulo 5
Big Data con Azure Databricks y Apache Spark
  • Azure Databricks Fundamentals – Arquitectura, tipos de clusters (All-Purpose, Job, Photon), notebooks colaborativos, Unity Catalog.
  • Apache Spark en Databricks – DataFrames y transformaciones en PySpark, Spark SQL, optimización de consultas distribuidas.
  • Delta Lake – ACID transactions, Time Travel, Z-Ordering, optimización de archivos (OPTIMIZE, VACUUM).
  • Spark Performance Tuning – Particionamiento, broadcast joins, cache y persist, gestión de recursos y paralelismo.
  • Laboratorio: Procesamiento de grandes volúmenes de datos con Databricks: lectura desde Data Lake, transformaciones con PySpark, creación de tablas Delta Lake, optimización y consultas con Time Travel.
Módulo 6
Seguridad, Gobernanza y Monitoreo de Datos
  • Seguridad en Azure Data Services – Azure Active Directory, RBAC, Managed Identities, Service Principals, encriptación (at-rest, in-transit).
  • Azure Key Vault – Gestión de secretos, claves y certificados, integración con servicios de datos, rotación automática.
  • Microsoft Purview – Catálogo de datos, clasificación automática, data lineage, escaneo de fuentes de datos, políticas de acceso.
  • Monitoreo y Alertas – Azure Monitor, Log Analytics, métricas de rendimiento, configuración de alertas, diagnóstico de problemas.
  • Laboratorio: Implementación de seguridad completa: configuración de Managed Identities para servicios, gestión de secretos con Key Vault, catalogación de datos con Purview, configuración de monitoreo y alertas.
Módulo 7
Machine Learning e IA en Ingeniería de Datos
  • Azure Machine Learning Workspace – Componentes, datastores, datasets, compute targets, AutoML para entrenamiento automatizado.
  • MLOps y Pipelines de ML – Versionado de modelos, registro en Model Registry, CI/CD para ML, despliegue de endpoints.
  • Feature Engineering a Escala – Transformaciones en Synapse y Databricks, Feature Store, integración de datos para ML.
  • Azure Cognitive Services y OpenAI – Análisis de texto, visión, audio, Azure OpenAI Service para procesamiento con LLMs.
  • Laboratorio: Construcción de pipeline ML end-to-end: preparación de datos en Databricks, entrenamiento con Azure ML, registro de modelo, despliegue de endpoint y consumo desde aplicaciones.
Módulo 8
Optimización, Mejores Prácticas y Certificación DP-203
  • Optimización de Costos y Performance – Cost management, estrategias de ahorro, performance tuning en Synapse/ADF/Databricks, compresión y formatos de archivo.
  • Alta Disponibilidad y Disaster Recovery – Estrategias de backup, geo-replicación, failover automático, SLA de servicios Azure.
  • Arquitecturas de Referencia Azure – Modern Data Warehouse, Lakehouse architecture, Data Mesh, patrones de integración de datos.
  • Preparación para Examen DP-203 – Dominios del examen (Diseño 40%, Implementación 25%, Seguridad 15%, Optimización 20%), recursos de estudio, estrategias de examen.
  • Laboratorio: Simulacro de certificación: resolución de casos prácticos tipo examen, análisis de arquitecturas, troubleshooting de escenarios reales, Q&A y revisión de temas clave.

Horario

Inicio de clases online (EN VIVO)

18/11/2025

Fecha de finalización

16/12/2025

Martes y Jueves

19:00 a 21:30
Perú

18:00 a 20:30
Mexico

19:00 a 21:30
Ecuador

19:00 a 21:30
Colombia

21:00 a 23:30
Bolivia

Metodología 80/20

Orientado a la práctica
80% práctica, 20% teoría útil. Resuelve casos reales aplicados a tu trabajo.

Especialización enfocada
Domina una tecnología y un rol específico con contenido relevante y aplicable.

Microaprendizaje
Módulos breves y estructurados para avanzar y repasar sin perder tiempo.

Proyecto real + Demo Day
Desarrolla un proyecto integrador y preséntalo con feedback del experto y de pares.

Docentes

FERNANDO NICOLÁS VARGAS PLAZAS

Consultor SWAT de Microsoft para Latam

Ingeniero Electrónico con 10 años de experiencia profesional en el campo de tecnologías de la información. Lleva cinco años desempeñándose como consultor e instructor de la nube de Microsoft Azure para empresas de Colombia, Perú y Argentina. Cuenta con seis certificaciones de Microsoft Azure (AZ-900, AI-900, DP-900, AZ-104, DP-203 y AZ-305) y con la certificación Microsoft Certified Trainer (MCT).

Mostrar más Mostrar menos

Testimonios

BRIAM LUIS RONCEROS ACHULI

Muy bueno la explicación teórica y práctica, aprendí bastante de las clases brindadas

CRISS ANGEL

Bueno, aprendí mucho la herramienta SQL Server, me hizo recordar los tiempos de universitarios

Preguntas frecuentes

¿Cómo son los certificados con respaldo universitario?

Los certificados con respaldo universitario son exclusivamente físicos, no digitales. Se imprimen en formato oficial y cuentan con el aval de la universidad correspondiente, lo que les da mayor valor y reconocimiento.

¿Los certificados son respaldados por alguna universidad?

Sí, nuestros certificados cuentan con respaldo académico universitario, lo que garantiza su validez y reconocimiento en el ámbito profesional y curricular. Este aval le otorga al documento un valor adicional para fortalecer tu perfil y acreditar oficialmente tu participación en el programa.

¿En que consta el proyecto final?

El proyecto final consiste en un trabajo práctico que es asignado por el docente desde el inicio del programa. Su propósito es que los alumnos puedan aplicar de manera concreta los conocimientos adquiridos durante las clases, desarrollando su propia aplicación web como producto final. Esta experiencia les permite consolidar lo aprendido y generar un portafolio útil para futuras oportunidades laborales.

¿Todos los alumnos del programa tienen la opción de obtener su certificado con respaldo universitario?

Sí, todos los alumnos tienen la opción de acceder a un certificado con respaldo universitario al finalizar el programa. Para ello, deben cumplir con dos requisitos básicos:

  1. Haber asistido como mínimo al 80% del total de sesiones en vivo del programa.
  2. Realizar el pago correspondiente por el derecho a la certificación universitaria al culminar el programa.

El certificado es emitido en formato físico y digital, y constituye un documento oficial que acredita la participación y aprobación del programa de formación.

¿Puedo hacer consultas al docente en nuestra clase en vivo?

Sí, puedes hacer tus consultas al docente durante las clases en vivo de forma sincrónica, es decir, en tiempo real. Además, también podrás resolver tus dudas de manera asíncrona a través de nuestra comunidad en Discord.

En Discord hemos habilitado un canal exclusivo para cada curso, donde podrás interactuar con el docente tanto por chat como mediante videollamadas, según sea necesario. De esta forma, aseguramos un acompañamiento continuo y personalizado a lo largo de todo el programa.

¿Cómo descargar mi certificado?

Una vez el programa culmine, el personal de coordinación académica coordinará con el docente experto para saber quienes aprobaron y desaprobaron, luego el personal de académica compartirá al alumno su diploma a su correo.

¿Se toma en cuenta mi asistencia para la entrega de mi certificado?

Sí, la asistencia es un requisito importante. Todos nuestros programas en vivo constan de 8 clases, y para acceder al certificado, el alumno deberá haber asistido como mínimo al 80% del total de sesiones (es decir, al menos 6 clases).

s/.350.00

MXN 1901.66

USD 103.23

s/. 2,334.00

MXN 1901.66

USD 688.38

  • Programa en vivo por Zoom

  • Acceso a clases grabada post sesión por 1 año

  • Certificación 50 horas académicas

  • Comunidad y soporte (Whatsapp)

  • Proyectos reales y portafolio (Laboratorios+)

  • Metodología 80/20

Brochure del programa

Ganadores del concurso Startup Perú 12G, programa de ProInnóvate del Ministerio de la Producción
Logo del Ministerio de la Producción Logo de ProInnóvate Logo de Startup Perú
Solicitar más información
Nombres Este campo es obligatorio Apellidos Este campo es obligatorio Correo Celular
Teléfono inválido
Debe aceptar la política de privacidad
Debe aceptar las condiciones.
Comprar ahora s/.350.00 Comprar ahora USD 103.23