Implement data engineering solutions using Azure Databricks

Implement data engineering solutions using Azure Databricks

DP-750


Información del

Programa

Duración:

20 horas

Localidad:

Madrid

Modalidad:

Online Direct

Fecha:

16/03/2026

    Curso DP-750 Implement data engineering solutions using Azure Databricks

    Este curso proporciona una formación completa en ingeniería de datos de extremo a extremo utilizando Azure Databricks y Unity Catalog. A lo largo del programa, los participantes aprenderán a pasar desde la configuración inicial del entorno hasta el despliegue en producción, cubriendo aspectos clave como la configuración de entornos, la gobernanza de datos a nivel empresarial y la optimización de cargas de trabajo.

    Durante el curso, se explorará cómo diseñar y construir pipelines de ingestión de datos robustos, implementar mecanismos de seguridad y gobernanza mediante Unity Catalog, y desplegar soluciones optimizadas en arquitecturas lakehouse. Al finalizar, los participantes contarán con las habilidades prácticas necesarias para implementar, asegurar y mantener soluciones lakehouse escalables que cumplan con los requisitos exigentes de entornos empresariales.

    Requisitos

    Conocimientos fundamentales de data analytics y conceptos de data engineering.

    Comprensión básica de cloud storage y organización de datos.

    Familiaridad con SQL y patrones de acceso a datos.

    Experiencia en programación con Python y uso de notebooks.

    Buen conocimiento de Azure Databricks workspaces y conceptos de Unity Catalog.

    Conocimientos básicos de seguridad en Azure, incluyendo Microsoft Entra ID.

    Familiaridad con control de versiones usando Git.

      Objetivos

      Comprender la arquitectura y los componentes principales de Azure Databricks y Unity Catalog.

      Configurar y gestionar entornos de ingeniería de datos en Azure Databricks.

      Diseñar y desarrollar pipelines de ingestión de datos robustos y escalables.

      Implementar gobernanza y seguridad de datos utilizando Unity Catalog.

      Optimizar cargas de trabajo y procesos de ingeniería de datos en arquitecturas lakehouse.

      Desplegar soluciones de ingeniería de datos en entornos de producción cumpliendo requisitos empresariales.

      Aplicar buenas prácticas para gestionar, mantener y escalar plataformas de datos en Azure.

        Temario

        Módulo 1 – Configurar y preparar un entorno de Azure Databricks
        • Explorar Azure Databricks

          • Primeros pasos con Azure Databricks

          • Identificar workloads de Azure Databricks

          • Comprender conceptos clave

          • Gobernanza de datos usando Unity Catalog y Microsoft Purview

          • Exercise – Explorar Azure Databricks

        • Comprender la arquitectura de Azure Databricks

          • Comprender la arquitectura de Azure Databricks

          • Comprender Unity Catalog managed storage

          • Comprender external storage

          • Comprender default storage (serverless compute)

        • Comprender las integraciones de Azure Databricks

          • Comprender la integración con Microsoft Fabric

          • Comprender la integración con Power BI

          • Comprender la integración con VS Code

          • Comprender la integración con Power Platform

          • Comprender la integración con Copilot Studio

          • Comprender la integración con Microsoft Purview

          • Comprender la integración con Microsoft Foundry

        • Seleccionar y configurar recursos de compute en Azure Databricks

          • Elegir un tipo de compute adecuado

          • Configurar el rendimiento del compute

          • Configurar características del compute

          • Instalar libraries para compute

          • Configurar acceso al compute

        • Crear y organizar objetos en Unity Catalog

          • Aplicar naming conventions

          • Crear catalog

          • Crear schema

          • Crear tables y views

          • Crear volumes

          • Implementar operaciones DDL

          • Implementar foreign catalog

          • Configurar instrucciones de AI/BI Genie

        Módulo 2 – Proteger y gobernar objetos de Unity Catalog en Azure Databricks
        • Proteger objetos de Unity Catalog

          • Comprender el ciclo de vida de una query

          • Implementar estrategias de control de acceso

          • Comprender el control de acceso de granularidad fina

          • Implementar row filtering y column masking

          • Acceder a secrets de Azure Key Vault

          • Autenticar el acceso a datos con service principals

          • Autenticar el acceso a recursos con managed identities

        • Gobernar objetos de Unity Catalog

          • Crear y preservar definiciones de tables

          • Configurar ABAC con tags y policies

          • Aplicar políticas de retención de datos

          • Configurar y gestionar data lineage

          • Configurar audit logging

          • Diseñar una estrategia segura de Delta Sharing

        Módulo 3 – Preparar y procesar datos con Azure Databricks
        • Diseñar e implementar modelado de datos con Azure Databricks

          • Diseñar lógica de ingestión y configuración de data sources

          • Elegir una herramienta de ingestión de datos

          • Elegir un formato de data table

          • Diseñar e implementar un esquema de particionado de datos

          • Elegir un tipo de Slowly Changing Dimension (SCD)

          • Implementar Slowly Changing Dimension (SCD) tipo 2

          • Diseñar e implementar una tabla temporal (history table) para registrar cambios en el tiempo

          • Elegir la granularidad en una columna o tabla según los requisitos

          • Elegir entre managed tables y unmanaged tables

          • Diseñar e implementar una estrategia de clustering

        • Ingerir datos en Unity Catalog

          • Ingerir datos con Lakeflow Connect

          • Ingerir datos con notebooks

          • Ingerir datos con métodos SQL

          • Ingerir datos con CDC feed

          • Ingerir datos con Spark Structured Streaming

          • Ingerir datos con Auto Loader

          • Ingerir datos con Lakeflow Spark Declarative Pipelines

        • Limpiar, transformar y cargar datos en Unity Catalog

          • Analizar (profile) los datos

          • Elegir tipos de datos para columnas

          • Resolver duplicados y valores null

          • Transformar datos con filtros y agregaciones

          • Transformar datos con joins y set operators

          • Transformar datos con denormalization y pivots

          • Cargar datos con merge, insert y append

        • Implementar y gestionar restricciones de calidad de datos con Azure Databricks

          • Implementar validation checks

          • Implementar comprobaciones de tipos de datos

          • Detectar y gestionar schema drift

          • Gestionar la calidad de datos con pipeline expectations

        Módulo 4 – Desplegar y mantener pipelines de datos y cargas de trabajo con Azure Databricks
        • Diseñar e implementar data pipelines con Azure Databricks

          • Diseñar el orden de operaciones para un pipeline

          • Elegir entre notebooks y Lakeflow Pipelines

          • Diseñar la lógica de jobs en Lakeflow

          • Diseñar manejo de errores en pipelines y jobs

          • Crear un pipeline con notebook

          • Crear un pipeline con Lakeflow Spark Declarative Pipelines

        • Implementar Lakeflow Jobs con Azure Databricks

          • Crear configuración y setup de un job

          • Configurar triggers de jobs

          • Programar (schedule) un job

          • Configurar alertas de jobs

          • Configurar reinicios automáticos

        • Implementar procesos del ciclo de desarrollo en Azure Databricks

          • Aplicar buenas prácticas de control de versiones con Git

          • Gestionar branching y pull requests

          • Implementar una estrategia de testing

          • Configurar y empaquetar Databricks Asset Bundles (DABs)

          • Desplegar bundles con Databricks CLI

        • Monitorizar, solucionar problemas y optimizar workloads en Azure Databricks

          • Monitorizar y gestionar el consumo de clusters

          • Solucionar problemas y reparar Lakeflow Jobs

          • Solucionar problemas en Spark jobs y notebooks

          • Investigar problemas de caching, skew, spill y shuffle

          • Implementar log streaming con Azure Log Analytics

        ¿Tienes dudas? Te ayudamos a encontrar la mejor formación

        Nuestro equipo está aquí para ayudarte. Déjanos tus datos y te contactaremos para ofrecerte la formación que mejor se adapte a tus necesidades.


        Curso:

        Implement data engineering solutions using Azure Databricks

        Plazas abiertas hasta:

        03/03/2026

        Duración:

        20 horas

        ¿Cómo nos conociste?

        Registrate a nuestra newsletter

        Descubre todas nuestra novedades, se el primero en apuntarte a nuestros eventos o beneficiate de nuestras promociones…

        Registraste aquí