Key Responsibilities
Diseñar, desarrollar y mantener pipelines de datos escalables en Databricks .
Implementar procesos ETL / ELT usando PySpark y SQL.
Integrar datos desde múltiples fuentes para generar datasets confiables.
Colaborar con equipos de BI, Data Science y negocio para definir requerimientos y métricas clave.
Optimizar rendimiento y costos en entornos cloud (Azure / AWS / GCP).
Implementar prácticas de seguridad y gobierno de datos.
Required Skills & Qualifications
Experiencia comprobable en Databricks .
Conocimiento avanzado de PySpark y SQL.
Experiencia en desarrollo de ETL / ELT y modelado de datos.
Conocimiento de entornos cloud (Azure Data Lake, AWS S3, GCP BigQuery).
Manejo de herramientas CI / CD y versionamiento (Git, DevOps).
Habilidad para documentar y comunicar soluciones técnicas.
Ingeniero Datos • Ciudad de México, México