Tipo : Hibrido (min. 1 día x semana en CDMX). Puede haber excepción full remoto.
Resumen del puesto :
Estamos buscando un Ingeniero de Datos con experiencia sólida en modelado de datos, arquitecturas de Data Lake, Lakehouse y Data Warehouse. El candidato debe tener experiencia con dos o más herramientas ETL como Pentaho, Informatica, y DataStage, para la ingesta y transformación de grandes volúmenes de información. Se valorará positivamente la experiencia en AWS Glue y Spark para optimizar flujos de procesamiento de datos.
Responsabilidades :
- Diseñar y mantener arquitecturas de datos que incluyan Data Lake, Lakehouse y Data Warehouse, asegurando la escalabilidad y eficiencia en el manejo de datos.
- Desarrollar procesos de ingesta y transformación de datos utilizando herramientas ETL como Pentaho, Informatica y DataStage.
- Gestionar y optimizar grandes volúmenes de información, garantizando la calidad y la disponibilidad de los datos.
- Colaborar con equipos de análisis y ciencia de datos para asegurar que los datos están preparados y disponibles para el análisis.
- Implementar flujos de datos en AWS Glue y Spark (plus), maximizando el rendimiento de los pipelines.
- Monitorear el rendimiento de los sistemas y hacer ajustes necesarios para mejorar la eficiencia del manejo de datos.
Requisitos :
Licenciatura en Ingeniería en Sistemas, Ciencias de la Computación o similar.Experiencia sólida en el diseño y administración de arquitecturas de Data Lake, Lakehouse y Data Warehouse.Experiencia con dos o más herramientas ETL (Pentaho, Informatica, DataStage) para la transformación y gestión de datos.Conocimiento de AWS Glue y Spark es un plus.Habilidad para trabajar con grandes volúmenes de datos y optimizar procesos de transformación.Conocimiento de SQL y tecnologías de Big Data (e.g., Hadoop, Spark).En este espacio describir las especificaciones para la búsqueda