




Resumen del Puesto: Buscamos un Data Engineer experimentado en ecosistemas de datos en la nube, especialmente GCP y Databricks, para diseñar, construir y mantener pipelines de datos escalables y confiables. Puntos Destacados: 1. Diseño y construcción de pipelines de datos escalables en la nube 2. Implementación de procesamiento distribuido con Databricks y Apache Spark 3. Colaboración con equipos de analítica, ingeniería y negocio **¡Únete a nosotros y sé parte del cambio!** Buscamos un **Data Engineer** con experiencia sólida en ecosistemas de datos en la nube, especialmente en **Google Cloud Platform (GCP)** y **Databricks**, que contribuya al diseño, construcción y mantenimiento de pipelines de datos escalables y confiables. La persona ideal cuenta con experiencia trabajando con grandes volúmenes de datos, procesamiento distribuido y arquitectura de datos moderna. Será responsable de asegurar la disponibilidad, calidad y eficiencia de los flujos de datos que soportan análisis, reporting y soluciones basadas en datos. **Responsabilidades:** * Diseñar, construir y mantener **pipelines de datos escalables** en entornos cloud. * Implementar procesos de ingestión, transformación y carga de datos utilizando **Python, SQL y Spark**. * Trabajar con **BigQuery** y **Cloud Storage** para el almacenamiento y procesamiento de grandes volúmenes de datos. * Desarrollar y optimizar consultas **SQL avanzadas con enfoque analítico**. * Implementar procesos de procesamiento distribuido mediante **Databricks y Apache Spark**. * Orquestar pipelines de datos utilizando **Airflow o Cloud Composer**. * Monitorear, operar y mantener infraestructura de datos en **ambientes productivos**. * Garantizar calidad, confiabilidad y disponibilidad de los datos. * Colaborar con equipos de analítica, ingeniería y negocio para habilitar soluciones basadas en datos. * Documentar procesos de datos, pipelines y arquitectura. **Requisitos:** * **3 a 5 años de experiencia** en ingeniería de datos. * Experiencia práctica trabajando con **Google Cloud Platform (GCP)**. * Dominio de **BigQuery** y **Cloud Storage**. * Experiencia trabajando con **Databricks y Apache Spark**. * Manejo avanzado de **SQL con enfoque analítico**. * Experiencia utilizando **Python** para procesos de ingeniería de datos. * Experiencia con herramientas de **orquestación de pipelines** como **Airflow o Cloud Composer**. * Experiencia operando soluciones de datos en **entornos productivos**. ***Deseables*** * Conocimiento en **Terraform** para infraestructura como código. * Experiencia con procesos **CI/CD** aplicados a pipelines de datos. * Experiencia utilizando **dbt** para transformaciones analíticas. * Capacidad para comprender **documentación técnica en inglés**. * Experiencia trabajando con arquitecturas modernas de datos (Data Lake, Lakehouse o Data Warehouse). **Horario:** * Hibrido (2 días en oficiona/3 días casa) * Lunes a Viernes de 7:30 am a 3:00 pm. **Benefits** En Rocket Code, valoramos a nuestros empleados y ofrecemos un paquete integral de beneficios para apoyar su crecimiento personal y profesional: * **Bono por recomendación:** Recibe una recompensa por traer personas talentosas a nuestro equipo. * **Capacitación continua:** Acceso a recursos y capacitación especializada en IA y metodologías de transformación digital. * **Cursos y certificaciones:** Mantente a la vanguardia en tu carrera con cursos y certificaciones patrocinados por la empresa. Tipo de puesto: Tiempo completo, Por tiempo indeterminado Sueldo: $45,000\.00 \- $50,000\.00 al mes Lugar de trabajo: remoto híbrido en Miguel Hidalgo, CDMX


