




Únase a nuestro equipo de Observabilidad de Datos como **Ingeniero Senior de Datos**, donde diseñará y desarrollará canalizaciones de datos de alta calidad utilizando la arquitectura en medallón. Colaborará con equipos para entregar soluciones robustas de integración de datos y contribuirá al éxito del análisis de datos. ¡Postúlese ahora para aportar su experiencia y desarrollar su carrera en un entorno dinámico! **Responsabilidades** * Diseñar y desarrollar canalizaciones de datos de alta calidad utilizando Databricks y la arquitectura en medallón * Participar en el modelado de datos e implementar soluciones de datos alineadas con los objetivos del proyecto * Estimar, planificar tareas y elaborar prototipos de soluciones de ingeniería de datos para satisfacer las necesidades del cliente * Colaborar con equipos multifuncionales en características de software, diseño e implementación * Recopilar y aclarar los requisitos de las partes interesadas para garantizar que las soluciones cumplan con las expectativas * Mantener y mejorar los flujos de trabajo de integración de datos y la infraestructura como código * Apoyar las iniciativas de observabilidad de datos para mejorar la calidad y confiabilidad de los datos **Requisitos** * 3+ años de experiencia en Ingeniería de Software de Datos * Experiencia con Databricks en cualquier plataforma en la nube; se prefiere Azure * Competencia en Python, PySpark y SQL para procesamiento y análisis de datos * Conocimiento sólido de conceptos de ingeniería de datos, incluidos ETL/ELT, almacenamiento de datos y modelado de datos * Experiencia en desarrollo y mantenimiento de infraestructura como código * Excelentes habilidades de comunicación y colaboración para trabajar eficazmente en entornos ambiguos * Capacidad para trabajar de forma independiente y como parte de un equipo para entregar soluciones * Dominio del inglés a nivel C1 o superior **Deseable** * Familiaridad con servicios de Azure como azcopy, ADLS Gen2, KeyVault, SPN, Log Analytics y Azure Monitor * Experiencia con herramientas de CI/CD como Cloudbees y Jenkins para flujos de trabajo de Databricks * Conocimiento de Terraform para aprovisionar recursos de Azure, incluidos ADLS y Databricks * Exposición a plataformas de visualización de datos como Tableau * Conocimiento de tecnologías de transmisión de datos como Kafka


