




Resumen: Únase como Ingeniero Senior de Data DevOps para liderar el desarrollo y la optimización de la infraestructura de datos y los procesos de flujo de trabajo en Azure, garantizando la eficiencia de las canalizaciones y la confiabilidad del sistema. Aspectos destacados: 1. Liderar el desarrollo y la optimización de la infraestructura de datos en Azure 2. Colaborar con equipos multidisciplinarios para mejorar la eficiencia de las canalizaciones 3. Diseñar y operar la infraestructura de datos mediante servicios de Azure Buscamos un Ingeniero Senior de Data DevOps para que se una a nuestro grupo y asuma un papel líder en el desarrollo y la optimización de la infraestructura de datos y los procesos de flujo de trabajo en Azure. Diseñará, desplegará y gestionará sistemas de datos escalables, colaborando al mismo tiempo con equipos de ingeniería de datos y equipos multidisciplinarios para garantizar la eficiencia de las canalizaciones, la confiabilidad del sistema y mejoras en el rendimiento. ¡Postúlese ahora para avanzar en su carrera con nosotros! **Responsabilidades** * Diseñar y operar la infraestructura de datos mediante servicios de Azure tales como Data Lake, Databricks, Synapse y Data Factory * Colaborar con equipos de ingeniería de datos para construir y respaldar canalizaciones y flujos de trabajo efectivos * Automatizar flujos de trabajo de datos mediante Python para mejorar la productividad y la fiabilidad de los procesos * Configurar y mantener canalizaciones de CI/CD con Jenkins, GitHub Actions u otras herramientas similares * Trabajar en colaboración con distintos equipos para mejorar la escalabilidad, la confiabilidad y el rendimiento de los sistemas de datos * Instalar y mantener herramientas de datos como Apache Spark y Kafka tanto en entornos basados en la nube como locales * Supervisar proactivamente las plataformas de datos para detectar y resolver problemas de rendimiento y escalabilidad * Diagnosticar y solucionar problemas complejos dentro de las plataformas de datos y las operaciones de canalizaciones **Requisitos** * Mínimo 3 años de experiencia en Ingeniería de Datos o puestos relacionados * Conocimientos especializados en programación Python para flujos de trabajo de procesamiento por lotes * Competencia en SQL para manipular y consultar conjuntos de datos extensos * Amplia experiencia en servicios en la nube de Azure para la gestión de infraestructuras de datos * Experiencia práctica con herramientas de Infraestructura como Código (IaC), tales como Ansible, Terraform o CloudFormation * Capacidad para crear y gestionar canalizaciones de CI/CD mediante Jenkins, GitHub Actions u otras herramientas equivalentes * Experiencia con herramientas de procesamiento y orquestación de datos, incluidas Spark, Airflow o R * Conocimientos avanzados del sistema operativo Linux, así como habilidades de scripting y administración de sistemas * Comprensión exhaustiva de protocolos de red como TCP, UDP, ICMP, DHCP, DNS y NAT * Dominio sólido del idioma inglés, nivel B2+ tanto oral como escrito **Deseable** * Conocimientos de otras plataformas en la nube, como AWS o GCP * Experiencia con Kubernetes para la orquestación de contenedores en flujos de trabajo de datos * Familiaridad con herramientas de supervisión y observabilidad, tales como Prometheus, Grafana o Azure Monitor * Exposición a tecnologías Big Data y procesos complejos de análisis de datos * Experiencia en gobernanza y buenas prácticas de seguridad de datos en la nube


