




Resumen: Buscamos un Ingeniero Senior de Data DevOps con experiencia en Azure para liderar la mejora y el mantenimiento de la infraestructura y los flujos de trabajo de datos, así como para diseñar y gestionar soluciones de datos escalables. Aspectos destacados: 1. Liderar la mejora y el mantenimiento de la infraestructura de datos en Azure 2. Diseñar e implementar soluciones de datos escalables 3. Automatizar procesos de datos con Python para mayor eficiencia Nuestro equipo busca un Ingeniero Senior de Data DevOps con experiencia en Azure para liderar la mejora y el mantenimiento de nuestra infraestructura y flujos de trabajo de datos. Diseñará, implementará y gestionará soluciones de datos escalables en la plataforma en la nube Azure, colaborando estrechamente con ingenieros de datos y equipos interdepartamentales para garantizar la solidez y eficiencia de las canalizaciones de datos. Si le apasiona la infraestructura de datos, ¡postúlese para unirse a nosotros! **Responsabilidades** * Planificar, desplegar y gestionar la infraestructura de datos mediante herramientas de Azure, incluidas ADLSv2, Databricks, Synapse y Data Factory * Coordinarse con equipos de ingeniería de datos para desarrollar y mantener canalizaciones y flujos de trabajo de datos eficaces * Utilizar Python para automatizar procesos de datos y lograr mayor eficiencia y fiabilidad * Establecer y apoyar canalizaciones de CI/CD mediante Jenkins, GitHub Actions o herramientas similares * Colaborar con equipos multifuncionales para mejorar la escalabilidad, la fiabilidad y el rendimiento del sistema * Desplegar y gestionar herramientas de procesamiento de datos como Apache Spark y Kafka en entornos en la nube y locales * Supervisar los sistemas de datos para identificar y abordar proactivamente los desafíos relacionados con el rendimiento y la escalabilidad * Solucionar problemas complejos en plataformas de datos y entornos de canalizaciones **Requisitos** * 3\+ años de experiencia relevante en Ingeniería de Datos o campos afines * Excelentes habilidades de programación en Python centradas en flujos de trabajo de procesamiento por lotes * Conocimientos avanzados de SQL para consultar y gestionar grandes conjuntos de datos * Competencia sólida en servicios en la nube de Azure para la gestión de infraestructuras de datos * Experiencia con herramientas de Infraestructura como Código (IaC), tales como Ansible, Terraform o CloudFormation * Capacidad comprobada para configurar y gestionar canalizaciones de CI/CD mediante Jenkins, GitHub Actions o herramientas similares * Conocimientos prácticos de herramientas de gestión de datos como Spark, Airflow o R * Amplios conocimientos de Linux, incluidos scripting y administración de sistemas * Buen conocimiento de protocolos de red como TCP, UDP, ICMP, DHCP, DNS y NAT * Dominio del inglés a nivel B2\+ tanto oral como escrito **Deseable** * Experiencia en otras plataformas en la nube como AWS o GCP * Conocimientos de Kubernetes para gestionar flujos de trabajo de datos contenerizados * Comprensión de herramientas de supervisión y observabilidad como Prometheus, Grafana o Azure Monitor * Exposición a tecnologías Big Data y flujos de trabajo avanzados de análisis * Experiencia en prácticas de seguridad y gobernanza de datos en la nube


