




Resumen: Buscamos un Ingeniero Senior de Data DevOps con experiencia en Azure para liderar la mejora de la infraestructura de datos, diseñar soluciones de datos escalables y optimizar las tuberías de datos. Aspectos destacados: 1. Liderar la mejora y el mantenimiento de la infraestructura y los flujos de trabajo de datos 2. Diseñar, implementar y gestionar soluciones de datos escalables en Azure 3. Colaborar con equipos de datos y equipos interdepartamentales para crear tuberías de datos robustas Nuestro equipo busca un Ingeniero Senior de Data DevOps con experiencia en Azure para liderar la mejora y el mantenimiento de nuestra infraestructura y flujos de trabajo de datos. Diseñará, implementará y gestionará soluciones de datos escalables en la plataforma en la nube Azure, colaborando estrechamente con ingenieros de datos y equipos interdepartamentales para garantizar la solidez y eficiencia de las tuberías de datos. Si le apasiona la infraestructura de datos, ¡postúlese para unirse a nosotros! **Responsabilidades** * Planificar, desplegar y gestionar la infraestructura de datos mediante herramientas de Azure, incluidas ADLSv2, Databricks, Synapse y Data Factory * Coordinarse con equipos de ingeniería de datos para desarrollar y mantener tuberías y flujos de trabajo de datos eficaces * Utilizar Python para automatizar procesos de datos y aumentar su eficiencia y fiabilidad * Establecer y respaldar tuberías de CI/CD mediante Jenkins, GitHub Actions o herramientas similares * Colaborar con equipos multifuncionales para mejorar la escalabilidad, fiabilidad y rendimiento de los sistemas * Desplegar y gestionar herramientas de procesamiento de datos como Apache Spark y Kafka en entornos en la nube y locales * Supervisar los sistemas de datos para identificar y abordar proactivamente los desafíos de rendimiento y escalabilidad * Solucionar problemas complejos en plataformas de datos y entornos de tuberías de datos **Requisitos** * 3 años o más de experiencia relevante en Ingeniería de Datos o campos afines * Excelentes habilidades de programación en Python centradas en flujos de trabajo de procesamiento por lotes * Conocimientos avanzados de SQL para consultar y gestionar grandes conjuntos de datos * Competencia en servicios en la nube de Azure para la gestión de infraestructura de datos * Experiencia con herramientas de Infraestructura como Código (IaC), tales como Ansible, Terraform o CloudFormation * Capacidad demostrada para configurar y gestionar tuberías de CI/CD mediante Jenkins, GitHub Actions o herramientas similares * Conocimiento de herramientas de gestión de datos como Spark, Airflow o R * Amplios conocimientos de Linux, incluidos scripting y administración de sistemas * Buen conocimiento de protocolos de red como TCP, UDP, ICMP, DHCP, DNS y NAT * Dominio del inglés al nivel B2 o superior, tanto escrito como hablado **Deseable** * Experiencia con otras plataformas en la nube, como AWS o GCP * Conocimientos de Kubernetes para gestionar flujos de trabajo de datos contenerizados * Comprensión de herramientas de supervisión y observabilidad como Prometheus, Grafana o Azure Monitor * Exposición a tecnologías Big Data y flujos de trabajo de análisis avanzado * Experiencia en prácticas de seguridad y gobernanza de datos en la nube


