




Resumen: Buscamos un Ingeniero Senior de Data DevOps (Azure) experimentado para diseñar, implementar y gestionar soluciones de datos escalables, garantizando canalizaciones de datos eficientes, fiabilidad y rendimiento. Aspectos destacados: 1. Diseñar y gestionar soluciones de datos escalables en entorno en la nube de Azure 2. Automatizar procesos de datos mediante Python para mejorar la eficiencia y la fiabilidad 3. Colaborar con equipos de ingeniería de datos y equipos multifuncionales Buscamos un **Ingeniero Senior de Data DevOps (Azure)** experimentado para unirse a nuestro equipo y desempeñar un papel fundamental en la construcción y optimización de la infraestructura y los flujos de trabajo de datos. En este puesto, usted diseñará, implementará y gestionará soluciones de datos escalables en el entorno en la nube de Azure. Trabajará estrechamente con los equipos de ingeniería de datos y equipos multifuncionales para garantizar canalizaciones de datos eficientes, fiabilidad del sistema y optimización del rendimiento. **Responsabilidades** * Diseñar, implementar y gestionar infraestructura de datos mediante servicios de Azure, incluidos Data Lake (ADLSv2), Databricks, Synapse y Data Factory * Colaborar con el equipo de ingeniería de datos para construir y mantener flujos de trabajo y canalizaciones de datos eficientes * Automatizar procesos de datos mediante Python para mejorar la eficiencia y la fiabilidad * Configurar y gestionar canalizaciones de CI/CD mediante herramientas como Jenkins, GitHub Actions o plataformas similares * Trabajar con equipos multifuncionales para mejorar el rendimiento, la escalabilidad y la fiabilidad de los sistemas de datos * Instalar, configurar y mantener herramientas de datos como Apache Spark y Apache Kafka tanto en entornos en la nube como locales * Supervisar los sistemas de datos para identificar y resolver proactivamente problemas de rendimiento y escalabilidad * Diagnosticar y resolver problemas complejos en las plataformas y canalizaciones de datos **Requisitos** * Al menos 3 años de experiencia en ingeniería de datos o puestos relacionados * Amplia experiencia en programación con Python y en flujos de trabajo de procesamiento por lotes * Competencia avanzada en SQL para la gestión y consulta de grandes conjuntos de datos * Experiencia avanzada en el uso de servicios en la nube de Azure para la gestión de infraestructura de datos * Experiencia práctica con herramientas de Infraestructura como Código (IaC), como Ansible, Terraform o CloudFormation * Capacidad comprobada para configurar y gestionar canalizaciones de CI/CD mediante herramientas como Jenkins o GitHub Actions * Experiencia práctica con herramientas de datos como Spark, Airflow o R para el procesamiento de datos y la gestión de flujos de trabajo * Conocimientos avanzados de sistemas operativos Linux, incluidos scripting y administración del sistema * Comprensión sólida de protocolos y mecanismos de red, incluidos TCP, UDP, ICMP, DHCP, DNS y NAT * Habilidad fluida para comunicarse en inglés, tanto escrito como hablado, nivel B2 o superior **Deseable** * Familiaridad con otras plataformas en la nube, como AWS o GCP * Experiencia con herramientas de orquestación de contenedores como Kubernetes para la gestión de flujos de trabajo de datos * Conocimientos sobre herramientas de supervisión y observabilidad, como Prometheus, Grafana o Azure Monitor * Exposición a tecnologías Big Data y flujos de trabajo avanzados de análisis de datos * Experiencia práctica con buenas prácticas de gobernanza y seguridad de datos en la nube


