




Resumen: Únase a un equipo de datos como Ingeniero Senior de DevOps para Datos, centrado en el diseño de infraestructura de datos en la nube, automatización y optimización de sistemas en Google Cloud Platform. Aspectos destacados: 1. Avance su carrera trabajando con tecnologías innovadoras de datos en la nube 2. Construya infraestructura de datos en la nube utilizando servicios de GCP como DataFlow y GCS 3. Implemente soluciones de Infraestructura como Código (IaC) utilizando Terraform Estamos contratando a un Ingeniero Senior de DevOps para Datos con experiencia en Google Cloud Platform para unirse a nuestro equipo de datos en expansión. Usted será responsable del diseño de infraestructura de datos en la nube, la automatización y la optimización de sistemas. Únase a nosotros para avanzar en su carrera trabajando con tecnologías innovadoras de datos en la nube. **Responsabilidades** * Construir infraestructura de datos en la nube utilizando servicios de GCP como DataFlow, GCS y Cloud Composer * Implementar soluciones de Infraestructura como Código (IaC) utilizando Terraform para automatizar despliegues y monitoreo * Colaborar con ingenieros de datos para desarrollar flujos de trabajo eficientes basados en Python * Configurar canalizaciones CI/CD con Jenkins, GitLab CI o GitHub Actions para despliegues confiables * Mejorar el rendimiento y la disponibilidad de las plataformas de datos colaborando con los equipos correspondientes * Gestionar herramientas de datos en la nube como Apache Spark, Kafka y Apache Airflow * Identificar y resolver problemas de confiabilidad y escalabilidad en los sistemas de datos en la nube **Requisitos** * 3 años o más de experiencia en entornos en la nube de GCP, incluidos BigQuery, Cloud Composer y Dataproc * Conocimientos sólidos en Python y SQL para operaciones de canalizaciones de datos * Conocimiento de herramientas de Infraestructura como Código (IaC), como Terraform o CloudFormation * Experiencia integrando canalizaciones CI/CD mediante Jenkins, GitHub Actions o GitLab CI * Experiencia previa con sistemas operativos Linux y scripting en shell * Comprensión de protocolos de red, incluidos TCP/IP, DNS y NAT * Competencia con Apache Spark, Apache Airflow o la pila ELK **Deseable** * Experiencia con servicios en la nube de AWS o Azure, tales como ECS, S3, Data Lake o Synapse * Capacidad para trabajar con otras herramientas de IaC, como Ansible * Experiencia demostrada con otras herramientas adicionales de automatización de flujos de trabajo de datos


