




Resumen: Como Ingeniero de Datos en la Nube, usted construirá y apoyará soluciones de ingeniería de datos, creará canalizaciones de datos, apoyará proyectos de data lake y desarrollará paneles de control para informes. Aspectos destacados: 1. Construir y apoyar soluciones de ingeniería de datos para clientes 2. Definir e implementar flujos de trabajo y procesos escalables 3. Colaborar con múltiples equipos en un entorno dinámico **Ingeniero de Datos en la Nube** **Ubicación:** México (Ciudad de México, Guadalajara, Monterrey) – Modalidad híbrida según la política de Infosys México **Zona horaria:** CST/EST **Descripción general del puesto** Como Ingeniero en la Nube, trabajará directamente con los clientes para construir y apoyar soluciones de ingeniería de datos. Su labor incluirá la creación de canalizaciones de datos, el apoyo a proyectos de data lake, el desarrollo de paneles de control para informes y la definición e implementación de flujos de trabajo escalables. Este puesto exige sólidas habilidades prácticas en Python y SQL, así como experiencia previa en una plataforma en la nube (preferentemente AWS), con énfasis en la entrega de sistemas de datos confiables y escalables basados en la nube. Colaborará con múltiples equipos y contribuirá a garantizar que los procesos de datos funcionen de forma fluida y eficiente. **Responsabilidades clave** * Construir y mantener canalizaciones de datos para las necesidades de ingeniería/ciencia de datos del cliente. * Trabajar en el desarrollo de data lake y otras iniciativas relacionadas con la nube. * Crear paneles de control y apoyar los requisitos de informes ejecutivos. * Definir e implementar diseños de flujos de trabajo y procesos. * Trabajar estrechamente con los clientes para comprender sus requisitos y entregar soluciones. * Colaborar con equipos multifuncionales en un entorno dinámico. * Diagnosticar problemas y contribuir a mejorar la calidad de los datos y el rendimiento del sistema. **Cualificaciones básicas** * Título universitario o equivalente extranjero en Estadística, Ciencias de la Computación, Matemáticas o campo afín. * Al menos 7 años de experiencia en Tecnologías de la Información desarrollando canalizaciones de datos. * **Bilingüe (español e inglés)** – excelente comunicación verbal y escrita. **Habilidades obligatorias** * Mínimo 5 años de experiencia práctica con **Python** y **SQL y PL/SQL**. * Mínimo 3 años de experiencia práctica con una plataforma en la nube (preferentemente AWS) * Sólida comprensión de los **conceptos ETL** y del procesamiento de datos. * Experiencia en entornos dinámicos con metodología ágil Scrum utilizando JIRA **Habilidades preferentes** * Conocimientos de tecnologías Big Data (Hadoop, Python/Scala/Spark/PySpark). * Experiencia con herramientas de programación como Airflow (MWAA), Control-M o Tidal * Experiencia con AWS Redshift, Snowflake o Azure Synapse. * Experiencia en implementación de almacenes de datos a gran escala y uso de técnicas ETL. * Experiencia con plataformas CI/CD como Gitlab, Bitbucket y tuberías de despliegue * Conocimientos de scripting en shell Unix. **Otros requisitos** * Capacidad para trabajar bajo plazos ajustados y gestionar requisitos complejos. * Disponibilidad para trabajar en las zonas horarias CST/EST y participar en actividades de traspaso al equipo de India, si fuera necesario. * Persona autónoma, proactiva y con fuerte espíritu de equipo.


