




**¡Sé parte de Stefanini!** En Stefanini somos más de 30\.000 genios, conectados desde 40 países, haciendo lo que les apasiona y co\-creando un futuro mejor. ¡Seguro no te quieres quedar fuera! El **Data Engineer** es responsable de diseñar, desarrollar y mantener procesos de integración y transformación de datos (ETL), asegurando la calidad, disponibilidad e integridad de la información dentro de la organización. Trabaja en la implementación y optimización de pipelines de datos en plataformas modernas, permitiendo el análisis avanzado, la minería de datos y el desarrollo de reportes y dashboards para los usuarios de negocio y analítica. Colabora estrechamente con otros equipos para garantizar que los datos sean accesibles y confiables a lo largo de todo su ciclo de vida. **Responsabilidades y atribuciones** * Diseñar, desarrollar y mantener procesos de integración y transformación de datos (ETL) utilizando Python. * Implementar y optimizar pipelines de datos en plataformas como Cloudera y Snowflake para asegurar el flujo eficiente de información. * Administrar y transformar grandes volúmenes de datos alojados en Data Lakes, habilitando su uso en reportes, dashboards y análisis avanzados. * Desarrollar y optimizar consultas SQL de alto rendimiento para extracción, manipulación y modelado de datos. * Colaborar con equipos de negocio y analítica para habilitar proyectos de minería de datos y soluciones de analítica avanzada. * Velar por la calidad, disponibilidad e integridad de los datos a lo largo de su ciclo de vida. * Proponer y ejecutar mejoras continuas en los procesos y arquitecturas de datos existentes. **Requisitos y calificaciones** * De 3 a 5 años de experiencia comprobable en ingeniería de datos o posiciones similares. * Capacidad analítica y orientación a la resolución de problemas. * Comunicación efectiva tanto con equipos técnicos como con áreas de negocio. * Autonomía y proactividad para proponer mejoras en procesos y flujos de datos. * Capacidad de trabajo en equipo multidisciplinario y bajo modalidad remota/híbrida. * Dominio en el desarrollo de procesos ETL utilizando Python. * Experiencia en la gestión y optimización de pipelines de datos en plataformas como Cloudera y Snowflake. * Fuertes conocimientos en manejo de grandes volúmenes de datos en Data Lakes. * Sólida experiencia en el uso de SQL para diseño de consultas complejas, tuning, y modelado relacional. * Experiencia en desarrollo de stored procedures, optimización de queries y modelado de datos en Snowflake ( será muy valorada). * Deseable: conocimientos básicos de Hadoop, Hive y Spark. * Deseable: conocimientos en analítica avanzada. **Informaciones adicionales** ¿Buscas un lugar donde tus ideas brillen? Con más de 38 años y una presencia global, en Stefanini transformamos el mañana juntos. Aquí, cada acción cuenta y cada idea puede marcar la diferencia. Únete a un equipo que valora la innovación, el respeto y el compromiso. Si eres una persona disruptiva, te mantienes en aprendizaje continuo y la innovación está en tu ADN, entonces somos lo que buscas. ¡Ven y construyamos juntos un futuro mejor!


