




**RESUMEN**El analista programador permitirá el análisis de marketing mediante la construcción y mantenimiento de nuestra base de datos en Google Cloud. Transformará fuentes externas y fuentes internas en conjuntos de datos y vistas confiables en BigQuery, ejecutará trabajos programados y mantendrá actualizada la documentación, la supervisión y las alertas. Colaborará con los equipos de Marketing y TI para convertir preguntas comerciales en planes técnicos, respaldar modelos y paneles de Looker, y facilitar que los datos sean fáciles de encontrar, confiables y reutilizables en toda la organización. Ayudará a consolidar identificadores y eventos de clientes procedentes de múltiples sistemas, conciliar claves, definir reglas de actualización y mantener perfiles actualizados que respalden la activación y la medición. Las actividades fundamentales incluyen escribir SQL en BigQuery, diseñar tablas y vistas teniendo en cuenta el rendimiento y la facilidad de uso, implementar controles de calidad de los datos y aplicar controles de acceso adecuados para datos sensibles. Este puesto valora la comunicación clara, la responsabilidad sobre los resultados y un enfoque constante en la fiabilidad y la facilidad de uso. Se prefiere firmemente la familiaridad con herramientas modernas de inteligencia artificial para desarrollo y uso general. **RESPONSABILIDADES** * Construir y mantener canalizaciones ELT en Google Cloud que reciban, transformen y publiquen datos en BigQuery procedentes de sistemas internos y fuentes externas mediante Cloud Storage, consultas programadas y trabajos ligeros sin servidor con Cloud Scheduler y Cloud Functions o Cloud Run. * Diseñar y documentar conjuntos de datos, tablas y vistas que respalden casos de uso analíticos en marketing, incluyendo una nomenclatura clara, particionamiento y agrupamiento, así como consideraciones de rendimiento. * Contribuir a Looker mediante la adición o mejora de modelos LookML, dimensiones, métricas y exploraciones (Explores), y manteniendo paneles con configuraciones razonables de actualización y rendimiento. * Implementar controles de calidad de los datos y alertas básicas sobre la salud de las canalizaciones y la integridad de los datos. Mantener manuales operativos (runbooks) y responder a incidencias con correcciones oportunas y una comunicación clara. * Colaborar con los equipos de Marketing y TI para traducir requisitos en tareas técnicas, proponer diseños de soluciones sencillas, estimar esfuerzos y supervisar la entrega. * Integrar identificadores y eventos procedentes de múltiples sistemas, alineando esquemas y claves, definiendo reglas de actualización y fusión, y manteniendo perfiles actualizados para satisfacer las necesidades de activación y medición. * Aplicar prácticas de seguridad y gobernanza de datos, incluyendo el principio de mínimo privilegio en IAM, el manejo cuidadoso de información personal identificable (PII) y una documentación clara sobre la trazabilidad y los supuestos. * Utilizar asistentes de inteligencia artificial modernos cuando sea apropiado para acelerar tareas rutinarias, como redactar sentencias SQL, documentar cambios o generar pruebas. **REQUISITOS** * **Título académico:** Licenciatura en Ciencias de la Computación, Sistemas de Información, Ingeniería, Estadística o experiencia práctica equivalente obtenida mediante pasantías, proyectos finales o proyectos personales. * **Años de experiencia:** De 0 a 2 años en ingeniería de datos, ingeniería analítica o inteligencia empresarial. * **Habilidades técnicas requeridas:** **\-** SQL en BigQuery, incluidos joins, funciones ventana, expresiones de tabla común (CTE) y nociones básicas de rendimiento. **\-** Conceptos fundamentales de Google Cloud para trabajo con datos, incluidos BigQuery, Cloud Storage, nociones básicas de IAM y programación mediante Cloud Scheduler. **\-** Control de versiones con Git y GitHub, incluyendo ramificación y solicitudes de extracción (pull requests). **\-** Conceptos de modelado de datos que apoyen el análisis, incluidos los patrones en estrella (star) o copo de nieve (snowflake) y un diseño pragmático de tablas. * **Habilidades preferidas:** **\-** Looker y LookML para modelado semántico y paneles. **\-** Dataform o dbt para orquestación y pruebas de ELT. **\-** Conocimientos básicos de Airflow o Cloud Composer. **\-** Python u otro lenguaje similar para utilidades, integraciones con API o controles de calidad de los datos. **\-** Experiencia trabajando con REST y JSON para alimentaciones de datos de proveedores. **\-** Experiencia utilizando asistentes de inteligencia artificial para codificación y documentación, e interés en Vertex AI. * **Otros:** Dominio del inglés (hablado y escrito)


