




Resumen: Se busca un Arquitecto/Analista Senior de Datos con sólidas habilidades para resolver problemas y experiencia práctica en el diseño y soporte de sistemas OLTP y OLAP. Aspectos destacados: 1. Liderar la modelación de datos para sistemas OLTP y OLAP/EDW con entrega práctica. 2. Aplicar las mejores prácticas de modelación empresarial: Kimball, Medallion y 3NF. 3. Oportunidad de aprovechar herramientas de IA para mejorar la productividad y el análisis. Buscamos un Arquitecto/Analista de Datos de nivel senior con experiencia demostrada en resolución de problemas y experiencia práctica en el diseño, análisis y soporte de sistemas OLTP y OLAP. **Requisitos** **Experiencia** **Experiencia como Analista de Datos (obligatoria):** * **Experiencia práctica reciente** en un puesto de **Analista de Datos (DA)** (actual o inmediatamente anterior), realizando **modelación de datos** para **OLTP** y **OLAP/EDW**, mapeos de origen a destino y redacción de reglas complejas de transformación. * Responsabilidades centrales en la entrega de proyectos DA. Capacidad multi‑funcional (obligatoria): * Rol principal como Analista de Datos (DA): modelación de datos, mapeo, perfilado y documentación. * Mentalidad de Analista de Negocios (BA): recolección, aclaración y documentación de requisitos comerciales y técnicos directamente con los interesados, según sea necesario. * Mentalidad de Gerente de Proyectos: planificación, organización y seguimiento del propio trabajo técnico cuando no se asigna formalmente un PM. * Buscar ejemplos de entregables y cronogramas gestionados de forma independiente. **Disponibilidad y expectativas laborales** (no negociables): * **Zona horaria requerida**: Hora Central. Expectativas para contratistas (obligatorias): * Este puesto requiere entrega práctica, no trabajo asesor o consultivo. * Capacidad para asumir responsabilidad integral sobre los resultados. **Habilidades sólidas de comunicación y resolución de problemas** (obligatorias): * Comunicación escrita y verbal clara y profesional en **inglés**. * Capacidad para explicar conceptos técnicos complejos tanto a partes interesadas técnicas como no técnicas. * Evaluar ejemplos de documentación, interacción con interesados o comunicación entre equipos. * Capacidad para analizar problemas ambiguos o complejos. * Identificar y documentar la causa raíz. * Proponer y ejecutar soluciones viables y prácticas. * Buscar ejemplos reales de solución de problemas o resolución de incidencias. **Modelación y arquitectura de datos (obligatorias)** Experiencia diseñando y manteniendo **modelos físicos de datos**, traduciendo requisitos comerciales en soluciones escalables. Conocimiento práctico de las **mejores prácticas de modelación empresarial** aplicadas a **EDW** y **OLTP**, incluyendo: * Modelación dimensional Kimball. * Arquitectura Medallion. * Modelos transaccionales normalizados (3NF). Conocimientos sólidos de modelación **OLTP**, incluidas las tablas temporales de **SQL Server**. Comprensión operativa de **XML** y **XSD**, incluyendo: * Diferencias entre XSD y XML. * Modelos de datos canónicos y diseño de esquemas. Experiencia en Ejecución Rápida con Fallo Temprano (obligatoria), familiarizado con avanzar mediante soluciones iniciales, realizar pruebas tempranas, identificar problemas rápidamente y cambiar de dirección sin demora, en lugar de esperar requisitos o diseños perfectos. **Experiencia en ingeniería y plataformas de datos** Experiencia práctica con plataformas de datos en la nube y empresariales, incluyendo: * **Azure**, **Microsoft Fabric** (preferido), AWS (aceptable). * SQL Server, Oracle. * Azure Synapse, arquitecturas Lakehouse. Experiencia implementando estrategias de distribución y partición de datos, incluyendo: * Distribución de datos en Azure Synapse. * Particionamiento en Delta Lake. Experiencia realizando perfilado de datos para evaluar calidad, estructura y preparación para análisis. * Experiencia de nivel senior en **SQL**, incluyendo: + **T‑SQL** y PL/SQL. + Creación de **DDL/DML**. + Capacidad para crear y solucionar problemas en procedimientos almacenados, vistas y funciones. Experiencia comprobada en: * Optimización del rendimiento de consultas. * Validación de datos. * Garantía de precisión, integridad y confiabilidad de los conjuntos de datos. **Responsabilidades de gobernanza de datos (obligatorias)** Experiencia asegurando que los datos para análisis e informes cumplan con los estándares de gobernanza de datos, incluyendo: * Calidad de los datos. * Metadatos y documentación. * Consideraciones de privacidad y seguridad. Experiencia actuando como custodio técnico de datos para dominios asignados mediante: * Definición y mantenimiento de definiciones fiables de datos. * Colaboración con equipos comerciales y técnicos en métricas y reglas de negocio. **CI/CD y control de versiones (preferible)** Experiencia utilizando GitHub para el control de versiones de SQL y código, con comprensión de: * Estrategias de ramificación y fusión. * Enfoques de despliegue CI/CD para objetos de base de datos entre entornos. **Herramientas y tecnologías (preferible tener experiencia práctica)** Herramientas de modelación de datos: * Erwin (preferido). * ER/Studio o equivalente aceptado. Herramientas de desarrollo (preferibles): * Visual Studio Code. * XMLSpy. Mapeo de origen a destino: * Erwin DI Suite / Erwin Mapping Manager (preferido). * Mapeos basados en Excel (aceptables). Programación: * Python (conocimiento práctico obligatorio). **Ciclo de vida del desarrollo de software (SDLC) y metodologías de entrega** Experiencia trabajando con: * Modelo en cascada (Waterfall). * Metodologías ágiles / SCRUM. * Modelos de entrega basados en sprints. **Prácticas de IA y análisis moderno (deseable, ventaja significativa)** Experiencia aplicando activamente herramientas de IA en el trabajo diario para: * Generar u optimizar SQL/Python. * Acelerar el análisis. * Mejorar la documentación. * Apoyar tareas de calidad y gobernanza de datos. * Buscar usos prácticos centrados en la productividad (no solo experimentación). **Antecedentes de desarrollo (preferible)** Experiencia práctica en desarrollo en plataformas de datos en la nube, incluyendo: * Pipelines. * Cuadernos Pyspark. * Azure Data Factory. \#LI\-Remote \#Latam \#DataArchitect \#DataAnalyst \#DataModeling


