




Resumen del Puesto: Diseñar, desarrollar y mantener canalizaciones de datos escalables basadas en Kafka y aplicaciones orientadas a eventos, colaborando con equipos y solucionando problemas críticos. Puntos Destacados: 1. Diseño y desarrollo de canalizaciones de datos escalables con Kafka. 2. Colaboración con ingenieros de datos, DevOps y software. 3. Solución de problemas críticos de Kafka y análisis profundo. * Diseñar, desarrollar y mantener canalizaciones de datos escalables basadas en Kafka y aplicaciones orientadas a eventos (productores/consumidores). * Implementar y gestionar conectores Kafka (JDBC, S3, etc.) para la integración de datos. * Trabaja con flujos Kafka, temas, esquemas y particiones. * Integrar Kafka con otros sistemas (bases de datos, servicios en la nube, Spark). * Escribe código en Java, Scala o Python para procesamiento de datos. * Colaborar con ingenieros de datos, DevOps e ingenieros de software. * Desarrollar monitorización/alerta para la infraestructura Kafka. * Solucionar problemas críticos y complejos de Kafka (L3/Tier 3\). * Realizar análisis profundos para detectar fallos en el servicio e incidentes recurrentes. * Utiliza herramientas como Splunk, Grafana, JMX para la salud y observabilidad del sistema. * Desplegar, configurar y mantener clústeres Kafka altamente disponibles. * Implementar las mejores prácticas de seguridad (SSL, Kerberos, Ranger). Tipo de puesto: Tiempo completo Sueldo: $45,000\.00 al mes Pregunta(s) de postulación: * Nivel de ingles * Disponibilidad de modalidad hibrida Experiencia: * Apache Kafka: 1 año (Deseable) Lugar de trabajo: remoto híbrido en Ciudad de México


