




Resumen: NXP busca un ingeniero de optimización de IA práctico para optimizar modelos de IA de última generación, como la inteligencia artificial generativa y los transformadores, logrando su ejecución eficiente en plataformas periféricas (edge) de próxima generación. Aspectos destacados: 1. Trabajar en la vanguardia de la inteligencia artificial generativa, los transformadores y los sistemas de IA agente 2. Desarrollar tecnología central de optimización para modelos avanzados de IA en plataformas periféricas (edge) 3. Dar forma al futuro de la IA y la computación periférica (edge) junto con un equipo pionero En NXP contamos con un entorno que fomenta la innovación. Nuestro equipo incluye expertos tecnológicos que comprenden la visión general y mentores que guían a profesionales apasionados para trabajar en los desafíos más emocionantes. Compartimos responsabilidades en todo lo que hacemos, valorando cada punto de vista. ¡Únete a nosotros! **Resumen del puesto** Buscamos un ingeniero de optimización de IA práctico que destaque en la intersección entre algoritmos, ingeniería de sistemas y software de calidad productiva. Buscamos a alguien dispuesto a trabajar en el corazón de la IA de última generación, no en modelos obsoletos, sino en la vanguardia: inteligencia artificial generativa, transformadores, modelos visión-lenguaje (VLM) y la nueva ola emergente de sistemas de IA agente. En este puesto, contribuirás al desarrollo de la tecnología central de optimización que permite que estos modelos avanzados se ejecuten eficientemente en las plataformas periféricas (edge) de próxima generación de NXP, como Ara 2\. Aunque la cuantización de redes neuronales será tu principal foco, tu impacto irá mucho más allá. Diseñarás software de alto rendimiento y colaborarás con equipos de compiladores y hardware. Tu trabajo definirá directamente cómo se ejecutan los modelos de IA de vanguardia directamente en el dispositivo, permitiendo una IA generativa rápida, fiable y eficiente desde el punto de vista energético en plataformas con recursos limitados. Si deseas trabajar donde la innovación en IA se encuentra con la ingeniería práctica en el mundo real, y construir la infraestructura que defina qué podrán hacer mañana los dispositivos inteligentes, autónomos y potenciados por IA, ¡este es tu puesto! **Responsabilidades del puesto** 1\. Herramientas de optimización: Ser responsable del mantenimiento y evolución de nuestras herramientas de optimización de calidad productiva. Diseñarás e implementarás funciones de cuantización, incluidos flujos de precisión mixta lo suficientemente robustos para su despliegue global. 2\. Pipelines: Diseñar y mantener flujos escalables de PTQ (cuantización tras entrenamiento) y QAT (entrenamiento consciente de la cuantización), asegurando su integración fluida con otras optimizaciones y pilas de despliegue posteriores. 3\. Innovación aplicada y herramientas: Colaborar en pruebas de concepto (POC) para técnicas de cuantización de última generación. No te limitarás a realizar prototipos; evaluarás el impacto real en el mundo físico de ideas novedosas e ingenierizarás el "puente" que convierta experimentos exitosos en recetas de despliegue listas para producción y herramientas para desarrolladores. 4\. Rigor numérico y hardware: Aplicarás tus conocimientos matemáticos para implementar algoritmos de aproximación (estimación de rango, corrección de sesgo, plegado de BN), garantizando al mismo tiempo la exactitud bit a bit en el hardware objetivo. Cubrirás la brecha entre las matemáticas abstractas y las restricciones físicas reales, como los anchos de los acumuladores, la saturación y los comportamientos de redondeo. 5\. Rendimiento del sistema: Realizarás análisis de perfil y optimización de los "caminos críticos" (hot paths) de nuestra cadena de herramientas de optimización para cumplir objetivos estrictos de memoria y potencia computacional limitada. 6\. Liderazgo transversal: Actuarás como puente técnico entre la investigación en IA y la ingeniería de hardware, brindando orientación cuantificada sobre cómo las decisiones afectan la precisión y el rendimiento del modelo. 7\. Arquitectura de despliegue: Documentarás los compromisos algorítmicos y derivarás recetas de despliegue "de referencia", actuando como mentor técnico para otros equipos de ingeniería y asegurando que las estrategias de despliegue sean escalables y repetibles. **Cualificaciones requeridas** **Antecedentes obligatorios** * Formación académica: Maestría o doctorado (es un plus) en Ciencias de la Computación, Ingeniería Eléctrica o Matemáticas, con especialización en Aprendizaje Automático o Aprendizaje Profundo. * Programación de sistemas: Dominio de Python y C/C\+\+. Deberás sentirte cómodo gestionando la memoria y comprendiendo cómo el código se mapea al hardware (CPUs/NPUs). * Expertise en IA: Experiencia comprobada en IA/ML con buen conocimiento de arquitecturas CNN e IA generativa (transformadores). * Optimización de IA: Experiencia (o un fuerte deseo de aprender) en flujos de cuantización y resolución de regresiones de precisión. * Pila técnica: Amplia experiencia práctica con PyTorch, ONNX y otros frameworks de IA/ML. Preferible * Aceleración por hardware: Experiencia con aceleradores de hardware, análisis de perfil a nivel de dispositivo y diagnóstico de cuellos de botella de memoria. * Mentalidad embebida: Conocimiento de las restricciones de los sistemas embebidos (latencia, consumo energético, ancho de banda de memoria). * IA avanzada: Experiencia implementando técnicas de cuantización de última generación para IA generativa (por ejemplo, GPTQ, Smoothquant, etc.). * Compiladores: Conocimientos de MLIR o TVM constituyen un importante valor añadido. **Lo que obtendrás** * Formar parte de un equipo pionero que está moldeando el futuro de la IA y la computación periférica (edge). * Trabajar en proyectos innovadores que resuelven desafíos reales del mundo físico. * Oportunidad de crecer con una empresa dinámica y visionaria. * Salario competitivo, beneficios y un entorno laboral colaborativo. \#LI\-FCC3 Más información sobre NXP en México... \#LI\-fcc3


