Salario negociable
Qode
California, USA
Ingeniero Senior de Aprendizaje Automático - Seguridad y Evaluación de IA Ubicación: Sanjose CA /Presencial Acerca del equipo Estamos construyendo un futuro en el que los sistemas de inteligencia artificial no solo sean potentes, sino también seguros, alineados y robustos frente al mal uso. Nuestro equipo se enfoca en avanzar técnicas prácticas de seguridad para modelos de lenguaje grandes (LLMs) y sistemas multimodales, asegurando que estos modelos mantengan su alineación con la intención humana y resistan intentos de generar contenido dañino, tóxico o que viole políticas. Operamos en la intersección entre el desarrollo de modelos y su implementación en el mundo real, con la misión de construir sistemas capaces de detectar y prevenir proactivamente jailbreaks, comportamientos tóxicos y otras formas de mal uso. Nuestro trabajo combina investigación aplicada, ingeniería de sistemas y diseño de evaluaciones para garantizar que la seguridad esté integrada en todos los niveles de nuestros modelos. Acerca del puesto Buscamos a un Ingeniero Senior para ayudarnos a liderar nuestros esfuerzos en el diseño, construcción y evaluación de mecanismos de seguridad de próxima generación para modelos fundamentales. Dirigirá a un equipo de ingenieros de investigación centrado en escalar intervenciones de seguridad, desarrollar herramientas para pruebas de ataque (red teaming) e inspección de modelos, y diseñar evaluaciones robustas que sometan a prueba los modelos en escenarios realistas de amenazas. Sus responsabilidades Liderar el desarrollo de defensas de seguridad a nivel de modelo para mitigar jailbreaks, inyección de prompts y otras formas de salidas inseguras o no conformes Diseñar y desarrollar tuberías de evaluación para detectar casos límite, regresiones y vulnerabilidades emergentes en el comportamiento de los LLMs Contribuir al diseño y ejecución de flujos de trabajo de pruebas adversarias y equipos de ataque (red teaming) para identificar brechas de seguridad en los modelos Apoyar flujos de trabajo de ajuste fino, lógica de pre/procesamiento y técnicas de filtrado para garantizar la seguridad en modelos desplegados Colaborar con equipos de ataque y investigadores para transformar amenazas emergentes en casos de evaluación comprobables e indicadores de riesgo medibles Mantenerse actualizado sobre la investigación en seguridad de LLMs, tácticas de jailbreak y tendencias en prompts adversarios, y ayudar a traducirlos en defensas prácticas para productos reales Requisitos Experiencia de 5 o más años en sistemas de aprendizaje automático o inteligencia artificial, con al menos 2 años en un rol de liderazgo técnico Experiencia integrando intervenciones de seguridad en flujos de trabajo de implementación de ML (por ejemplo, servidores de inferencia, capas de filtrado, etc.) Buen entendimiento de modelos basados en transformadores y experiencia en seguridad, robustez o interpretabilidad de LLMs Sólida formación en la evaluación del comportamiento del modelo, especialmente en escenarios adversarios o casos límite Excelentes habilidades comunicativas y capacidad para promover el alineamiento entre equipos diversos Título universitario, maestría o doctorado en Ciencias de la Computación, Aprendizaje Automático o campo relacionado