Salario negociable
LVIS
Palo Alto, CA, USA
Descripción de la empresa LVIS, a través de nuestras avanzadas herramientas de análisis de redes cerebrales, proporciona visualización en tiempo real para innovar en la forma en que se diagnostican y tratan las enfermedades neurológicas. LVIS es líder en tecnologías de vanguardia para el análisis de información neural que pueden descifrar redes cerebrales y encontrar curas para enfermedades neurológicas. LVIS posee tecnologías patentadas y nuestro equipo incluye líderes con una sólida experiencia en neurociencia e ingeniería procedentes de la Universidad de Stanford. LVIS ha sido seleccionada para formar parte de la comunidad Stanford StartX y del programa NVIDIA Inception. Contamos con un equipo internacional, con sede principal en Palo Alto, California, EE. UU., y una oficina en Gangnam, Seúl, Corea del Sur. Estamos buscando personas talentosas que se unan a nosotros para transformar la industria de la atención médica en neurología. LVIS ofrece un entorno en el que se espera que todos crezcan junto con la empresa. Buscamos miembros del equipo autónomos que estén a la vanguardia de la tecnología. Responsabilidades Desarrollar y mantener APIs: Desplegar modelos de aprendizaje automático como APIs y construir servicios de API escalables. Optimizar cargas de trabajo de aprendizaje automático en la nube: Mejorar el rendimiento y la eficiencia de costos de los modelos de ML en AWS. Garantizar la estabilidad operativa: Diseñar e implementar sistemas de procesamiento de datos en tiempo real, registro, supervisión y seguimiento del rendimiento de modelos. Desplegar modelos de ML en entornos reales: Asegurar el despliegue confiable y la gestión de modelos de ML y la deriva de datos en producción. Utilizar GPU y clústeres de GPU: Configurar y optimizar entornos basados en GPU para el entrenamiento e inferencia de modelos (en la nube y en instalaciones propias). Construir canalizaciones MLOps en AWS y Kubernetes: Desplegar y gestionar flujos de trabajo de ML en contenedores en entornos Kubernetes. Requisitos mínimos Título universitario o superior en Ciencias de la Computación, Ciencia de Datos, Inteligencia Artificial o campos relacionados. Más de 5 años de experiencia en MLOps o Ingeniería de ML. Experiencia con lenguajes y frameworks de programación relacionados con ML (Python, PyTorch, TensorFlow, etc.). Experiencia desplegando y gestionando modelos de ML utilizando herramientas como MLflow, TensorFlow Serving o TorchServe. Experiencia práctica con AWS. Dominio en la gestión y orquestación de contenedores usando Kubernetes y Docker. Experiencia en entrenamiento y optimización de modelos basados en GPU. Experiencia en la construcción de canalizaciones de procesamiento de datos a gran escala (Airflow, Kafka, etc.). Requisitos deseables Experiencia práctica con canalizaciones CI/CD (Jenkins, ArgoCD, etc.). Experiencia en el servicio de modelos de IA a gran escala. Conocimientos en transmisión de datos en tiempo real y procesamiento por lotes. Experiencia preferiblemente en DevOps junto con MLOps.