Salario negociable
LVIS
Palo Alto, CA, USA
Descripción de la empresa LVIS, a través de nuestras avanzadas herramientas de análisis de redes cerebrales, proporciona Visualización en Tiempo Real para innovar en la forma en que se diagnostican y tratan las enfermedades neurológicas. LVIS es líder en tecnologías de vanguardia de análisis de información neural que pueden descifrar redes cerebrales y encontrar curas para enfermedades neurológicas. LVIS posee tecnologías patentadas y nuestro equipo incluye líderes con amplia experiencia en neurociencia e ingeniería de la Universidad de Stanford. LVIS ha sido seleccionada como miembro de la comunidad Stanford StartX y del programa NVIDIA Inception. Contamos con un equipo internacional con sede principal en Palo Alto, California, EE. UU., y una oficina en Gangnam, Seúl, Corea del Sur. Estamos buscando personas talentosas que se unan a nosotros para transformar la industria de la atención médica en neurología. LVIS ofrece un entorno en el que se espera que todos crezcan junto con la empresa. Buscamos miembros autónomos y motivados que estén a la vanguardia de la tecnología. Responsabilidades Desarrollar y mantener APIs: Desplegar modelos de aprendizaje automático como APIs y construir servicios de API escalables. Optimizar cargas de trabajo de aprendizaje automático en la nube: Mejorar el rendimiento y la eficiencia en costos de los modelos de ML en AWS. Garantizar la estabilidad operativa: Diseñar e implementar sistemas de procesamiento de datos en tiempo real, registro, monitoreo y seguimiento del rendimiento de modelos. Desplegar modelos de ML en entornos reales: Asegurar el despliegue confiable y la gestión de modelos de ML y la deriva de datos en producción. Utilizar GPU y clústeres de GPU: Configurar y optimizar entornos basados en GPU para entrenamiento e inferencia de modelos (en la nube y en instalaciones propias). Construir pipelines de MLOps en AWS y Kubernetes: Desplegar y gestionar flujos de trabajo de ML en contenedores en entornos Kubernetes. Cualificaciones básicas Título universitario o superior en Ciencias de la Computación, Ciencia de Datos, Inteligencia Artificial o campos relacionados. 5 o más años de experiencia en MLOps o Ingeniería de ML. Experiencia con lenguajes y frameworks de programación relacionados con ML (Python, PyTorch, TensorFlow, etc.) Experiencia desplegando y gestionando modelos de ML utilizando herramientas como MLflow, TensorFlow Serving o TorchServe. Experiencia práctica con AWS. Competencia en la gestión y orquestación de contenedores usando Kubernetes y Docker. Experiencia con entrenamiento y optimización de modelos basados en GPU. Experiencia construyendo pipelines de procesamiento de datos a gran escala (Airflow, Kafka, etc.). Cualificaciones preferidas Experiencia práctica con pipelines de CI/CD (Jenkins, ArgoCD, etc.). Experiencia en el servicio de modelos de IA a gran escala. Conocimientos sobre procesamiento de transmisión y por lotes de datos en tiempo real. Preferiblemente experiencia en DevOps junto con MLOps.