Categorías
···
Entrar / Registro

Ingeniero de Operaciones de Aprendizaje Automático (MLOps)

Salario negociable

LVIS

Palo Alto, CA, USA

Favoritos
Compartir

Parte del contenido se ha traducido automáticamenteVer original
Descripción

Descripción de la empresa LVIS, a través de nuestras avanzadas herramientas de análisis de redes cerebrales, proporciona Visualización en Tiempo Real para innovar en la forma en que se diagnostican y tratan las enfermedades neurológicas. LVIS es líder en tecnologías de vanguardia de análisis de información neural que pueden descifrar redes cerebrales y encontrar curas para enfermedades neurológicas. LVIS posee tecnologías patentadas y nuestro equipo incluye líderes con amplia experiencia en neurociencia e ingeniería de la Universidad de Stanford. LVIS ha sido seleccionada como miembro de la comunidad Stanford StartX y del programa NVIDIA Inception. Contamos con un equipo internacional con sede principal en Palo Alto, California, EE. UU., y una oficina en Gangnam, Seúl, Corea del Sur. Estamos buscando personas talentosas que se unan a nosotros para transformar la industria de la atención médica en neurología. LVIS ofrece un entorno en el que se espera que todos crezcan junto con la empresa. Buscamos miembros autónomos y motivados que estén a la vanguardia de la tecnología. Responsabilidades Desarrollar y mantener APIs: Desplegar modelos de aprendizaje automático como APIs y construir servicios de API escalables. Optimizar cargas de trabajo de aprendizaje automático en la nube: Mejorar el rendimiento y la eficiencia en costos de los modelos de ML en AWS. Garantizar la estabilidad operativa: Diseñar e implementar sistemas de procesamiento de datos en tiempo real, registro, monitoreo y seguimiento del rendimiento de modelos. Desplegar modelos de ML en entornos reales: Asegurar el despliegue confiable y la gestión de modelos de ML y la deriva de datos en producción. Utilizar GPU y clústeres de GPU: Configurar y optimizar entornos basados en GPU para entrenamiento e inferencia de modelos (en la nube y en instalaciones propias). Construir pipelines de MLOps en AWS y Kubernetes: Desplegar y gestionar flujos de trabajo de ML en contenedores en entornos Kubernetes. Cualificaciones básicas Título universitario o superior en Ciencias de la Computación, Ciencia de Datos, Inteligencia Artificial o campos relacionados. 5 o más años de experiencia en MLOps o Ingeniería de ML. Experiencia con lenguajes y frameworks de programación relacionados con ML (Python, PyTorch, TensorFlow, etc.) Experiencia desplegando y gestionando modelos de ML utilizando herramientas como MLflow, TensorFlow Serving o TorchServe. Experiencia práctica con AWS. Competencia en la gestión y orquestación de contenedores usando Kubernetes y Docker. Experiencia con entrenamiento y optimización de modelos basados en GPU. Experiencia construyendo pipelines de procesamiento de datos a gran escala (Airflow, Kafka, etc.). Cualificaciones preferidas Experiencia práctica con pipelines de CI/CD (Jenkins, ArgoCD, etc.). Experiencia en el servicio de modelos de IA a gran escala. Conocimientos sobre procesamiento de transmisión y por lotes de datos en tiempo real. Preferiblemente experiencia en DevOps junto con MLOps.

Fuentea:  workable Ver publicación original

Ubicación
Palo Alto, CA, USA
Mostrar mapa

workable
Cookie
Configuración de cookies
Nuestras aplicaciones
Download
Descargar en
APP Store
Download
Consíguelo en
Google Play
© 2025 Servanan International Pte. Ltd.