Salario negociable
Qode
New Jersey, USA
Título del puesto: Arquitecto de Datos AWS (Servicios AWS y Datos) Ubicación del puesto: Florham Park, NJ/Nueva York/Fort Mill, SC (Híbrido) Función principal: El candidato ideal aportará una amplia experiencia en arquitecturas de lagos de datos y transmisión basadas en AWS, con capacidad para colaborar con partes interesadas técnicas y comerciales, garantizando soluciones de datos escalables, seguras y cumplidoras que se integren perfectamente con el ecosistema de datos empresarial. Funciones y responsabilidades: • Liderar la arquitectura y entrega de la solución Backbridge, actuando como capa de integración de datos casi en tiempo real entre sistemas. • Colaborar con arquitectos de datos empresariales, líderes de dominio y propietarios de productos para alinear reglas comerciales, gobernanza e integración de plataformas. • Diseñar y construir canalizaciones de datos utilizando AWS Glue, Lambda, MSK (Kafka) y Step Functions para escenarios tanto por lotes como de transmisión. • Desarrollar servicios de integración basados en API mediante API Gateway y Lambda para conectarse con sistemas upstream y downstream. • Garantizar el control de acceso basado en roles, cifrado de datos, auditoría y cumplimiento mediante IAM, Secrets Manager y Lake Formation. • Supervisar la orquestación de flujos de trabajo utilizando Glue Workflows y Step Functions. • Apoyar la automatización de CI/CD mediante Terraform y GitHub Actions. • Promover las mejores prácticas en optimización de rendimiento, manejo de errores y observabilidad utilizando CloudWatch y CloudTrail. • Actuar como asesor clave en la toma de decisiones técnicas para la arquitectura de datos futura. Habilidades y experiencia requeridas: Nube y tecnologías AWS: • Dominio de servicios AWS: S3, Glue, Lambda, Step Functions, CloudWatch, CloudTrail, IAM, Lake Formation, API Gateway, Secrets Manager, Parameter Store • Experiencia trabajando con Amazon MSK (Kafka) para ingesta y distribución de transmisiones de datos • Conocimiento de Athena, Redshift Spectrum y QuickSight para casos de uso de informes Lago de datos y marcos de procesamiento: • Conocimiento profundo de Amazon S3, Apache Iceberg, AWS Glue Data Catalog y Lake Formation para la gobernanza de datos • Experiencia previa con Snowflake o Databricks como parte de una estrategia de datos nativa en la nube • Fuerte experiencia en desarrollo ETL utilizando Python, PySpark y Glue Jobs Orquestación e integración: • Experiencia en la orquestación de trabajos por lotes y de transmisión con Glue Workflows y Step Functions • Competencia en la creación y gestión de APIs RESTful y puntos de conexión seguros mediante API Gateway DevOps y CI/CD: • Experiencia práctica con Terraform, GitHub Actions e infraestructura bajo control de versiones • Conocimiento de marcos de entrega o familiaridad con prácticas DevOps seguras del ciclo de vida del desarrollo de software (SDLC) y cumplimiento regulatorio BI y analítica: • Comprensión de Athena y QuickSight para apoyar consultas ad hoc y capacidades de informes para equipos operativos Cualificaciones preferidas: • Experiencia en la industria de servicios financieros o en entornos altamente regulados • Conocimiento de dominios de datos de corredores de bolsa y gestión de patrimonios (por ejemplo, libros de registros, posiciones, transacciones, cuentas, comisiones, etc.) • Certificaciones AWS (Arquitecto de Soluciones, Especialista en Análisis de Datos) • Fuertes habilidades de comunicación y liderazgo para trabajar con equipos comerciales y técnicos.