Salario negociable
Tiger Analytics
Richardson, TX, USA
Tiger Analytics es una firma global de consultoría en inteligencia artificial y análisis de datos. Con datos y tecnología en el núcleo de nuestras soluciones, estamos resolviendo problemas que eventualmente impactan la vida de millones de personas a nivel mundial. Nuestra cultura se basa en la experiencia y el respeto, con una mentalidad centrada en el equipo. Con sede en Silicon Valley, nuestros centros de entrega se encuentran en todo el mundo y tenemos oficinas en múltiples ciudades de India, EE. UU., Reino Unido, Canadá y Singapur, incluyendo una fuerza laboral global remota significativa. Tenemos la certificación Great Place to Work™. Al trabajar en Tiger Analytics, estarás en el centro de una revolución de IA. Trabajarás con equipos que expanden los límites de lo posible y crean soluciones que motivan e inspiran. Requisitos ¿Te interesa el puesto? ¿Cómo sería tu día típico? Como Ingeniero Principal de Datos (Azure), tendrás experiencia práctica trabajando en Azure como nube, Databricks y algo de exposición o experiencia en modelado de datos. Construirás y aprenderás sobre diversas soluciones y plataformas analíticas, lagos de datos, plataformas modernas de datos, soluciones de tejido de datos, etc., utilizando diferentes tecnologías de código abierto, big data y en la nube en Microsoft Azure. ● Diseñar y construir tuberías de ingesta de datos escalables y basadas en metadatos (para conjuntos de datos por lotes y transmisiones en vivo) ● Conceptualizar y ejecutar procesamiento de datos de alto rendimiento para datos estructurados y no estructurados, y armonización de datos ● Programar, orquestar y validar tuberías ● Diseñar manejo de excepciones y monitoreo de registros para depuración ● Idear con tus compañeros decisiones relacionadas con la pila tecnológica y herramientas ● Interactuar y colaborar con múltiples equipos (Consultoría/Ciencia de Datos y Desarrollo de Aplicaciones) y diversas partes interesadas para cumplir plazos y hacer realidad soluciones analíticas. ¿Qué esperamos? ● Experiencia en la implementación de lagos de datos con tecnologías como Azure Data Factory (ADF), PySpark, Databricks, ADLS, Azure SQL Database ● Una base sólida con conocimientos prácticos de Azure Synapse Analytics, Event Hub y Streaming Analytics, Cosmos DB y Purview ● Pasión por escribir código de alta calidad que sea modular, escalable y libre de errores (habilidades de depuración en SQL, Python o Scala/Java). ● Entusiasmo por colaborar con diversas partes interesadas en toda la organización y asumir la responsabilidad completa de los entregables. ● Experiencia en el uso de tecnologías de big data como Hadoop, Spark, Airflow, NiFi, Kafka, Hive, Neo4J, Elastic Search ● Comprensión avanzada de diferentes formatos de archivo como Delta Lake, Avro, Parquet, JSON y CSV ● Buen conocimiento en la creación y diseño de API REST con experiencia práctica en proyectos de lagos de datos o lakehouse. ● Experiencia en apoyar a los equipos de BI y Ciencia de Datos en el consumo de datos de forma segura y controlada ● Certificaciones como Data Engineering en Microsoft Azure (DP-203) o Databricks Certified Developer (DE) son una ventaja adicional. Nota: El cargo será acorde con la experiencia y conocimientos. Los paquetes de compensación están entre los mejores del sector. Requisito del trabajo Obligatorio: Azure Data Factory (ADF), PySpark, Databricks, ADLS, Azure SQL Database Opcional: Azure Synapse Analytics, Event Hub y Streaming Analytics, Cosmos DB y Purview. Habilidades sólidas de programación, pruebas unitarias y depuración en SQL, Python o Scala/Java. Alguna experiencia en el uso de tecnologías de big data como Hadoop, Spark, Airflow, NiFi, Kafka, Hive, Neo4J, Elastic Search. Buen entendimiento de diferentes formatos de archivo como Delta Lake, Avro, Parquet, JSON y CSV. Experiencia trabajando en proyectos ágiles y siguiendo procesos DevOps con tecnologías como Git, Jenkins y Azure DevOps. Deseable: Experiencia en proyectos de lagos de datos y lakehouse Experiencia en la creación de servicios REST e implementación de arquitecturas orientadas a servicios. Experiencia en apoyar a los equipos de BI y Ciencia de Datos en el consumo de datos de forma segura y controlada. Certificaciones como Data Engineering en Microsoft Azure (DP-203) o Databricks Certified Developer (DE) Beneficios Este puesto ofrece una excelente oportunidad de desarrollo profesional significativo en un entorno empresarial en rápido crecimiento y desafiante, con un alto grado de responsabilidad individual.