À propos du poste
Nous recherchons un Analyste de Données GCP possédant une solide expertise sur BigQuery, des compétences avancées en SQL et Python, ainsi qu’un esprit analytique aiguisé. Ce poste implique de soutenir les efforts de validation des données et les tâches analytiques en cours. Le candidat idéal saura travailler avec de grands ensembles de données, rédiger des requêtes efficaces et identifier les problèmes de données avec précision et perspicacité.
Vous interviendrez sur divers processus de données, de la validation des métriques lors de migrations de systèmes au soutien de l’analyse et du reporting de routine. Le poste exige l’utilisation de fonctionnalités avancées de BigQuery — telles que les vues autorisées, les vues matérialisées, les fonctions définies par l’utilisateur (UDF), le partitionnement et l’analyse de séries temporelles — pour maintenir la qualité des données et révéler des insights exploitables. La maîtrise de Python, notamment avec les dataframes et les bibliothèques pertinentes, est essentielle pour la manipulation des données, la détection d’anomalies et le prototypage de workflows.
Une bonne compréhension des principes d’ingénierie des données et de l’infrastructure GCP est importante, ainsi que la capacité à lire et comprendre du code Java ou Scala lors de la collaboration avec les équipes d’ingénierie. La connaissance d’Airflow (Composer) est utile pour comprendre l’orchestration des pipelines de données, bien que cela ne constitue pas une responsabilité principale. Une expérience avec BigQuery ML, les outils de détection d’anomalies ou Vertex AI est un atout.
Responsabilités principales
– Rédiger, optimiser et exécuter des requêtes SQL complexes dans BigQuery pour valider les données, détecter les incohérences et soutenir l’analyse.
– Analyser de grands ensembles de données pour évaluer la qualité des données, comparer les tendances entre systèmes et identifier les anomalies.
– Utiliser les fonctionnalités avancées de BigQuery telles que les vues autorisées, les vues matérialisées, les UDF, les tables partitionnées et les jointures pour une analyse évolutive.
– Utiliser Python et les dataframes pour l’analyse exploratoire, la manipulation des données et les workflows de validation.
– Réaliser des analyses de séries temporelles et de détection d’anomalies en SQL ou Python.
– Valider les chargements et transformations de données pour garantir l’exactitude des pipelines.
– Collaborer avec les ingénieurs pour comprendre les pipelines de données, avec la capacité de lire du code Java ou Scala si nécessaire.
– Comparer les ensembles de données entre systèmes pour garantir la cohérence pendant et après les migrations.
– Comprendre les outils d’orchestration comme Airflow (Composer) pour suivre la logique des pipelines et collaborer efficacement.
– Travailler dans l’écosystème GCP, en utilisant les outils cloud pour analyser les données, résoudre les problèmes et gérer les workflows.
– Communiquer clairement les résultats et les préoccupations liées à la qualité des données aux parties prenantes pour soutenir la prise de décisions éclairées.
Qualifications
– Diplôme de licence en informatique, science des données, ingénierie ou domaine connexe.
– Plus de 5 ans d’expérience en analyse de données ou en ingénierie analytique, avec de solides compétences en BigQuery, SQL et Python.
– Plus de 5 ans d’expérience sur Google Cloud Platform (GCP).
– Expertise dans la rédaction et l’optimisation de requêtes SQL pour la validation des données, l’analyse des tendances et l’identification des écarts.
– Maîtrise de Python, y compris les dataframes et les bibliothèques analytiques courantes.
– Expérience de l’utilisation des fonctionnalités avancées de BigQuery telles que les vues autorisées, les vues matérialisées, les UDF, les partitions et l’analyse de séries temporelles.
– Solides compétences analytiques et expérience dans la validation des données entre systèmes lors de migrations et d’opérations continues.
– Capacité de base à lire et interpréter du code Java ou Scala pour soutenir la collaboration avec les ingénieurs.
– Familiarité avec Airflow (Cloud Composer) pour comprendre et suivre les pipelines de données.
Qualifications souhaitées
– Expérience avec Looker ou d’autres outils BI pour la validation des métriques et le reporting.
– Connaissance de BigQuery ML et Vertex AI.
– Compréhension de base des systèmes hérités comme Oozie ou Pig pour la lecture de scripts existants.
Compétences requises
– Maîtrise de SQL, BigQuery et Python.
– Compétences avancées en SQL dans BigQuery pour la validation complexe, la détection d’anomalies et l’analyse des tendances.
– Expérience dans la comparaison d’ensembles de données entre différents systèmes.
– Capacité avérée à détecter et enquêter sur les écarts de données entre plateformes.
– Intuition analytique forte pour valider les métriques et identifier les problèmes non détectés par des alertes.
– Capacité à comparer les métriques et les tendances côte à côte pour confirmer l’exactitude après migration.
– Compétence en analyse des causes racines à l’aide de SQL et de la connaissance du domaine.
– Communicateur efficace capable de documenter et partager les insights avec des publics techniques et non techniques.
– Familiarité avec l’analyse de séries temporelles pour identifier les changements inattendus de métriques.
– Capacité à suivre des processus de validation structurés tout en proposant des améliorations de workflow.
Déplacements
– Déplacements possibles selon les besoins de l’entreprise.
Transparence de la rémunération (pour les résidents de CA, CO, HI, NY, WA uniquement)
– Colorado : 143 700 $ – 210 760 $
– Hawaï et État de New York (hors NYC) : 153 000 $ – 224 400 $
– Californie, New York City et Washington : 167 400 $ – 245 520 $
Une rémunération supplémentaire peut inclure des primes, commissions ou autres paiements discrétionnaires basés sur la performance. La rémunération réelle dépend de divers facteurs, notamment l’expérience, les compétences, les certifications et la localisation. En savoir plus sur les avantages sur https://rackspace.jobs/benefits.
À propos de Rackspace Technology
Rackspace Technology est un leader des solutions multicloud, combinant une expertise approfondie avec les meilleures technologies dans les domaines des applications, des données et de la sécurité pour fournir des solutions complètes. Nous aidons nos clients à relever leurs défis métier, concevoir des systèmes évolutifs, gérer et optimiser leurs solutions, et générer de la valeur à long terme. Reconnus comme l’un des meilleurs lieux de travail par Fortune, Forbes et Glassdoor, nous nous engageons à attirer et développer les meilleurs talents. Rejoignez-nous pour adopter la technologie, accompagner nos clients et façonner l’avenir.
En savoir plus sur Rackspace Technology
Chez Rackspace, nous sommes unis par une mission commune : être un membre apprécié d’une équipe gagnante avec une vision guidée par un objectif. Nous apportons notre authenticité au travail et croyons que la diversité des perspectives stimule l’innovation et nous aide à mieux servir nos clients et communautés à travers le monde. Nous sommes un employeur garantissant l’égalité des chances et accueillons les candidatures sans distinction d’âge, de race, d’identité de genre, de handicap, de statut de vétéran ou de toute autre caractéristique légalement protégée. Si vous avez besoin d’aménagements pendant le processus de recrutement, veuillez nous en informer.
To apply for this job, please visit jobs.lever.co