– Entité légale : Hyperconnect
– Marque : Tinder
– Équipe : Équipe ML de Tinder à Séoul
Présentation de l’équipe
L’équipe de Machine Learning (ML) de Tinder joue un rôle essentiel dans presque tous les domaines clés du produit, notamment les recommandations, la confiance et la sécurité, les profils, la croissance et les revenus. Notre mission est d’utiliser le machine learning pour améliorer l’expérience utilisateur, instaurer la confiance et stimuler la croissance de l’entreprise sur toute la plateforme Tinder.
L’équipe ML est organisée en trois groupes spécialisés :
– Ingénieurs en Machine Learning, axés sur le développement de modèles et l’amélioration des algorithmes.
– Ingénieurs en infrastructure ML, qui conçoivent des plateformes et outils évolutifs pour l’entraînement, le déploiement et la gestion des fonctionnalités.
– Ingénieurs logiciels en ML (ce poste), qui relient la recherche à l’application concrète en déployant les modèles ML dans les systèmes de production à grande échelle de Tinder.
Cette équipe est essentielle pour faire passer les modèles de l’expérimentation au déploiement, en veillant à ce qu’ils soient fiables, efficaces et percutants. De nombreux modèles sont déjà intégrés aux fonctionnalités clés de Tinder, influençant des millions d’interactions utilisateur chaque jour.
L’équipe collabore étroitement avec les ingénieurs ML et les équipes d’infrastructure aux États-Unis et à Séoul pour construire des systèmes fiables et évolutifs dans des environnements à fort trafic. Ce poste se situe à l’intersection du machine learning et du développement logiciel, garantissant une intégration efficace des modèles ML dans les produits Tinder.
Responsabilités
– Fournir un leadership technique au sein de l’équipe d’ingénierie logicielle ML à Séoul, encadrer les membres de l’équipe, établir les meilleures pratiques et gérer les projets de la conception au déploiement.
– Concevoir et mettre en œuvre des pipelines de déploiement de modèles ML, y compris des traitements batch, pour livrer les résultats des modèles de manière fiable aux systèmes de production.
– Développer et maintenir des services backend et des systèmes distribués pour un déploiement et une surveillance évolutifs des modèles ML à travers Tinder.
– Collaborer avec les ingénieurs ML pour déployer et intégrer de nouveaux modèles en production de manière fluide.
– Travailler avec les équipes ML et produit sur des projets impliquant des modèles de langage de grande taille (LLMs) pour résoudre des défis commerciaux majeurs.
– Être responsable des composants logiciels de la pile de production ML, y compris l’orchestration, les API, les pipelines de données, la gestion des versions de modèles et la surveillance.
– Garantir la scalabilité, la fiabilité et la robustesse des systèmes ML dans l’environnement de production à fort trafic de Tinder.
– Collaborer avec des équipes interfonctionnelles — y compris ingénieurs ML, ingénieurs en infrastructure ML, ingénieurs backend et CloudOps aux États-Unis — pour livrer des solutions ML complètes, nécessitant de solides compétences en communication en anglais.
– Générer un impact commercial mesurable en intégrant des modèles ML dans les fonctionnalités de Tinder qui améliorent l’expérience utilisateur, la confiance et l’engagement.
Qualifications
– Plus de 5 ans d’expérience en ingénierie logicielle, en particulier dans le backend, le ML ou l’ingénierie des données.
– Solide compréhension des fondamentaux de l’informatique, y compris les systèmes d’exploitation, l’architecture, les structures de données et les algorithmes.
– Expérience dans le développement de services ML/IA ou bonne connaissance des concepts d’ingénierie associés.
– Solides compétences en communication en anglais pour diriger des discussions techniques et collaborer avec des équipes basées aux États-Unis.
– Expérience avec des systèmes comme RDB, Redis et Kafka.
– Expérience pratique avec des outils de traitement de données batch et stream tels que Spark ou Flink.
– Expérience avec DataBricks pour les pipelines de données ou les feature stores.
– Expérience dans le déploiement et la gestion d’applications dans des environnements Kubernetes.
– Expérience dans la gestion d’infrastructure sur AWS.
– Maîtrise d’au moins un langage de programmation tel que Java, Kotlin, Golang, Python ou JavaScript (TypeScript), avec la capacité d’en apprendre d’autres rapidement.
– Autonomie et proactivité dans la prise en charge des tâches et la livraison de résultats.
Qualifications souhaitées
– Connaissance des outils de déploiement de modèles ML comme TensorFlow Serving, TorchServe, Triton Inference Server ou Ray Serve.
– Expérience avec les systèmes de feature store et le maintien de la cohérence entre les fonctionnalités en ligne et hors ligne.
– Expérience pratique dans la création et l’optimisation de pipelines de données à l’aide de frameworks d’orchestration comme Airflow.
– Connaissance des bonnes pratiques MLOps, y compris CI/CD pour le ML, la gestion des versions de modèles et l’évaluation ou le rollback automatisé.
– Expérience avec des outils d’observabilité pour les systèmes ML, tels que Prometheus et Grafana.
– Connaissance des grands modèles de langage (LLMs) et expérience dans leur déploiement ou ajustement pour des cas d’usage concrets.
– Expérience de travail dans des équipes mondiales et interfonctionnelles réparties sur plusieurs fuseaux horaires.
– Solide compréhension des algorithmes ML et passion pour leur application en environnement de production.
Processus de recrutement
– Type de contrat : Temps plein
– Processus de recrutement : Revue de candidature > Test de codage > Entretien avec le recruteur/responsable > 1er entretien > 2e entretien > 3e entretien > Offre finale (La plupart des entretiens se dérouleront en anglais)
– Seuls les candidats présélectionnés seront contactés après l’examen des candidatures.
– Documents requis : CV détaillé en anglais (PDF), dans n’importe quel format, axé sur l’expérience professionnelle.
Remarque : Toute fausse information dans votre candidature ou toute inéligibilité légale à l’emploi pourra entraîner l’annulation de votre offre. Des vérifications ou documents supplémentaires pourront être demandés si nécessaire.
Les anciens combattants et les personnes éligibles bénéficieront d’une préférence conformément aux lois applicables. Veuillez nous en informer lors de votre candidature et fournir les documents justificatifs si vous êtes sélectionné(e).
En postulant à un poste chez Hyperconnect, vous acceptez les conditions énoncées dans notre politique de confidentialité : https://career.hyperconnect.com/privacy
To apply for this job, please visit jobs.lever.co
