Senior ML Softwareentwickler, Backend – Tinder

last updated November 1, 2025 0:26 UTC

Match Group

HQ: Hybrid

  • OFF: Seoul
  • Full-Time
  • Sales and Marketing

– Juristische Einheit: Hyperconnect
– Marke: Tinder
– Team: Tinder ML Seoul Team

Teamübersicht
Das Machine Learning (ML) Team von Tinder spielt eine zentrale Rolle in nahezu allen Kernbereichen des Produkts, darunter Empfehlungen, Vertrauen & Sicherheit, Profile, Wachstum und Umsatz. Unsere Mission ist es, mithilfe von Machine Learning die Nutzererfahrung zu verbessern, Vertrauen aufzubauen und das Unternehmenswachstum auf der Tinder-Plattform voranzutreiben.

Das ML-Team ist in drei spezialisierte Gruppen unterteilt:

– Machine Learning Engineers, die sich auf die Entwicklung von Modellen und die Weiterentwicklung von Algorithmen konzentrieren.
– Machine Learning Infrastructure Engineers, die skalierbare Plattformen und Tools für das Training, die Bereitstellung und das Feature-Management entwickeln.
– Machine Learning Software Engineers (diese Rolle), die Forschung mit realer Anwendung verbinden, indem sie ML-Modelle in Tinders groß angelegte Produktionssysteme integrieren.

Dieses Team ist entscheidend für den Übergang von Modellen aus der Experimentierphase in die Produktion und stellt sicher, dass sie zuverlässig, effizient und wirkungsvoll sind. Viele unserer Modelle sind bereits in zentrale Tinder-Funktionen integriert und beeinflussen täglich Millionen von Nutzerinteraktionen.

Das Team arbeitet eng mit ML-Ingenieuren und Infrastrukturteams in den USA und Seoul zusammen, um skalierbare und zuverlässige Systeme für stark frequentierte Umgebungen zu entwickeln. Diese Rolle liegt an der Schnittstelle zwischen Machine Learning und Softwareentwicklung und stellt sicher, dass ML-Modelle effektiv in Tinders Produkte integriert werden.

Aufgaben

– Technische Führungsrolle im ML Software Engineering Team in Seoul übernehmen, Teammitglieder betreuen, Best Practices etablieren und Projekte von der Konzeption bis zur Bereitstellung leiten.
– Entwurf und Implementierung von ML-Modell-Serving-Pipelines, einschließlich Batch-Jobs, um Modell-Ergebnisse zuverlässig in Produktionssysteme zu liefern.
– Aufbau und Wartung von Backend-Services und verteilten Systemen zur Unterstützung skalierbarer ML-Modellbereitstellung und -überwachung bei Tinder.
– Zusammenarbeit mit ML-Ingenieuren zur reibungslosen Bereitstellung und Integration neuer Modelle in die Produktion.
– Zusammenarbeit mit ML- und Produktteams an Projekten mit großen Sprachmodellen (LLMs), um zentrale geschäftliche Herausforderungen zu lösen.
– Verantwortung für die Softwarekomponenten des ML-Produktionsstacks, einschließlich Orchestrierung, APIs, Datenpipelines, Modellversionierung und Monitoring.
– Sicherstellung, dass ML-Systeme in Tinders stark frequentierter Produktionsumgebung skalierbar, zuverlässig und robust sind.
– Zusammenarbeit mit funktionsübergreifenden Teams – darunter ML Engineers, ML Infrastructure Engineers, Backend Engineers und CloudOps in den USA – zur Bereitstellung vollständiger ML-Lösungen, was starke Kommunikationsfähigkeiten in Englisch erfordert.
– Erzielen messbarer geschäftlicher Auswirkungen durch die Integration von ML-Modellen in Tinder-Funktionen, die Nutzererfahrung, Vertrauen und Engagement verbessern.

Qualifikationen

– Mindestens 5 Jahre Erfahrung in der Softwareentwicklung, insbesondere im Backend-, ML- oder Daten-Engineering.
– Solides Verständnis der Grundlagen der Informatik, einschließlich Betriebssysteme, Architektur, Datenstrukturen und Algorithmen.
– Erfahrung in der Entwicklung von ML/AI-Diensten oder fundiertes Wissen über verwandte technische Konzepte.
– Starke Englischkenntnisse zur Leitung technischer Diskussionen und Zusammenarbeit mit Teams in den USA.
– Erfahrung mit Systemen wie RDB, Redis und Kafka.
– Praktische Erfahrung mit Big-Data-Batch- und Stream-Verarbeitungstools wie Spark oder Flink.
– Erfahrung mit DataBricks für Datenpipelines oder Feature Stores.
– Erfahrung in der Bereitstellung und Verwaltung von Anwendungen in Kubernetes-Umgebungen.
– Erfahrung in der Verwaltung von Infrastruktur auf AWS.
– Beherrschung mindestens einer Programmiersprache wie Java, Kotlin, Golang, Python oder JavaScript (TypeScript) sowie die Fähigkeit, weitere Sprachen schnell zu erlernen.
– Eigenverantwortlich und proaktiv in der Übernahme von Aufgaben und der Erzielung von Ergebnissen.

Bevorzugte Qualifikationen

– Vertrautheit mit ML-Modell-Serving-Tools wie TensorFlow Serving, TorchServe, Triton Inference Server oder Ray Serve.
– Erfahrung mit Feature-Store-Systemen und der Aufrechterhaltung der Konsistenz zwischen Online- und Offline-Features.
– Praktische Erfahrung im Aufbau und der Optimierung von Datenpipelines mit Orchestrierungs-Frameworks wie Airflow.
– Kenntnisse über Best Practices im Bereich MLOps, einschließlich CI/CD für ML, Modellversionierung sowie automatisierte Bewertung oder Rollback.
– Erfahrung mit Observability-Tools für ML-Systeme wie Prometheus und Grafana.
– Erfahrung mit großen Sprachmodellen (LLMs) und deren Bereitstellung oder Feinabstimmung für reale Anwendungen.
– Erfahrung in der Arbeit in globalen, funktionsübergreifenden Teams über Zeitzonen hinweg.
– Tiefes Verständnis von ML-Algorithmen und Leidenschaft für deren Anwendung in Produktionsumgebungen.

Bewerbungsprozess

– Beschäftigungsart: Vollzeit
– Einstellungsprozess: Bewerbungsprüfung > Codierungstest > Gespräch mit Hiring Manager/Recruiter > 1. Interview > 2. Interview > 3. Interview > Endgültiges Angebot (Die meisten Interviews finden auf Englisch statt)
– Nur ausgewählte Kandidaten werden nach der Sichtung der Unterlagen kontaktiert.
– Erforderliche Unterlagen: Detaillierter englischer Lebenslauf (PDF) in beliebigem Format mit Fokus auf berufliche Erfahrung.

Hinweis: Falls falsche Angaben in Ihrer Bewerbung festgestellt werden oder Sie rechtlich nicht für eine Anstellung berechtigt sind, kann Ihr Angebot widerrufen werden. Gegebenenfalls werden zusätzliche Prüfungen oder Unterlagen angefordert.

Veteranen und berechtigte Personen erhalten gemäß den geltenden Gesetzen eine bevorzugte Behandlung. Bitte informieren Sie uns während des Bewerbungsprozesses und reichen Sie bei Auswahl entsprechende Nachweise ein.

Mit Ihrer Bewerbung bei Hyperconnect stimmen Sie den Bedingungen unserer Datenschutzrichtlinie zu: https://career.hyperconnect.com/privacy

Apply info ->

To apply for this job, please visit jobs.lever.co