Rejoignez le Projet Babel, une initiative d’IA de pointe visant à améliorer les performances multilingues de l’intelligence artificielle. Nous recherchons des évaluateurs talentueux en traduction automatisée pour examiner la qualité du contenu traduit utilisé dans la formation de modèles linguistiques avancés.
Dans ce rôle, vous comparerez des textes originaux en anglais avec leurs versions dans votre langue maternelle afin d’en évaluer l’exactitude, la fluidité et la qualité générale. Vos évaluations contribueront directement à la création de jeux de données synthétiques de haute qualité destinés à perfectionner la compréhension et la génération linguistique des systèmes d’IA.
Responsabilités principales
• Examiner les traductions de consignes et de réponses en anglais vers votre langue maternelle.
• Évaluer la précision, la clarté et la fluidité naturelle du texte traduit.
• Fournir un retour structuré concernant le sens, la grammaire, le ton et la justesse.
• Suivre les directives établies afin de garantir une évaluation cohérente.
Exigences
• Maîtrise native du kazakh
• Excellentes compétences écrites et de compréhension en anglais
• Une expérience préalable avec des modèles de langage (LLM) est un atout
• Capacité à examiner du contenu potentiellement sensible ou nuisible
Il s’agit d’un poste basé sur projet au sein de CrowdGen, en tant que contractant indépendant faisant partie de la communauté CrowdGen. Si vous êtes sélectionné, vous recevrez un courriel de CrowdGen vous invitant à créer un compte à partir de l’adresse utilisée dans votre candidature. Vous devrez vous connecter, réinitialiser votre mot de passe, compléter les étapes de configuration, puis poursuivre le processus de candidature pour ce rôle.
Contribuez à façonner l’avenir de l’IA. Postulez dès maintenant et travaillez à distance depuis votre domicile.
16 dollars de l’heure
Le salaire est indiqué en dollars américains.
To find out more about this job, please visit this link
