Rejoignez le projet Spearmint, une initiative d’évaluation multilingue de l’IA axée sur l’analyse des réponses générées par des modèles de langage de grande taille (LLM) dans diverses langues, en mettant l’accent sur le ton ou la fluidité. Pour participer, vous devez avoir une maîtrise native de la langue cible et une bonne compréhension de l’anglais.
En tant qu’évaluateur, vous analyserez de courts ensembles de données prédécoupés et évaluerez les réponses générées par l’IA selon des critères de qualité définis. Vos retours contribueront à valider les méthodes d’évaluation et à établir des normes de qualité de base pour les futures améliorations des modèles.
Responsabilités principales :
– Évaluer les réponses de l’IA dans votre langue maternelle, en vous concentrant sur le ton ou la fluidité.
– Juger la qualité globale, l’exactitude et le naturel des réponses.
– Lire une question d’utilisateur et deux réponses générées par des modèles, puis noter chacune sur une échelle de cinq points.
– Fournir de brèves explications pour toute note extrême.
Détails du projet :
Lot 1 – Ton : Évaluer si les réponses sont utiles, engageantes, équitables et pertinentes. Identifier les problèmes tels qu’un niveau de formalité inapproprié, un ton condescendant, des biais ou d’autres préoccupations liées au ton.
Lot 2 – Fluidité : Examiner les réponses sur les plans de la grammaire, de la clarté, de la cohérence et de la fluidité naturelle.
Il s’agit d’un rôle basé sur un projet avec CrowdGen, où vous interviendrez en tant que contractant indépendant. Si vous êtes sélectionné, vous recevrez un e-mail de CrowdGen pour créer un compte en utilisant l’adresse e-mail de votre candidature. Vous devrez vous connecter, réinitialiser votre mot de passe, compléter les étapes de configuration, puis poursuivre votre candidature.
Contribuez à façonner l’avenir de l’IA — postulez dès maintenant et participez depuis chez vous.
Rémunération : 2 $ – 20,22 $ de l’heure.
To apply for this job, please visit jobs.lever.co