Glama construit et soutient l’infrastructure fondamentale de l’écosystème du Model Context Protocol (MCP), permettant aux développeurs et aux organisations de créer, lancer et faire évoluer des services basés sur MCP.
Ce que nous faisons
– Gérer le plus grand annuaire public gratuit de serveurs MCP, avec un accès API ouvert.
– Fournir un hébergement privé de serveurs MCP pour plus de 30 000 utilisateurs actifs.
– Développer des outils et frameworks open source tels que FastMCP, mcp-proxy et mcp-client.
– Exploiter une passerelle connectant les utilisateurs à des modèles de langage (LLMs) fournis par Anthropic, OpenAI et Grok.
– Proposer un client MCP similaire à ChatGPT permettant aux utilisateurs d’interagir avec divers LLMs.
– Animer les deux plus grandes communautés MCP sur Reddit et Discord.
Rôle
Vous serez le premier ingénieur à temps plein de Glama, rejoignant une équipe dirigée jusqu’à présent uniquement par les fondateurs. Vous jouerez un rôle clé dans la conception, la construction et la mise à l’échelle de produits et d’infrastructures utilisés quotidiennement par des milliers d’utilisateurs.
Sur quoi vous travaillerez
– Améliorer et développer l’annuaire de serveurs MCP, la passerelle et les plateformes d’hébergement.
– Concevoir des systèmes backend pour la découverte de serveurs, le déploiement, l’authentification et la surveillance.
– Créer des API, SDK et interfaces utilisateur pour les développeurs comme pour les utilisateurs finaux.
– Contribuer aux outils et bibliothèques MCP open source et les maintenir.
– Interagir avec les communautés de développeurs et les soutenir sur Reddit et Discord.
Ce que nous recherchons
– Excellente maîtrise de TypeScript, React, Node.js et PostgreSQL.
– Engagement à comprendre en profondeur l’écosystème MCP et à suivre son évolution.
– Capacité à identifier les défis techniques dans les systèmes MCP et à proposer des solutions innovantes pour la feuille de route produit.
Notre stack technologique
– TypeScript
– React (React Router v7)
– Node.js
– PostgreSQL
– Redis
– Docker, Kubernetes
– Temporal
Processus d’entretien
– Questions de suivi initiales (10–20 minutes)
– Entretien technique (30 minutes)
– Évaluation technique avec programmation en binôme (3 heures)
Ce poste est en télétravail, mais comprend jusqu’à 8 semaines par an de collaboration en présentiel dans des grandes villes américaines comme San Francisco et Austin.
To apply for this job, please visit glama.ai