Senior Data Scientist

Résumé du poste

Paris
Data Scientist

Modèle de travail

Entièrement remote
Uniquement FR
il y a 5 jours
Description du poste

À propos de Redesign Group

Redesign Group est un fournisseur mondial de solutions technologiques et de cybersécurité qui s'appuie sur le design thinking, une expertise interdisciplinaire et des solutions technologiques émergentes pour aider les organisations à réaliser des transformations significatives. Nos équipes mondiales diversifiées, nos partenariats avec des fabricants de technologie stratégiques et nos services de cybersécurité nous positionnent comme un partenaire commercial prêt pour l'avenir.

Nous vivons selon nos valeurs fondamentales : servir les autres, être des solutionneurs de problèmes et nous concentrer sur les partenariats à long terme. Vous réussirez chez Redesign si vous vous épanouissez dans un environnement gratifiant qui évolue rapidement, vous met au défi de grandir et favorise la collaboration. Nous recherchons des candidats ayant une approche pratique axée sur le client, de solides compétences interpersonnelles et de communication, une éthique de travail solide et une excellente gestion du temps. Bien que le travail d'équipe soit attendu, la capacité à travailler de manière autonome dans un environnement au rythme rapide est cruciale.

Description du poste

Nous recherchons un Ingénieur Senior en Science des Données exceptionnel pour prendre en charge des fonctionnalités complètes basées sur LLM - pas un simple ingénieur de prompt. Vous concevrez, livrerez et exploiterez des systèmes LLM robustes (RAG, agents, réglage fin, optimisation de l'inférence) qui respectent les SLA produit, réduisent les risques et génèrent un impact commercial mesurable. Nous attendons un jugement approfondi en ML/ingénierie, une pensée produit et un sens des responsabilités - les outils ne sont qu'un moyen pour atteindre une fin.

Ce que vous gérerez

  • Architecturer, implémenter et exécuter des systèmes LLM en production (pipelines de récupération, orchestrations d'agents, flux de réglage fin) du prototype à l'échelle.
  • Traduire des problèmes produit ambigus en objectifs ML mesurables et choisir des compromis pragmatiques (taille du modèle vs latence, stratégie de récupération vs précision, coût vs qualité).
  • Construire des pipelines d'évaluation (humaine automatisée), définir des KPI pour les hallucinations, la pertinence, l'équité, et surveiller les performances de dérive en production.
  • Optimiser l'inférence et les déploiements (quantification, mise en lot, autoscaling, stratégies de cache).

Indispensable

  • 5 ans d'expérience en ingénierie ML/Deep Learning ou en recherche appliquée avec des déploiements en production.
  • Compréhension approfondie des modèles Transformer et des techniques d'entraînement/réglage fin (y compris les méthodes efficaces en termes de paramètres comme LoRA/adaptateurs).
  • Expérience pratique dans la construction de pipelines RAG et/ou de flux d'agents avec une attention particulière à la qualité de la récupération et à l'ingénierie du contexte.
  • Expérience en production avec l'optimisation de l'inférence et le service (compromis latence/coût, quantification, mise en lot, autoscaling).
  • Solides compétences en ingénierie logicielle : code de production, tests, CI/CD, observabilité et documentation claire.
  • Communicateur clair capable d'expliquer les compromis aux parties prenantes produit, infra et métier.

Atouts

  • Expérience avec les bases de données vectorielles (Qdrant ..) et les architectures d'intégration.
  • Connaissance des moteurs d'inférence (vLLM, Triton, HF Inference) ou de la compression/distillation de modèles.
  • Expérience en sécurité ML, gouvernance ou audit de conformité.
  • Expérience dans la conception de cadres d'évaluation humaine et la réalisation de tests A/B pour les versions de modèles.

Stack technologique

Python, écosystème PyTorch / Transformers, bases de données vectorielles (Qdrant ou autre), frameworks RAG (LangChain/LlamaIndex), outils d'inférence/service (vLLM, Triton, points de terminaison HF), conteneurisation (Docker), surveillance (Prometheus/Grafana, métriques de modèles personnalisées). Remarque : nous valorisons la fluidité conceptuelle plutôt que la fidélité à une marque spécifique.