Fiche Sourcing IA

Data Engineer
Tech & Data

Prompts ChatGPT / Claude Optimisés

Prompt 1: Génération de Profils Ciblés

Génère une liste de 20 profils LinkedIn de Data Engineers basés en France (Paris, Lyon, Nantes) avec: - 3-7 ans d'expérience - Stack: Python, SQL, Spark, Airflow, DBT - Cloud: AWS (Redshift, Glue) ou GCP (BigQuery, Dataflow) - Secteurs: Tech, FinTech, E-commerce - Actuellement en poste dans des scale-ups ou startups (50-500 personnes) Format: Nom | Poste actuel | Entreprise | Stack principale | LinkedIn URL

Prompt 2: Message LinkedIn Personnalisé

Rédige un message LinkedIn de 150 mots max pour approcher un Data Engineer qui: - Travaille actuellement chez [NOM_ENTREPRISE] - A de l'expérience en [STACK_TECHNIQUE] - A publié récemment sur [SUJET] Ton: professionnel mais chaleureux Mentionne: projet data souveraineté + stack moderne (Snowflake, DBT, Airflow) CTA: appel découverte 20 min

Prompt 3: Screening de CV

Analyse ce CV de Data Engineer et évalue selon ces critères: 1. Stack technique (40 pts): - SQL avancé (window functions, CTEs) - Python (Pandas, PySpark) - Orchestration (Airflow, Prefect, Dagster) - Cloud Data (AWS Glue, GCP Dataflow, Azure Data Factory) - Data Quality (Great Expectations, DBT tests) 2. Expérience (30 pts): - Pipelines de données à grande échelle (> 100M records/jour) - Architecture data warehouse / data lakehouse - CI/CD et DataOps 3. Soft skills (20 pts): - Collaboration avec Data Scientists / Analysts - Documentation technique - Résolution de problèmes complexes 4. Fit culturel (10 pts): - Secteur tech / startup - Autonomie et proactivité Donne un score /100 et un avis GO / NO GO avec justification.

Prompt 4: Questions Techniques d'Entretien

Génère 10 questions techniques pour évaluer un Data Engineer niveau Mid-Senior (4-7 ans XP): Categories: 1. SQL avancé (2 questions) - window functions, optimization 2. Python data engineering (2 questions) - Spark, async processing 3. Architecture data (2 questions) - data lakehouse, CDC 4. Orchestration (2 questions) - Airflow, idempotence 5. Cas pratique (2 questions) - troubleshooting, design system Pour chaque question: - Niveau de difficulté - Réponse attendue courte - Red flags

Outils IA Recommandés

🔍 LinkedIn Sales Navigator + IA

Usage: Sourcing ciblé avec filtres avancés

Filtres clés:

  • Mots-clés: "Data Engineer", "Spark", "Airflow"
  • Années d'expérience: 3-7 ans
  • Localisation: France
  • Entreprise: 50-500 employés

Prix: ~80€/mois

🤖 Fetcher.ai

Usage: Automatisation emails personnalisés

Fonctionnalités:

  • Génération messages IA
  • Séquences multi-steps
  • Suivi & analytics

Prix: Dès 50$/mois

🔎 GitHub Search + IA

Usage: Identifier développeurs actifs

Requête type:

language:Python stars:>10 "airflow" OR "spark"

Analyser: contributions, projets data

📊 Crystal Knows

Usage: Analyse personnalité candidats

Fonctionnalités:

  • Profil DISC
  • Conseils communication
  • Prédiction fit culturel

Prix: Dès 49$/mois

🎯 Talent.io / WeLoveDevs

Usage: Matching automatique talents tech

Avantages:

  • Base qualifiée de candidats
  • Matching IA
  • Pré-screening automatique

Modèle: Success fee (15-20%)

💬 ChatGPT / Claude

Usage: Rédaction messages, screening CV

Use cases:

  • Personnalisation messages InMail
  • Analyse technique CV
  • Génération questions entretien

Prix: 20€/mois (GPT-4)

Boolean Search Avancées

🎯 Recherche 1: Data Engineer - Stack Moderne
(("Data Engineer" OR "Data Engineering") AND (Python AND SQL) AND (Spark OR Airflow OR DBT) AND (AWS OR GCP OR Azure)) -"Senior Manager" -"Lead" -"Director"

Usage: LinkedIn, Google X-Ray Search

🎯 Recherche 2: Data Engineer - Profil Startup/Scale-up
"Data Engineer" AND (startup OR scale-up OR "early stage") AND (Paris OR Lyon OR Nantes) AND ("Airflow" OR "DBT" OR "Snowflake")

Usage: Indeed, Welcome to the Jungle

🎯 Recherche 3: GitHub - Projets Data Engineering
language:Python (airflow OR "apache-spark" OR dbt OR dagster) stars:>5 pushed:>2024-01-01

Usage: GitHub Search → identifier contributeurs actifs

🎯 Recherche 4: Data Engineer - Expérience Cloud
"Data Engineer" AND ("AWS Glue" OR "GCP Dataflow" OR "Azure Data Factory") AND ("data lakehouse" OR "data warehouse") -recruiter

Usage: LinkedIn (filtrer par années d'expérience 3-7)

KPIs de Sourcing

50+
Profils identifiés/semaine
25%
Taux de réponse InMail
10
Entretiens/mois
15j
Time-to-hire moyen
3:1
Ratio candidats/offre
85%
Taux de satisfaction candidats

Canaux de Sourcing Prioritaires

PRIORITÉ 1 LinkedIn Sales Navigator

Pourquoi: Base de données massive de professionnels avec historique détaillé

Tactique: Recherches booléennes + InMail personnalisés + engagement sur posts

PRIORITÉ 2 Cooptation & Réseau

Pourquoi: Taux de conversion 5x supérieur, meilleur fit culturel

Tactique: Programme de cooptation avec prime (1 000-2 000€), activation réseau alumni

PRIORITÉ 3 GitHub + Open-Source

Pourquoi: Identifier des profils techniques passionnés et actifs

Tactique: Rechercher contributeurs projets Airflow, DBT, Spark ; analyser code quality

PRIORITÉ 4 Meetups & Conférences Data

Pourquoi: Networking de qualité, profils en veille active

Événements clés: Data Council Paris, Paris Data Engineers Meetup, AWS/GCP User Groups

PRIORITÉ 5 Job Boards Tech

Plateformes: Welcome to the Jungle, Talent.io, WeLoveDevs, Stack Overflow Jobs

Tactique: Offre détaillée avec stack technique, process transparent, remote-friendly

PRIORITÉ 6 Twitter/X + Communauté Data

Pourquoi: Identifier thought leaders et influenceurs data

Hashtags: #DataEngineering #Airflow #DBT #DataOps #ModernDataStack