Profil-Type Candidat Idéal

Data Engineer
Tech & Data

Thomas Dupont

"Construire des pipelines de données robustes et scalables"

Data Engineer passionné par l'architecture data moderne et l'automatisation. Spécialisé dans les pipelines à grande échelle et les écosystèmes cloud.

Âge
30 ans
Expérience
5 ans
Localisation
Paris

Parcours Type (2018-2026)

🎓 Formation Initiale

2015 - 2018

• Master en Informatique / Data Science (INSA, UTC, Dauphine)
• Spécialisation en Big Data et Distributed Systems
• Projet de fin d'études sur Spark et Hadoop

💼 Premier Poste - Data Analyst / Junior Data Engineer

2018 - 2020 (2 ans)

• Entreprise mid-cap ou startup (100-500 personnes)
• SQL, Python, premières pipelines ETL
• Découverte d'Airflow, dbt, data warehousing
• Collaboration avec Data Scientists et Analysts

🚀 Montée en Compétences - Data Engineer

2020 - 2023 (3 ans)

• Scale-up tech ou FinTech dynamique
• Responsable de pipelines critiques (millions de records/jour)
• Stack: Airflow, Spark, dbt, Snowflake/BigQuery
• Architecture data lakehouse (Delta Lake, Iceberg)
• Mise en place DataOps et data quality

⭐ Expertise Confirmée - Senior Data Engineer

2023 - 2026 (actuellement)

• Lead technique sur architecture data
• Ownership de la plateforme data complète
• Mentorat de juniors, code reviews, best practices
• Projets : migration cloud, refonte architecture, data mesh
• 🎯 Prêt pour le prochain challenge chez Pyl.Tech

Compétences Techniques Clés

🗃️ Bases de Données & SQL

SQL Avancé PostgreSQL MySQL Snowflake BigQuery Redshift Optimization

🐍 Python & Data Processing

Python 3.10+ Pandas PySpark Dask Polars Async/Await

🔄 Orchestration & Workflow

Apache Airflow Prefect Dagster dbt (Core/Cloud) DAG Design Idempotence

☁️ Cloud & Infrastructure

AWS (S3, Glue, Redshift, Lambda) GCP (BigQuery, Dataflow, Pub/Sub) Azure (Data Factory, Synapse) Terraform Docker Kubernetes

📊 Data Architecture

Data Warehouse Data Lake Data Lakehouse Delta Lake Apache Iceberg Star Schema Data Modeling

✅ Data Quality & Ops

Great Expectations dbt tests CI/CD (GitHub Actions) Monitoring (Datadog, Grafana) Data Observability Lineage Tracking

Motivations Principales

🎯 1. Architectures Modernes

Passion pour construire des architectures data modernes (data lakehouse, ELT, data mesh). Aime travailler avec les dernières technos (dbt, Snowflake, Delta Lake).

🚀 2. Impact & Scale

Envie de travailler sur des pipelines à fort impact business. Motivé par les challenges de scale (volumétrie, performance, résilience).

🤝 3. Collaboration Cross-Équipes

Apprécie travailler avec Data Scientists, Analysts, Product. Valorise la culture data-driven et le partage de connaissances.

🛠️ 4. Autonomie & Ownership

Recherche autonomie et ownership sur projets stratégiques. Veut prendre des décisions techniques et influencer la roadmap data.

💰 5. Rémunération & Évolution

Prétentions salariales : 50-65K€ brut annuel + variable. Recherche perspectives d'évolution vers Lead Data Engineer ou Data Architect.

Canaux de Sourcing Prioritaires

1

LinkedIn + Approche Directe

Profil complet avec mots-clés : "Data Engineer", "Airflow", "dbt", "Snowflake", "Spark".
💡 Message personnalisé mentionnant stack technique moderne et projets concrets.

2

Cooptation & Réseau Data

Fort réseau dans la communauté data engineering (anciens collègues, meetups).
💡 Programme de cooptation attractif avec prime (1 000-1 500€)

3

GitHub + Open-Source

Contributeur sur projets data : Airflow, dbt, Delta Lake, Spark.
💡 Recherche : language:Python stars:>10 "airflow" OR "dbt"

4

Meetups & Conférences Data

Participe aux meetups Paris : Data Engineers, dbt, Modern Data Stack.
💡 Sponsoriser ou organiser un tech talk chez Pyl.Tech

5

Job Boards Tech Spécialisés

Plateformes : Welcome to the Jungle, Talent.io, WeLoveDevs, Stack Overflow.
💡 Offre détaillée avec stack technique transparente et process clair

Profil Psychologique & Comportemental

🧠 Style de Travail

  • Rigoureux et méthodique : architecture propre, code quality
  • Pragmatique : équilibre entre perfection et delivery
  • Autonome : capable de gérer projets end-to-end
  • Collaboratif : apprécie travailler en équipe pluridisciplinaire

💬 Communication

  • Clair et structuré : documentation technique soignée
  • Pédagogue : sait expliquer concepts techniques
  • Transparent : communique blockers et risques
  • Actif : Slack, code reviews, partage de connaissances

🎯 Aspirations

  • Devenir Lead Data Engineer ou Data Architect dans 2-3 ans
  • Construire des architectures data from scratch
  • Contribuer à l'open-source (Airflow, dbt)
  • Mentorer des juniors et partager l'expertise

🚨 Red Flags (Démotivations)

  • ❌ Stack technique legacy et non maintenable
  • ❌ Dette technique importante sans roadmap d'amélioration
  • ❌ Absence de data quality et d'observability
  • ❌ Culture "quick & dirty" sans rigueur
  • ❌ Pas d'évolution ni de formation technique