Paula Fonte · Freelance data engineering & analytics

Des systèmes data clairs, fiables et prêts à soutenir vos décisions.

Je conçois des pipelines, des modèles analytiques et des automatisations pour les entreprises qui ont besoin de structurer des flux complexes sans alourdir leur organisation.

  • Paris, remote ou sur site
  • Mathématiques appliquées + ingénierie data
  • GCP, BigQuery, Python, SQL

Services

Ce que je prends en charge

Pipelines data & architecture cloud

Problème Des données éparpillées, des flux manuels ou des traitements difficiles à maintenir.

Intervention Je conçois des pipelines fiables, des couches de stockage structurées et une architecture claire sur GCP.

Résultat Une base technique stable pour centraliser, transformer et exploiter vos données plus sereinement.

Modèles analytiques & reporting

Problème Des indicateurs peu fiables ou des analyses qui demandent trop de retraitement manuel.

Intervention Je structure les tables, formalise les règles métier et prépare des modèles analytiques lisibles.

Résultat Des dashboards et des analyses qui reposent sur une donnée cohérente, compréhensible et réutilisable.

Automatisation de workflows

Problème Des tâches récurrentes mobilisent du temps et introduisent des erreurs évitables.

Intervention J'automatise les mises à jour, synchronisations et contrôles avec Python et des services cloud.

Résultat Des processus plus fluides, moins de friction opérationnelle et un meilleur suivi dans le temps.

Sélection de projets

Une sélection de projets qui montre ma manière d'aborder la donnée : structurer, fiabiliser et rendre l'information directement exploitable.

SQL Showcase — Requêtes avancées sur données publiques

Structurer une couche analytique plus lisible

Contexte Quand les analyses reposent sur des requêtes dispersées, il devient difficile de produire des indicateurs fiables et comparables.

Approche Conception de requêtes SQL avancées, organisation des transformations et optimisation de la lecture des données dans BigQuery.

Valeur Une base analytique plus claire pour fiabiliser les calculs métier et accélérer les analyses récurrentes.

  • SQL
  • BigQuery
  • Analytics
Voir le projet

Pipeline ETL sur GCP — Ingestion et transformation automatisées

Fiabiliser un pipeline de bout en bout

Contexte Des données externes doivent être collectées, transformées et chargées automatiquement sans multiplier les manipulations manuelles.

Approche Mise en place d'un pipeline orchestré sur GCP avec ingestion, stockage brut, transformation et exposition analytique.

Valeur Un flux plus robuste, plus traçable et prêt à alimenter le reporting ou d'autres usages métier.

  • GCP
  • BigQuery
  • Airflow
  • ETL
  • Python
Voir le projet

Analyse Prédictive — Prévision de la demande et détection d'anomalies

Relier rigueur mathématique et usage métier

Contexte Certaines équipes ont besoin d'aller au-delà du reporting pour anticiper la demande, détecter des anomalies ou mieux piloter leurs opérations.

Approche Préparation des données, feature engineering et modélisation avec une lecture à la fois statistique et opérationnelle.

Valeur Des analyses prédictives conçues pour éclairer la décision sans perdre en lisibilité ni en rigueur.

  • Python
  • Scikit-learn
  • Data Science
  • Mathématiques
Voir le projet

Différenciation

Une approche structurée, pensée pour durer

Mon travail se situe à l'intersection de la rigueur technique, de la modélisation analytique et de la clarté de l'information.

Structurer avant d'empiler

Je cherche d'abord à simplifier l'architecture et les flux pour éviter la dette cachée.

Rendre les systèmes lisibles

Une stack utile n'est pas seulement performante : elle doit aussi être compréhensible par l'équipe qui la reprend.

Transformer la technique en outil métier

Chaque choix d'implémentation vise un usage concret : décider plus vite, automatiser mieux, analyser avec confiance.

Collaboration

Comment je travaille

1

Comprendre le contexte

Cartographier les sources, les flux existants, les irritants métiers et les points de blocage.

2

Concevoir une base fiable

Définir une structure claire pour les pipelines, les modèles analytiques et les automatisations.

3

Livrer des résultats réutilisables

Fournir une implémentation documentée, maintenable et directement exploitable par vos équipes.

Contact

Besoin d'un socle data plus clair et plus fiable ?

Je travaille avec des équipes qui veulent mettre de l'ordre dans leurs flux, consolider leur reporting ou automatiser des tâches data critiques.

  • Missions freelance à partir d'un mois
  • Paris, Île-de-France ou remote en France
  • Français, anglais et espagnol