Carbon Intelligence™ · Connectez vos données
Notre plateforme a été conçue pour s'intégrer nativement à l'ensemble des DSP et plateformes publicitaires de l'écosystème adtech mondial. Ce guide vous accompagne pas à pas pour connecter vos plateformes publicitaires à Carbon Intelligence™ — en quelques minutes seulement.

Display & Video 360
Le DSP programmatique de Google — la source de données la plus riche pour l'analyse carbone avec un accès exclusif aux dimensions de type de connexion, d'exchange et d'environnement.
Dimensions disponibles
Dans DV360, allez dans Reporting → Create Report.
Sélectionnez les dimensions listees ci-dessus — incluez Exchange, Connection Type et Environment pour une granularité maximale.
Ajoutez Impressions, Clicks, Total Media Cost et tout autre KPI que vous suivez.
Exécutez le rapport et téléchargez-le en fichier CSV.
Glissez-déposez le CSV dans la plateforme Carbon Intelligence™ — vos données d'émissions seront prêtes en quelques secondes.
Assurez-vous que Python 3.8+ est installe. Exécutez pip install google-api-python-client google-auth.
Dans Google Cloud Console, créez un compte de service avec l'accès à l'API DV360 et le scope Display & Video 360.
Téléchargez le fichier de clé du compte de service et enregistrez-le en lieu sur. Vous référencerez ce chemin dans le script.
Ouvrez le script et définissez votre ADVERTISER_ID, le chemin KEY_FILE et la plage de dates souhaitee.
Exécutez python carbon-intelligence-dv360-export.py. Le script extraira les données via l'API DV360 et générera un CSV prêt à être charge.
Utilisez cron (Linux/Mac) ou le Planificateur de taches (Windows) pour automatisér les extractions hebdomadaires.
Dans Google Cloud Console, activez le service BigQuery Data Transfer pour votre projet.
Configurez un transfert planifie de DV360 vers BigQuery, en selectionnant les identifiants annonceur et les dimensions nécessaires.
Créez ou sélectionnez un dataset BigQuery pour recevoir les données DV360. Définissez la region et les politiques d'expiration appropriees.
Dans Carbon Intelligence™, ajoutez une source de données BigQuery et authentifiez-vous avec vos identifiants Google Cloud.
Sélectionnez les tables à synchroniser et définissez la fréquence de rafraîchissement. Les données alimenteront automatiquement votre tableau de bord carbone.

Google Ads
Search, Display, Video, Performance Max — la plateforme publicitaire la plus utilisée. Les Google Ads Scripts natifs rendent l'automatisation fluide.
Dimensions disponibles
Naviguez vers Reports → Predefined reports dans votre compte Google Ads.
Ajoutez les dimensions Campaign, Device, Geography, Placements, Creative Size et Ad Format.
Incluez Impressions, Clicks, Cost et toute autre metrique que vous suivez.
Exécutez le rapport et téléchargez-le en fichier CSV.
Glissez-déposez le CSV dans la plateforme Carbon Intelligence™.
Les Google Ads Scripts s'exécutent nativement dans Google Ads — aucune installation locale requise. Le script exporte les données vers un Google Sheet, que vous pouvez ensuite télécharger ou connecter directement.
Dans Google Ads, naviguez vers Tools & Settings → Scripts.
Cliquez sur le bouton + pour créér un nouveau script et collez le script d'export Google Ads de Carbon Intelligence™.
Créez un nouveau Google Sheet et collez son URL dans la variable SPREADSHEET_URL du script.
Cliquez sur Authorize, puis Run. Le script remplira 9 onglets dans votre Google Sheet.
Configurez le script pour s'exécuter chaque semaine sous Scripts → Frequency.
Onglets Google Sheet créés par le script
| Nom de l'onglet | Contenu |
|---|---|
| CI_Campaigns | Donnees au niveau campagne avec IDs, types et strategies d'encheres |
| CI_Device | Repartition des performances par type d'appareil |
| CI_Geo | Performance geographique par pays et region |
| CI_Placements | Details des placements sur les sites et applications |
| CI_CreativeSize | Dimensions des creations et types de publicités |
| CI_AdFormat | Repartition Search, Display, Video, Discovery |
| CI_Video | Quartiles video, durée et taux de visionnage |
| CI_Metadata | Informations du compte, plages de dates et metadonnées d'export |
| CI_Export_CSV | Export combine prêt pour le téléchargement CSV |
Dans Google Cloud Console, activez le service BigQuery Data Transfer.
Créez une configuration de transfert Google Ads, en associant votre compte Ads (MCC ou individuel) à BigQuery.
Sélectionnez les tables Google Ads à transférer et définissez le calendrier de rafraîchissement (quotidien recommandé).
Dans Carbon Intelligence™, ajoutez BigQuery comme source de données et authentifiez-vous.
Mappez les tables BigQuery aux dimensions Carbon Intelligence™ et activez la synchronisation automatique.

Meta Ads
Facebook, Instagram, Audience Network, Messenger — le plus grand écosystème de publicité sociale. Granularité unique sur les placements (Feed, Stories, Reels) et les impression devices réels.
Dimensions disponibles
Allez dans Meta Ads Manager et sélectionnez les campagnes que vous souhaitez analyser.
Cliquez sur Columns → Customize Columns et ajoutez les dimensions listees ci-dessus.
Utilisez Breakdown → By Delivery pour ajouter les breakdowns par Device, Platform, Placement et Impression Device.
Cliquez sur Export → Export Table Data et choisissez le format CSV.
Chargez le CSV dans Carbon Intelligence™ pour une analyse instantanee des émissions.
Utilisez l'API Marketing Meta v19.0 pour extraire programmatiquement les données de campagne avec toutes les breakdowns disponibles.
Allez sur developers.facebook.com et créez une nouvelle application avec l'accès à l'API Marketing.
Generez un jeton d'accès utilisateur systeme avec la permission ads_read sur les comptes publicitaires nécessaires.
Définissez votre ACCESS_TOKEN, AD_ACCOUNT_ID et la plage de dates souhaitee dans le script.
Exécutez python carbon-intelligence-meta-ads-export.py. Le script gere automatiquement la pagination et les limites de debit.
Planifiez l'execution hebdomadaire du script et chargez le CSV de sortie dans Carbon Intelligence™.
Connectez Meta Ads à votre Data Warehouse via un connecteur ETL pour un flux de données automatisé en temps réel.
Sélectionnez un connecteur compatible avec Meta Ads : Fivetran, Supermetrics, Funnel.io ou Adverity.
Connectez votre compte Meta Ads à l'outil ETL via OAuth. Sélectionnez les comptes publicitaires à synchroniser.
Configurez votre Data Warehouse de destination (BigQuery, Snowflake, Redshift ou Databricks).
Choisissez les tables Meta Ads à synchroniser (insights campagne, breakdowns, rapports creatifs) et définissez la fréquence de synchronisation.
Associez votre Data Warehouse à Carbon Intelligence™ et mappez les tables Meta Ads aux dimensions carbone.

The Trade Desk
Le DSP indépendant leader — transparence programmatique complète avec les dimensions de type d'achat, fournisseur et environnement pour une analyse carbone granulaire.
Dimensions disponibles
Dans The Trade Desk, naviguez vers Analytics → My Reports.
Cliquez sur New Report et sélectionnez l'annonceur et la plage de dates.
Ajoutez les dimensions listees ci-dessus, y compris Supply Vendor, Buy Type et Environment. Ajoutez les métriques Impressions et Cost.
Exécutez le rapport et téléchargez-le au format CSV.
Chargez le CSV dans Carbon Intelligence™.
Utilisez l'API REDS v3 de The Trade Desk pour exporter programmatiquement les données de rapport avec une granularité complète des dimensions.
Obtenez votre jeton API depuis la plateforme The Trade Desk sous Settings → API Tokens.
Définissez votre API_TOKEN, PARTNER_ID et ADVERTISER_ID dans le script.
Exécutez python carbon-intelligence-thetradedesk-export.py. Le script interroge l'API REDS et généré un CSV.
Automatisez avec un planificateur et chargez la sortie dans Carbon Intelligence™.
Connectez les données au niveau log de The Trade Desk ou utilisez un connecteur ETL pour une intégration basée sur un Data Warehouse.
Contactez votre responsable de compte TTD pour activer la livraison des données au niveau log (LLD) vers votre stockage cloud (S3, GCS ou Azure Blob).
Configurez votre bucket cloud et paramétrez votre Data Warehouse pour ingérer les fichiers LLD selon un calendrier.
Construisez des vues SQL ou des modèles dbt pour agréger les données au niveau log dans les dimensions nécessaires pour Carbon Intelligence™.
Associez votre Data Warehouse à Carbon Intelligence™ et mappez les tables agrégées aux dimensions carbone.

Amazon DSP
Acces à l'inventaire exclusif d'Amazon — IMDb TV, Twitch, Fire TV, Prime Video Ads. Dimension unique de source d'approvisionnement séparant l'inventaire propriété d'Amazon de l'inventaire tiers.
Dimensions disponibles
Dans Amazon DSP, naviguez vers Measurement & Reporting → Reports.
Cliquez sur Create Report et sélectionnez votre annonceur, la plage de dates et le type de rapport.
Sélectionnez toutes les dimensions disponibles, y compris Supply Source et Ad Format. Ajoutez les métriques Impressions et Total Cost.
Exécutez le rapport et téléchargez-le au format CSV.
Chargez le CSV dans Carbon Intelligence™.
Utilisez l'API Amazon Ads pour extraire programmatiquement les données de reporting d'Amazon DSP.
Allez sur le portail developpeur Amazon Ads et enregistrez votre application. Demandez l'accès au scope de reporting DSP.
Configurez les identifiants OAuth 2.0 — vous aurez besoin d'un CLIENT_ID, CLIENT_SECRET et REFRESH_TOKEN.
Définissez vos identifiants, PROFILE_ID et la plage de dates dans le script.
Exécutez python carbon-intelligence-amazon-dsp-export.py. Le script effectue la requête, interroge et telecharge le rapport automatiquement.
Automatisez les executions hebdomadaires et chargez le CSV de sortie dans Carbon Intelligence™.
Utilisez Amazon Marketing Cloud (AMC) pour le niveau d'intégration de données Amazon DSP le plus approfondi.
Contactez votre equipe de compte Amazon Ads pour provisionner une instance Amazon Marketing Cloud pour votre annonceur.
Dans l'interface AMC, ecrivez des requêtes SQL pour agréger les données DSP au niveau impression selon les dimensions nécessaires.
Configurez AMC pour envoyer les resultats des requêtes vers un bucket S3 que vous controlez.
Chargez les données S3 dans votre Data Warehouse (Redshift, Snowflake, BigQuery ou Databricks).
Associez votre Data Warehouse à Carbon Intelligence™ et mappez les tables de sortie AMC.
Autres Plateformes
Xandr, Yahoo DSP, TikTok Ads, Spotify Ads, Pinterest Ads, Snapchat Ads, LinkedIn Ads et toute autre plateforme publicitaire — Carbon Intelligence™ analyse n'importe quelles données de campagne via import CSV.
Exportez vos données de campagne depuis n'importe quel DSP ou plateforme publicitaire au format CSV. Carbon Intelligence™ corrèle votre empreinte carbone avec les performances publicitaires (clics, conversions, vues vidéo, revenus) pour prouver que la réduction carbone améliore les résultats. Plus vous incluez de dimensions, plus votre analyse carbone et performance sera précise.
📊 Impact sur la précision des calculs
📋 Comment préparer votre CSV
Accédez à la section reporting de votre plateforme et créez un rapport personnalisé. Incluez autant de dimensions du tableau ci-dessus que possible.
Votre CSV doit inclure au minimum : Date, Campaign, Impressions, Clicks, Cost et Country. Pour une analyse de performance complète, ajoutez aussi Conversions et Video Views. Sans le pays, le mix énergétique utilise une moyenne mondiale et perd en précision.
Téléchargez le rapport au format CSV. Assurez-vous que la première ligne contient les en-têtes de colonnes.
Glissez-déposez votre CSV dans la plateforme. Le moteur détecte automatiquement les colonnes, normalise les en-têtes et lance l'analyse carbone.
Choisissez votre niveau d'intégration
Trois façons de se connecter
Import CSV
~2 min- Aucune configuration technique requise
- Export manuel depuis l'interface DSP
- Chargement par glisser-deposer
- Idéal pour les analyses ponctuelles
- Idéal pour demarrer rapidement
Script API
~10 min- Extraction de données automatisée
- Scripts pre-construits pour chaque DSP
- Planifiez des executions hebdomadaires ou quotidiennes
- Formatage cohérent garanti
- Idéal pour le suivi continu
Data Warehouse
Temps réel- Connexion directe au warehouse
- Synchronisation en temps réel ou quasi temps réel
- Granularité maximale des données
- Fiabilite de niveau entreprise
- Idéal pour les opérations à grande échelle